9

GOOGLE Y LA SOCIEDAD DEL
«COPIA Y PEGA»

En un tiempo pasado, hacer fuego, cazar, recolectar e, incluso, pelear eran técnicas culturales determinantes. Actualmente lo son leer, escribir y calcular. ¿Qué técnicas serán decisivas en el futuro? ¿Cómo será el graduado escolar dentro de diez años? ¿Se incluirá en las calificaciones que los colegios otorgan cada trimestre a los alumnos la asignatura «Prácticas de Google»?

Googlear, buscar información en la Red o utilizar un motor de búsqueda es, desde hace tiempo, una técnica cultural. Solicitar conocimientos en cualquier momento y lugar, acceder a bases de datos de todo el mundo y encontrar fuentes de saber en los lugares más remotos (como permite Google con su algoritmo de búsqueda) no sólo provoca efectos positivos. Buscar en vez de aprender es, para muchos, la divisa principal. La información se reúne, se reordena y se procesa, pero ya no se elabora ni se adquiere. Los maestros y profesores de universidad llevan tiempo denunciando una tendencia a copiar de la Red. Efectivamente, el botón derecho del ratón y un par de combinaciones de teclado están acabando con los derechos de autor. Las fotografías de las páginas web se pueden almacenar en un ordenador con un sencillo «Guardar imagen como…», y combinando las teclas «Control+C» y «Control+V» (o «manzana» y «C/V») el famoso «copia y pega», podemos insertar todo tipo de información en nuestros textos y presentaciones. Se trata de una técnica habitual, tanto en redacciones escolares como en tesinas universitarias.

«¿Qué hay de malo en conseguir información de Internet?», pregunta Esther Dyson, quien considera que buscando y encontrando también se aprende: «La información de Internet también se tiene que interpretar antes de utilizarla». El síndrome del copia y pega no es nuevo, porque también en el pasado se tomaban extractos de libros, pero Internet ha facilitado enormemente esta tarea, sobre todo gracias a Google y a la Wikipedia.

Google es la mayor fotocopiadora de contenidos del mundo, critican los comunicólogos. Las violaciones de copyright por parte de los usuarios están a la orden del día. Se copian y reutilizan textos, fotografías y presentaciones, y en la plataforma YouTube se cuelgan montones de vídeos con derechos de autor vigentes. A pesar de que sería posible impedir o detectar el plagio, Google no hace prácticamente nada para controlar este fenómeno.

El comunicólogo Stefan Weber, famoso sobre todo por su labor de «cazador de plagios», creó el término «Google-CopyPaste-Syndrom» para designar el acto de copiar de la Red. Naturalmente, también se copian textos desde Yahoo!, AltaVista o MSN, «pero yo he intentado introducir un término que expresara con exactitud una nueva técnica cultural», explica Weber. «También habría podido hablar de un “Search-Copy-Paste-Syndrom”, pero habría quedado más difuso». Es decir, que search también habría incluido la búsqueda en el propio disco duro. Además, el verbo to google en inglés, o googeln en alemán, ya es una palabra acuñada para designar la búsqueda general en Internet. ¿O es que los usuarios de Yahoo! o AltaVista nunca han googleado? Por cierto, Google ha hecho algo que sólo han conseguido marcas como Tampax o Cello, a saber, convertirse en sinónimos del producto genérico que anuncian (en este caso, tampones y cinta adhesiva). Con to google sucedería lo mismo. «Lo divertido sería que el verbo google se propagase y subsistiera gracias las leyes de la memética, incluso si Google deja de ser el motor de búsqueda más importante», opina Weber.

Pero esto último no sucederá, porque la hegemonía de Google es inquebrantable y su destino es crecer antes que debilitarse, aunque Microsoft compre Yahoo!

La indiferencia de Google

Google responde con relativa indiferencia al reproche de estar fomentando el síndrome del copia y pega. «En el pasado también se hacía y tampoco pasaba nada», opina el director de investigación de Google, Peter Norvig. «Además, hoy es más fácil ser descubierto, porque se puede comprobar si se ha copiado o no de una página. También creo que el proceso de aprendizaje es mejor y más sencillo; existen planteamientos interesantes en este sentido. El sistema educativo tiene que adaptarse». O sea, Google no actúa y los demás reaccionan.

Las escuelas y universidades intentan controlar la copia en la Red con la ayuda de un software especial. Desde hace algún tiempo, los desarrolladores se esfuerzan en crear programas con los que desenmascarar a los transgresores del copyright. En las universidades del ámbito lingüístico alemán, los trabajos de los alumnos se examinan con MyDropBox, un software descargable por 80 euros en www.mydropbox.com que puede determinar de qué documento o página web se ha copiado un texto. Otros programas que permiten descubrir a los copiones son Plagiarism Finder[26] y Docoloc.[27] Sin embargo, todas las pruebas realizadas por el profesor Hermann Maurer, de la Universidad Tecnológica de Graz, la comunicóloga Debora Weber-Wulff y el cazador de plagios Stefan Weber han demostrado que «se trata puras coartadas que no tienen ningún sentido; su objetivo es, sin excepción, intimidar a los alumnos».

A mediados de 2007, Google dio un primer paso en la lucha contra el plagio y dejó de insertar anuncios de empresas que ofrecían servicios de redacción de tesis doctorales y otros trabajos académicos. Esta prohibición publicitaria hace que tales servicios no aparezcan anunciados en la lista de enlaces patrocinados, pero ello no significa que se ponga coto a la cultura del copia y pega.

En rigor, sólo los que desarrollan los motores de búsqueda podrían crear métodos para luchar contra este síndrome, pero parece que Google no quiere complicarse la vida. En vez de diseñar un servicio semejante al alemán Docoloc, la empresa lanza al mercado servicios como Google Translate o Google Notebook que facilitan la copia e inducen al usuario a seguir plagiando.

Según la encuesta de Marketagent.com, casi el 83% de los usuarios de Internet está convencido de que los motores de búsqueda contribuyen a la formación educativa (un 40,9% se muestra «totalmente de acuerdo» y un 42% «de acuerdo» con esta afirmación). Sólo uno de cada veinte encuestados piensa que la función educativa de Google y compañía es práctica o totalmente inexistente, siendo esta «compañía», entre otros, el diccionario inglés en línea Leo,[28] la enciclopedia alemana Brockhaus y, sobre todo, la Wikipedia. La encuesta también revela que el síndrome del copia y pega también tendría sus orígenes en Google y compañía, ya que casi la mitad de los entrevistados han empleado alguna vez esta técnica (un 6,7% lo hace «a menudo», un 17,3% «alguna vez» y un 18,2% «ocasionalmente»).

No se puede decir que Google sea directamente culpable, pero sí se le puede achacar una responsabilidad indirecta, porque muestra listas de páginas cuya información puede copiar el usuario. En este sentido, Google trata a la Wikipedia con demasiada benevolencia al ubicarla siempre en las posiciones superiores de su lista de resultados.

La Wikipedia es precisamente una de las webs preferidas para copiar. En principio, los trabajos científicos no pueden citarla como fuente, ya que sus entradas no tienen autor. «Estrictamente hablando, siempre es discutible citar de una enciclopedia, porque la información que publica nunca tiene un autor concreto», opina el profesor Hemann Maurer. El fundador de la Wikipedia, Jimmy Wales, también niega que su enciclopedia sea una fuente de plagio extendida y que contribuya a la expansión del corta y pega: «No creo que esto sea un problema. Antes también se copiaba, por ejemplo de la Brockhaus. Decir que los internautas ya no aprenden por culpa de la Wikipedia es, simplemente, un disparate».

Falta de colaboración

«Creo que es una lástima que los responsables de Google y Wikipedia no se muestren abiertos al diálogo respecto a la práctica del plagio», critica el cazador de plagios Weber. Si Google es capaz de desarrollar servicios como Google Translate o Google Notebook, también debería tener los recursos para sacar al mercado una especie de «Google AntiPlagio».

No es probable que en los laboratorios de Mountain View se esté trabajando en ello, a pesar de que Google colabora muy estrechamente con Firefox, el navegador incluido en el paquete de programas gratuitos de Google. El director de investigación de la empresa, Peter Norvig, pasa la patata caliente a la comunidad del software libre: «Los miembros de la comunidad del código abierto podrían desarrollar algo así». Para Norvig, el problema no se soluciona con programas, sino que es una cuestión educativa. Según él, habría que enseñar a los alumnos a manejar la información que encuentran en la Red: «El problema es que sus trabajos e investigaciones se basan en páginas como The Onion (web de información satírica estadounidense). Hay que explicarles qué páginas son fiables». ¿En la asignatura Prácticas de Google, por ejemplo?

Los «ladrones» de imágenes que descargan material de la Red también son objeto de persecución mediante software. «Hasta los profesionales piensan que en Internet las reglas son distintas», explica el director de una de las agencias de fotografía más importantes de Alemania al describir casos en los que se descargan fotos de estrellas del espectáculo para luego utilizarlas.

Canon está investigando en la tecnología Image Track Pro, un programa para detectar infracciones de copyright, y ya hay en funcionamiento soluciones creadas por www.ideeinc.com y www.digimarc.com. La primera supervisa más de 20 millones de imágenes para la agencia de noticias Associated Press mediante un procedimiento consistente en añadir una marca de agua al material fotográfico, lo que permite realizar un seguimiento en la Red en tiempo real. Por su parte, el programa Image-Bridge de Digimarc busca ejemplares robados para Corbis, uno de los mayores bancos de imágenes, y descubre incluso el material propio que ha sufrido modificaciones.

Este mismo afán por destapar las infracciones de los derechos de autor también se detecta en el sector audiovisual, debido principalmente a portales como YouTube o MySpace, que han hecho aumentar intensamente la propagación de vídeos ignorando el copyright. «Al menos el 20% de los contenidos que se ofrecen en la web está protegido contra copia», afirma Rowan Gardner, directora de marketing de la empresa británico-americana Virage. Según Gardner, el perjuicio por copias ilegales se eleva a 20 000 millones de dólares anuales. En 2007 Virage presentó el programa Acid[29] en la feria televisiva NAB de Las Vegas. Este software compara en tiempo real la videoteca de una cadena de televisión con los contenidos de Internet y determina qué páginas están ofreciendo vídeos de manera ilegal. Su funcionamiento, como se explica en una demo, es impresionante. Cuando detecta una copia, el programa muestra un signo de exclamación rojo y, al hacer clic sobre él, aparecen las páginas web y operadores implicados. «Se comprueban todos los vídeos de la Red que duren más de diez segundos», explica Gardner. Parece que ya hay interesados en pagar los 270 000 euros que cuesta el programa. «Estamos en tratos con muchas empresas», afirma Gardner sin mencionar nombres. Entre las firmas interesadas hay cadenas de televisión, emisoras como MTV y otros representantes de la industria musical. Acid no utiliza marcas de agua en los vídeos, sino un sistema mucho más sofisticado que incluye el reconocimiento de voz, texto y caras.

Los motores de búsqueda, y sobre todo Google, sirven de base para la violación de los derechos de copia, y por ello también deberían desarrollar los métodos necesarios para evitarlo. Sin embargo, Google sólo reacciona cuando la industria musical, cinematográfica o televisiva amenaza con querellas, como se ha visto en el caso de YouTube. No sólo el sector musical ha demandado a Google por la emisión de vídeos protegidos por los derechos de autor, sino también la industria cinematográfica y las emisoras de televisión por difundir contenidos en YouTube.

Debido a ello, en el otoño de 2007 se puso en marcha un sistema de protección del copyright en el portal de vídeos con el propósito de reconocer contenidos ilegales. El sistema de identificación utilizado marca los vídeos con una huella digital que permite reconocer inmediatamente los archivos protegidos. El sistema de filtrado se asemeja al de un motor de búsqueda y se pone en marcha cuando un usuario de YouTube intenta colgar un vídeo.

Google cedió a la presión de la industria del cine, la música y la televisión, pero ante el mundo científico, que no tiene ningún lobby que lo respalde ni puede amenazar con demandas millonarias, la empresa de Mountain View se comporta con completa indiferencia.

Pasando páginas

Google no sólo está en pie de guerra con maestros y profesores universitarios, sino que también ha tenido sus más y sus menos con el sector editorial. Cuando Larry Page y Sergey Brin visitaron en octubre de 2004 a la 54.a edición de la Feria del Libro de Frankfurt, no todos los europeos los recibieron con los brazos abiertos. Los empresarios presentaron la Búsqueda de libros de Google, que entonces todavía se llamaba Google Print.

El objetivo de los dos mandamases era crear una biblioteca en línea de 15 millones de volúmenes accesible a todo el mundo desde la Red y así, dijeron, nadie tendría que emprender largos trayectos a una biblioteca lejana para investigar en un trabajo científico o satisfacer la curiosidad.

En Estados Unidos, la Búsqueda de libros tuvo una acogida más positiva. La biblioteca de la Universidad de Michigan firmó el primer contrato con Google, que desarrolló unos robots escaneadores para copiar los libros junto con los bibliotecarios. Una de estas máquinas es capaz de escanear 1000 páginas cada hora. Otras universidades que ponen sus bibliotecas a disposición de la Búsqueda de libros de Google son Harvard, Oxford, la Complutense de Madrid, Stanford, Virginia, Wisconsin, Princeton y California, así como la Biblioteca de Catalunya y la New York Public Library. Google también colabora con la Biblioteca del Congreso de Estados Unidos, una de las mayores del mundo.

Aunque desde un principio se recalcó que los internautas sólo podrían hojear aquellos libros que ya fueran de dominio público o se hubiese llegado a un acuerdo al respecto, lo cierto es que a Page y a Brin les ha soplado el viento en contra. La idea de convencer a las bibliotecas más importantes del planeta para que escaneen sus libros y los cuelguen en la Red no ha gustado a todo el mundo. Por ejemplo, a los franceses. Jean-Noel Jeanneney, ex director de la Biblioteca Nacional francesa, escribió un opúsculo titulado Google desafía a Europa: el mito del conocimiento universal con el que reclamaba una solución europea y una intervención política. Para el autor, los libros son un bien cultural que no se puede ofrecer a precio de saldo a una empresa con intenciones comerciales.

La preocupación de que Google cierre algún día el acceso en línea a las bibliotecas y permita la consulta únicamente pagando no tiene mucho fundamento, porque las propias entidades se han asegurado por vía contractual la propiedad digital de los libros escaneados.

Por su parte, Google se ha encargado de aliviar las inquietudes de algunas editoriales respecto al hecho de copiar obras protegidas por derechos de autor y ofrecerlas gratuitamente. «Si se escanea un libro sobre el que todavía existen derechos de autor, se suprime del índice», confirmó un portavoz de la empresa. En marzo de 2007, Google firmó un contrato de colaboración con el Latid alemán de Baviera para la creación de una biblioteca online y que se inauguró en febrero de 2008. «El catálogo sólo permitirá mostrar completamente una obra si los derechos de autor ya han prescrito», explica Jens Redmer, director de la Búsqueda de libros de Google para Europa, Oriente Medio y África. «Si un libro tiene derechos de autor, el usuario sólo podrá ver datos bibliográficos como el título, el autor y un máximo de dos o tres extractos breves del texto, los llamados snippets».

La Búsqueda de libros de Google se nutre de dos fuentes distintas: el proyecto de bibliotecas y el programa de colaboradores. En el primero, las bibliotecas ponen a disposición sus libros para digitalizarlos. En ocasiones, la Búsqueda también puede hacer referencia a otras bibliotecas que tienen el libro en sus fondos, o bien a librerías donde se puede adquirir.

En cuanto al segundo, Google dice lo siguiente: «Los colaboradores (normalmente editoriales), ceden libros a Google para que los digitalice, los muestre en línea y los anuncie gratuitamente. Entonces, los usuarios pueden ver una cantidad limitada de páginas del libro relacionadas con la búsqueda que han realizado y, si les interesa, tienen la oportunidad de hacer un clic en la web de la editorial o de una librería para adquirir la obra». Las editoriales ya no se muestran tan escépticas como al principio y reconocen que no es mala idea ofrecer a los potenciales compradores de un libro la oportunidad de leer un breve extracto. El éxito de la opción «Search Inside» ofrecida por la librería online Amazon demuestra que no es una mala idea para estimular la compra.

A pesar de todo, la preocupación de Jean-Noel Jeanneney está justificada. Él critica la «americanización» y la «solidaridad angloamericana» del proyecto y teme que en el caso de libros de los que existen traducciones se preferirá la versión inglesa frente a la original. «En el caso de obras cuyos derechos de autor han prescrito y se han convertido en bienes generales, la cultura angloamericana es la favorita», afirma Jeanneney. «Es evidente que el inglés en su variedad americana se ha impuesto en detrimento del resto de lenguas europeas». Efectivamente, el inglés es el idioma más extendido en la Red. Concretamente, según Internet World Stats, lo hablan el 30% de los internautas (380 millones de personas), seguido del chino con un 14,7% (185 millones). En tercer lugar aparece la primera lengua «europea» de la clasificación, el español, con un 9% de los usuarios. Por su parte, la comunidad germanohablante de Internet agrupa a 62 millones de personas, un 4,9% de los internautas.

En opinión de Jeanneney, habría que dar prioridad a los clásicos, que son la base de nuestra civilización. «No hay que olvidar que una gran parte de las obras angloamericanas está disponible en nuestras lenguas, mientras que al otro lado del Atlántico se traducen muy pocas cosas: menos de un 3% de todas las publicaciones en Estados Unidos son traducciones», critica Jeanneney en su libro. Uno de sus temores es que la Búsqueda de libros de Google refuerce lo estadounidense o la visión del mundo estadounidense, porque, según Jeanneney, el servicio de Google mostrará una mayor preferencia por obras de Estados Unidos o traducciones de libros europeos al inglés.

Dejamos al criterio del lector valorar si estas sospechas son fundadas o no. Lo cierto es que Jeanneney, que ya no es director de la Biblioteca Nacional francesa, no quiere comentar la situación actual: «He decidido permanecer callado durante un tiempo», me escribió, «cuando acabe esta batalla y las muchas entrevistas y discursos». En los próximos años se verá si Google prefiere la literatura angloamericana. En cualquier caso, la advertencia ya está hecha.