4

LA CÁMARA DEL TESORO DE
GOOGLE

Todos los operadores de motores de búsqueda tienen claro que su actividad sólo se puede perfeccionar a base de saber mucho sobre el usuario, conocer sus preferencias y prever hacia dónde quiere ir para poder proporcionarle los resultados adecuados. En el año 2006, Google inscribió en el registro de patentes de Estados Unidos por lo menos ocho ideas encasillables en el ámbito del user tracking.

«Las invenciones relacionadas con el seguimiento al usuario han aumentado», afirma el analista estadounidense Stephen Arnold. Entre ellas se hallan las patentes siguientes: «Determining Advertisements Using User Behavior Information such as Past Navigation Information» (número de registro 20060224587), «Accelerating User Interfaces by Predicting User Actions» (20060047804), «Systems and Methods for Modifying Search Results Based on a User’s History» (20060224587) y «Systems and Methods for Analyzing a User’s Web History» (20060224583).

Los nombres de las patentes ya aclaran el objetivo de cada invención: saber más cosas sobre el usuario. La finalidad no sólo es analizar la conducta de navegación del internauta en función de sus búsquedas pasadas y su «historial web», sino también pronosticar lo que podría hacer. En resumen, Google espía a sus usuarios aplicando todos los trucos que ofrecen los métodos y las herramientas de análisis más novedosas.

Resulta llamativo que Google sea tan cuidadosa al elegir el léxico en las prolijas descripciones de las patentes. Hasta a Arnold, que es experto en patentes y no precisamente un escéptico de Google, le llama la atención que no se utilicen conceptos como user tracking (seguimiento del usuario) o customer monitoring (vigilancia del cliente). «Los asesores jurídicos de la empresa prefieren términos más disimulados, como cookies, tokenization o usage statistics». Los pequeños programas de espionaje llamados cookies están cargados de un sentido negativo, ya que protocolizan y graban la conducta del internauta. Las cookies son un elemento muy importante a la hora de crear perfiles de usuarios.

Hace tiempo que los expertos en seguridad de TI critican las cookies. Entre ellos está el presidente ejecutivo de Symantec, John W. Thompson, que las describe como «un grave ataque a la esfera privada de los usuarios». Thompson considera problemático el hecho de que se implanten cookies en un ordenador sin el conocimiento de los usuarios, porque tampoco saben lo que sucede con toda la información almacenada, y lo compara con ser visto por la ventana de tu dormitorio. Thompson exige que Google y compañía den a conocer formalmente lo que sucede con todos estos datos. Aparte de ello, también se declara firme defensor de una variante opt in para las cookies (preguntar al usuario si las quiere o no). En principio, los navegadores ofrecen actualmente la posibilidad de desactivar las cookies para que no se descarguen en el ordenador. Sin embargo, hay un inconveniente: algunas páginas no funcionan si no se les permite espiar.

Almacenamiento de datos

¿Qué datos almacena Google y desde cuándo? «Depende del servicio», afirma Peter Fleischer, global privacy counsel de Google, es decir, el responsable de protección global de datos de la empresa. Desde su puesto de trabajo en París, su misión es despejar las dudas mundiales relacionadas con la seguridad de los datos. Está muy ocupado y siempre tiene una frase a punto cuando le preguntan por los datos que Google tiene almacenados en sus ordenadores: «Guardamos alguna información fundamental sobre las búsquedas para mejorar nuestras respuestas, mantener la seguridad de nuestros usuarios y evitar los intentos de engaño en las búsquedas con Google. Sin estos datos, nuestro motor no sería tan eficaz ni seguro».

Los datos de las consultas permanecen almacenados durante 18 meses y la información más relevante incluye, sobre todo, la dirección IP del ordenador desde el que se ha realizado la búsqueda (algo parecido a un número de teléfono de la computadora), el dominio Google desde el que se ha iniciado la búsqueda (.com, .de, .es, etc.), el día y la hora de la consulta, el concepto introducido (una o varias palabras) y determinada información técnica sobre el navegador (Explorer, Firefox, Safari, etc.). Además, el buscador también reconoce el sistema operativo del ordenador y el número de identificación de la cookie con la que Google detecta si el usuario ya ha estado allí antes.

Quien quiera saber cómo funciona la recopilación de datos, sólo tiene que ir a la dirección www.ip-adress.com, donde incluso verá un mapa virtual de Google Maps con la ubicación aproximada de su lugar de residencia.

Debido al continuo enfrentamiento de Google con preguntas sobre la esfera privada y la protección de datos, la empresa colgó en 2007 una serie de vídeos en YouTube donde explica la recolección de datos desde su punto de vista.[4] En Google argumentan que, como muchos proveedores de Internet asignan direcciones IP dinámicas (es decir, dan al ordenador una dirección IP distinta cada vez que se conecta a la Red), la correspondencia exacta es casi siempre imposible. «Generalmente, una dirección IP no ofrece ningún tipo de información sobre ningún usuario concreto ni sobre su localidad, calle o número de residencia; estos datos sólo los tiene el proveedor de Internet», explica Fleischer. Sin embargo, esta explicación se contradice con lo que Google pretende ocultar en el marco de su programa AdWords (véase el capítulo «El amo de la publicidad asalta el mercado offline»), a saber, que se pueden poner anuncios en la Red con precisión geográfica, es decir, orientarlos a cualquier área objetivo. Con el tiempo, estos datos han ganado en precisión y ayudan a obtener resultados publicitarios cada vez mejores.

Todavía más precisos, pero no geográfica, sino individualmente, son los datos cuando utilizamos un servicio sign in de Google, donde es necesario introducir un identificador de usuario y una contraseña, como ocurre con Gmail. Cuando nos registramos y consultamos algo en el buscador, estamos proporcionando a Google nuestra identidad. En ese caso, la búsqueda se puede clasificar por el nombre del usuario. En una entrevista realizada para este libro, Fleischer contó que cualquiera puede modificar o suprimir a voluntad los datos de su cuenta, pero no dijo si en ese caso se borra la relación grabada en los ordenadores de Google, lo cual sería totalmente inaceptable.

Los usuarios pueden hacerse una idea de cómo funcionan exactamente los sistemas de Google. En el servicio «Historial web» de Google[5] (se necesita una cuenta Google para utilizarlo) el internauta puede consultar qué páginas web ha buscado en el pasado, con fecha y hora exactas, o qué fotografías ha encontrado con la búsqueda de imágenes de Google. Aunque borremos el historial de nuestro navegador, seguimos existiendo en el «Historial web» de Google. Es un hecho obvio, y se puede demostrar con patentes registradas desde 2002, que Google explota estos datos desde hace años y que almacena en Mountain View todavía más detalles que los que cualquier usuario normal llega nunca a ver. Entre la información pública que llegamos a conocer como usuarios y la «información Google», que sólo está al alcance de sus empleados, hay un matiz que no se puede obviar.

En la entrevista con el diario Bild (11 de septiembre de 2007), el presidente ejecutivo de Google, Eric Schmidt, dice que los responsables de la seguridad en Internet son el Estado y los usuarios. Lógicamente, no está a favor de aplicar legislaciones más rigurosas: «Ya hay leyes muy buenas y estrictas. Los gobiernos se tienen que ocupar de su cumplimiento». Schmidt hace incluso un llamamiento a los internautas: «De la misma manera que hemos aprendido a cerrar la puerta de nuestras casas, habría que aplicar determinadas medidas de protección para Internet». Se contradice un poco con lo que Google hace realmente, que es aprovecharse de la puerta que muchos usuarios se dejan abierta. Según los analistas, los servicios de Google son cada vez más inteligentes porque la empresa sabe perfectamente lo que quieren sus clientes. Y cuantos más datos haya disponibles, tanto más precisos e inteligentes serán los servicios, tanto los que ya existen como los que están por llegar.

El Gran Hermano te googlea

En la primera patente concedida a Google en 2002 relacionada con el análisis de usuarios ya quedó claro el objetivo que ha perseguido la empresa desde el principio: el conocimiento completo de los usuarios. A partir de la dirección IP es posible averiguar la situación geográfica del internauta. Además, también se puede reconocer el navegador y el historial, es decir, qué páginas ha visitado el usuario y qué marcadores ha fijado; de hecho, nada del otro mundo. Sin embargo, resulta más llamativo el punto «Information Concerning the User» con el que Google estudia y pondera a sus clientes. Por ejemplo: un europeo es para Google el doble de importante que un visitante del Antártico. Supongamos que la empresa utiliza el método desde que se registró como patente: sería la prueba de que Google lleva más de siete años esmerándose en la recolección, análisis y explotación de datos, y que sus usuarios están sometidos a un escrupuloso proceso de catalogación, agrupación, examen y, probablemente, calificación con notas. Si sumamos a ello el resto de las patentes, Google se ha convertido realmente en un Gran Hermano que sabe más sobre los usuarios de lo que muchos habrían podido imaginar.

Los métodos son tan refinados y sagaces que hasta el reconocimiento público de suprimir los datos de los usuarios transcurridos 18 meses podría considerarse una broma. De hecho, las patentes citadas al principio de este capítulo no son en absoluto inofensivas; al contrario. Google «persigue» a los usuarios, tanto a los que inician una sesión con nombre y contraseña como al resto, y también recopila y utiliza una gran cantidad de información a partir de la conducta de navegación del internauta, las páginas visitadas y otros muchos parámetros no revelados (en Google se escudan en los «algoritmos» para hablar de todo esto, y no siempre abiertamente). Además, hay otro motivo para pensar que el acuerdo de los 18 meses es una contradicción: como estamos continuamente buscando en Google, el plazo de los 18 meses se renueva cada día.

El factor tiempo tiene un papel importante en todo este proceso. Consultas, resultados de búsqueda, clics en anuncios o compras en línea: cualquier acción está acompañada de una marca horaria. Google sabe con precisión de segundos cuándo alguien ha hecho clic en algún lugar, es decir, cuándo alguien ha hecho algo. Si el usuario está registrado e inicia una sesión, su comportamiento se puede relacionar con un nombre y unos apellidos; si no lo está, recibe un número de identificación. Este número es anónimo, pero en teoría se puede vincular a un nombre o a una persona si el usuario anónimo revela su identidad durante la navegación.

En cualquier caso, los datos recopilados a través de los usuarios valen mucho dinero. Los expertos en marketing de los sectores más diversos pagarían cualquier cosa por poder entrar en la base de datos de usuarios de Google y acceder a esta información, lo que les permitiría obtener clientes potenciales garantizados. Efectivamente, Google es el punto de partida de un perfecto proceso de publicidad directa y estaría muy mal aconsejada si permitiera a otros acceder a su sistema. Los conocimientos sobre el usuario son el verdadero capital de la empresa y la base para futuros proyectos. Google no es un buscador, sino un perfecto instrumento de mercadeo con el que la firma de Mountain View pretende conquistar el mundo de la publicidad.

La información vale mucho dinero y las empresas proveedoras de correos electrónicos, como la alemana Schober Information Group, deben haber pagado un precio muy alto por ella. Cuanto más concreto es el dato, más caro sale. Una información cuesta un promedio de un euro, «aunque pueden llegar a pagarse por ella hasta cinco», confirma Antón Jenzer, gerente de Schober Information Group en Austria. Saber que alguien quiere comprarse un coche y que ese coche es un deportivo, limusina o camioneta, puede costar hasta siete euros. Google comprueba parcialmente este interés por un producto con el sistema AdWords, pero también puede llegar a conocer las preferencias de alguien utilizando los conceptos de búsqueda. Por consiguiente, Google también dispone de un gigantesco tesoro offline: las preferencias y la información de cientos de millones de personas.

Sé dónde has hecho clic

La crítica a Google también ha crecido en Estados Unidos desde la adquisición de la empresa de publicidad en línea DoubleClick. La FTC instruyó en mayo de 2007 un proceso antimonopolio donde analizó con lupa el acuerdo, dado que la compra de DoubleClick reforzaba claramente la hegemonía de Google en el sector de la publicidad en Internet. La comisión estadounidense del comercio siempre ha sido muy escrupulosa para defender el mercado e impedir pactos tarifarios y situaciones de monopolio en los casos de acuerdos entre grandes empresas. Sin embargo, el 20 de diciembre de 2007, como regalo de Navidad avanzado, la FTC autorizó la alianza entre Google y DoubleClick.

La Unión Europea, que también había estudiado el acuerdo concienzudamente, sólo compartió esta decisión parcialmente. Tras una vista celebrada en Bruselas a mediados de enero de 2008, Google tuvo que garantizar que no cruzaría sus bases de datos con las de DoubleClick y fue obligada a informar sobre el destino de la información de los usuarios. Sin embargo, siempre planeará la duda sobre si es posible demostrar que ambas bases de datos no se coordinan o combinan.

Tanto la organización de protección de datos estadounidense Electronic Privacy Information Center como los consorcios Yahoo! y Microsoft, excluidos del acuerdo con DoubleClick, se pronunciaron a favor de un procedimiento antimonopolio en Estados Unidos. Microsoft ya había tenido varios roces en el pasado con los juristas de los tribunales de la competencia.

El último fue en septiembre de 2007, cuando las autoridades de la UE determinaron que Microsoft había sacado provecho de su posición dominante en el mercado y la empresa tuvo que pagar una sanción de 497 millones de euros. Según la sentencia, Microsoft obtenía una ventaja desleal al acoplar su reproductor Mediaplayer en su sistema operativo. El segundo punto en litigio era que Microsoft no revelaba los códigos necesarios para que otros proveedores pudieran desarrollar servicios y programas.

La manera de trabajar de DoubleClick permite imaginar los motivos por los que despertaba el interés de Google. Aparte del envío de cookies la empresa neoyorquina tenía en funcionamiento el sistema AdServer, consistente en un servidor en el que se ejecuta un software de análisis, también llamado AdServer.

DoubleClick es la empresa con más experiencia en el espionaje de los hábitos de los usuarios, dado que lleva enviando cookies desde el inicio de la era Internet. Cuando un internauta accede a una página web, se deposita una de estas «galletas» en su ordenador. A partir de este momento, el software AdServer protocoliza la actividad del usuario y manda esta información al servidor AdServer, que a su vez envía a la pantalla del usuario la publicidad adecuada en el momento preciso. Si el internauta está buscando una vivienda, recibe anuncios de empresas inmobiliarias, y si está indagando sobre sus próximas vacaciones, le aparecen ofertas de agencias de viajes. Se trata de un método similar al que aplica Google en las búsquedas. El sistema AdServer y las cookies optimizan el éxito publicitario.

Si borramos la galleta, cosa que en general no hace prácticamente nadie, ésta se instala de nuevo cuando volvemos a visitar la página. Sólo algunas webs tienen por costumbre borrar automáticamente sus cookies cuando el internauta sale de ellas. Si no se suprimen, la página reconoce el ordenador y prosigue su trabajo de análisis.

Los portales de Google y DoubleClick son famosos por la longevidad de sus cookies. La galleta de larga duración de Google permanecía en el disco duro hasta el año 2038, o al menos así estaba definido. La fecha es, por supuesto, teórica, ya que ningún ordenador llegará vivo a ella, pero Google nunca ha sido capaz de explicar con claridad cómo llegó a establecerla. El 16 de julio de 2007, el defensor de la privacidad Peter Fleischer declaró que las cookies de Google sólo subsistían durante dos años, y de paso mencionó que se renovaban automáticamente en cada visita a una web de Google. Es decir, el plazo de dos años se actualiza constantemente.

La vida de las cookies de DoubleClick también dura algunos años, pero este período se tuvo que reducir después de una demanda presentada el año 2000 en Estados Unidos. En el escrito de acusación se recriminaba al portal por utilizar cookies que documentaban conductas de navegación, nombres, direcciones, edades y hábitos de compra de los usuarios. La propia DoubleClick declaró en su página web que, ciertamente, recopilaba datos, pero que no estaban vinculados a nadie por su nombre. Por consiguiente, sólo se registraba el navegador utilizado, la dirección IP y el tipo de dominio.

Hasta ahí, bien. Sin embargo, DoubleClick sabe o sabía más de lo que reconocía, y todo gracias a otra controvertida compra en el mundo de las TI. DoubleClick había adquirido un año antes el instituto de investigación de mercados Abacus Alliance. El interés principal de esta firma era su enorme patrimonio: una completa base de datos con información sobre una amplia clientela. Abacus había recopilado millones de datos offline sobre clientes, sus comportamientos y sus preferencias. Si se cruzaba esta información offline con los datos online y las direcciones IP obtenían de pronto nombres y apellidos.

Esta forma de espiar los hábitos de navegación es precisamente, la clave del éxito de empresas como Google, DoubleClick y compañía, pero para ello no sólo emplean cookies sino una serie de programas conocidos como spyware.

Los vigilantes del tesoro

Es un hecho innegable que en Estados Unidos hay una empresa que posee un tesoro repleto de información con el que puede controlar y (en teoría) manipular el mundo. Los datos de los europeos están en manos de un consorcio estadounidense que, en cualquier momento, puede recibir la orden de revelarlos o permitir que instituciones gubernamentales accedan a ellos. Esto es, precisamente, lo que han tenido que hacer las compañías aéreas para poder volar a Estados Unidos.

Tras el 11-S, las aerolíneas se comprometieron a comunicar a las autoridades estadounidenses, antes del despegue, los datos de los pasajeros que viajaban a Estados Unidos. Este acuerdo de transmisión de datos del pasaje (PNR: Passenger Name Records) sigue estando en tela de juicio. Las autoridades estadounidenses reciben 19 campos de datos de cada pasajero (desde el nombre hasta la comida en el vuelo) y pueden conservar la información durante quince años, hecho especialmente criticado por los grupos defensores de la privacidad.

Aunque el gobierno de George W. Bush no haya conseguido tener acceso a la red global de Google, todo apunta a que sus sucesores volverán a intentarlo, sean demócratas o republicanos. Los motivos por los que a la administración estadounidense le gustaría echar un vistazo al tesoro de Google son obvios: según el profesor Hermann Maurer, de la Universidad Tecnológica de Graz, «porque Google es la mayor agencia de detectives del mundo». «¿A quién confiamos la custodia de todos nuestros datos? ¿Tenemos que encomendárselo a una empresa privada implantada en todo el mundo?», pregunta Maurer. No sin ser oportunamente criticado, Maurer reclama un control gubernamental sobre los motores de búsqueda. Su visión de que los buscadores sean gestionados por organismos no comerciales, como universidades o instituciones oficiales, «bajo un permanente control público», es un planteamiento totalitario que prácticamente ningún internauta comparte.

Igualmente alejado de la propuesta de Maurer se muestra Danny Sullivan, el máximo conocedor de los buscadores y responsable de la plataforma SearchEngineLand.com. «El gobierno no debería temer a Google, sino Google al gobierno», dijo Sullivan cuando la FTC examinó el acuerdo entre Google y DoubleClick. No obstante, antes de que Google registrara sus patentes de análisis y seguimiento de usuarios, la Electronic Frontier Foundation ya llevaba años criticando el coleccionismo de la empresa de Mountain View, a quien acusaba de crear conjuntos de datos sobre usuarios que podían perfectamente calificarse de «dossieres».

En mayo de 2004, otro tribunal volvió a centrar su interés en Google, esta vez acerca del servicio de correo electrónico Gmail. Se denunciaba que Google infringía el artículo 631 de la ley californiana de protección civil, que regula el tratamiento de los datos confidenciales.

En abril de 2006, el World Privacy Forum y otras treinta organizaciones de consumidores y protección de datos (se pueden consultar en Privacy Rights Clearinghouse) exigieron a Google que suspendiera Gmail hasta que aclarase qué datos se recopilaban y sí éstos se repartían entre los distintos departamentos comerciales de Google y empresas asociadas.[6] Finalmente no se efectuó ningún cambio relevante. «Por lo que yo sé, Google no ha modificado sus métodos de escaneado de correos electrónicos, así que puede meter publicidad», me confirmó el prestigioso periodista norteamericano Walt Mossberg.

El análisis de correos electrónicos se excusa o califica de inofensivo porque, y así lo argumenta Google, todos los proveedores de Internet lo practican. La diferencia es que estas empresas escanean los e-mails para encontrar virus, spam (publicidad no deseada) o phishing (correos falsos).

Además, el servicio Gmail tiene un inconveniente más, aunque la mayoría de los usuarios lo considere una ventaja: los propietarios de una cuenta Gmail disponen de tres gigabytes de memoria, es decir, pueden utilizar su correo electrónico como un disco duro online. El problema es que la información almacenada en la cuenta es propiedad de Google y no está incluida en el acuerdo de supresión de datos pasados 18 meses. Así pues, la anonimización reclamada por las organizaciones de consumidores y defensores de la privacidad ha quedado totalmente obsoleta.

«Creo que todos los buscadores tienen un problema de esferas privadas», me dijo el experto en motores de búsqueda Danny Sullivan. «Sin embargo, Google es un objetivo fácil y espectacular para los políticos corruptos». La clase política debería abordar el tema de la protección de datos desde una perspectiva más amplia. «Los buscadores recopilan mucha información, pero siempre es menos de lo que la empresa emisora de mi tarjeta de crédito sabe sobre mí. Supongo que la recopilación de datos tiene un trasfondo comercial».

La esfera privada, la confidencialidad de la información o la acumulación de datos son temas que cada vez afectan más negativamente a la marca Google, tal y como la propia empresa ha reconocido. Para contrarrestar este efecto perjudicial, la firma de Mountain View apoyó a finales de 2007 una «protección de datos mundial». En una conferencia de la UNESCO celebrada en Estrasburgo, Peter Fleischer intentó desviar la crítica a los países donde no había leyes de protección de datos, que según Fleischer «son tres cuartas partes del mundo». El responsable de Google reclamó una normativa de protección de datos aplicable mundialmente con el argumento de que la falta de reglamentación en este aspecto conduce «a una pérdida efectiva de la esfera privada».

«¿Comprensión o arrepentimiento? Precisamente Google, el controvertido gigante de los buscadores, se preocupa ahora públicamente por la protección de datos y el derecho de los consumidores a su esfera privada», escribió Bernd Graff en el Süddeutsche Zeitung (14 de septiembre de 2007), expresando lo que pensaba la mayoría de los periodistas y defensores de la privacidad. Prosigue Graff: «Seguramente, todos estarán de acuerdo con Fleischer cuando dice que “la falta de una normativa de protección de datos perjudica a los consumidores” y conduce a una “pérdida efectiva de la esfera privada”. Sin embargo, el directivo de Google no sólo se preocupa por los internautas, sino también por el crecimiento de la economía: “¿Cómo puede una empresa de ámbito mundial conocer las normativas sobre privacidad vigentes en tantos y tan distintos mercados?”. Si los responsables de la empresa desconocen esta información, el consorcio tampoco puede crecer porque tiene que luchar con los comisionados de los organismos de protección de datos. Es de suponer que, con estas declaraciones, la conciencia de Google también está barriendo para su casa».

El poder de los servidores de Google

La cantidad de consultas introducidas cada día en un cuadro de búsqueda de Google es un secreto muy bien guardado por la empresa. Según un informe realizado por el prestigioso experto en almacenamiento de datos Robin Harris,[7] los sistemas de Google permiten realizar más de un millón de consultas por segundo, lo que supone dar respuesta a 3600 millones de preguntas cada hora u 86 400 millones al día.

Por otro lado, la empresa de servicios de Internet berlinesa Strato AG calculó en 2007 que una simple consulta a Google consume tanta energía en una hora como una bombilla de bajo consumo de 11 vatios. Para 100 000 millones de consultas mensuales, el gasto sería de 810 gigavatíos hora (GWh) anuales, el equivalente al consumo de 230 000 hogares. Se trata de un cálculo muy difícil de demostrar, pero la cifra podría ser perfectamente real si tenemos en cuenta que una consulta en el buscador se puede transmitir a un gran número de ordenadores y servidores desperdigados por todo el mundo.

El sistema de Google se compone de una red de decenas de miles de ordenadores y servidores diseminados por los cinco continentes donde se almacenan los datos del 50% de los usuarios de Internet de todo el planeta; de algunos más que de otros, en función de lo que revele cada uno.

Un secreto muy bien guardado es la cantidad de granjas de servidores que tiene Google; entre siete y 25, según distintos cálculos. La cantidad de servidores tampoco se conoce con exactitud. Distintas estimaciones sitúan la cifra entre 100 000 y 450 000, lo que supondría más del doble que Microsoft.

La fiabilidad de estos cómputos es cuestionable y lo único que se sabe, a raíz de una petición oficial realizada a Google, es que «estos detalles no se pueden revelar por motivos estratégicos». Por tanto, el tamaño de la red de Google es desconocído. Según los rumores, cada vez que un empleado de Google ofrece una conferencia en cualquier lugar del mundo, aparece el departamento de relaciones públicas del consorcio para maquillar los datos aportados, y siempre a la baja, lógicamente. Tampoco se facilita la cantidad exacta de búsquedas realizadas cada segundo, minuto y día, porque a partir de estas cifras se podrían deducir los ingresos reales de la empresa. Lo único que se sabe con seguridad es que la red informática de Google, con decenas de miles de ordenadores y servidores, es la mayor y más potente del mundo y aventaja a cualquier supercomputadora.

Al oeste de Iowa, en Council Bluff se está construyendo un enorme centro de datos para unos 200 trabajadores. Otra instalación de este tipo es la que se levanta en la pequeña localidad de Lenoir, en las faldas de las Blue Ridge Mountains. La elección de los emplazamientos no es casual: Council Bluff es un punto de intersección de importantes nodos de Internet y Lenoir se halla cerca de una central energética con la que se puede refrigerar el centro de cálculo.

En el estado de Oregón se está levantando «Project 02», nombre clave de una de las mayores granjas de servidores del mundo. Se trata de un superordenador compuesto por 10 000 computadoras, unidades de memoria, dos torres de refrigeración de cuatro pisos de altura y un sistema de gestión energética especialmente diseñado. La zona, que ocupa el espacio equivalente a dos campos de fútbol, se halla cerca del río Colorado para que, en caso de apagón, las turbinas de la central hidroeléctrica puedan abastecer energía a la granja.

Google también se está expandiendo en Europa. Se sabe que después del centro de cálculo de Holanda, la empresa levantará otro en el municipio belga de Saint-Ghislain valorado en 250 millones de euros. El 7 de enero de 2008, el diario Verslo zimos de Lituania informó que Google también quería construir otro centro de cálculo en la república báltica. El gobierno había propuesto como sede el distrito de Kaisiadoriu, en el centro de Lituania, porque allí hay una central hidroeléctrica. Donde va, Google es recibida con los brazos abiertos, como en el continente asiático. Allí tiene proyectos en marcha en Taiwán, China y un megaproyecto en India, donde tiene previsto construir una granja de servidores en la zona económica especial de Andhra Pradesh por un valor de 750 millones de euros.

Esta proliferación de enclaves escondidos tiene dos motivos muy claros: en primer lugar, no dar pistas a los competidores, y en segundo lugar evitar posibles atentados. En cualquier caso, las medidas de seguridad son muy fuertes.

Google tiene motivos para acumular servidores y capacidad de cálculo, ya que el tráfico de Internet y la cantidad de datos que se producen aumentarán hasta un 70% anual en los próximos cinco años, según el instituto de análisis de mercados TeleGeography. A principios de 2008 había en todo el mundo 1300 millones de usuarios de Internet El aumento de internautas se mantiene dentro de unos límites en Estados Unidos y Europa, pero la cifra aumenta enormemente en Asia, África, Oriente Medio y América latina. Según Internet World Stats, entre 2000 y 2007 el número de internautas en Oriente Medio se ha quintuplicado, y en Asia se ha triplicado. Y a ello se añade un aspecto que a menudo se olvida al tratar el crecimiento de las TI: la era del multimedia en la Red no ha hecho más que empezar. Los contenidos de imágenes en movimiento, como la televisión en directo o los vídeos, empiezan a despegar, si bien YouTube ya es una plataforma asentada en este sector. La necesidad de servidores donde almacenar vídeos, películas y fotos es descomunal. Si tenemos en cuenta que las videotecas online se hallan actualmente en una fase incipiente, resulta difícil imaginar lo enorme que será la demanda de almacenamiento y la velocidad de transmisión en el futuro.

Según una previsión de la proveedora de equipos y servicios de red cisco, el tráfico por IP aumentará un 40% en 2008 como promedio. Un 58% del crecimiento lo aportarán los usuarios privados, mientras que la transmisión de datos aumentará un 21% en las empresas. Las aplicaciones multimedia producirán 6,3 millones de terabytes mensuales en 2008, y en 2011 la cifra ya se habrá triplicado.