7

INTERNET

Existen muchos mitos relacionados con Internet, empezando por la falsa idea de que fue creado para prevenir un fallo total de las comunicaciones ante un posible ataque nuclear. Su nacimiento fue financiado por el Departamento de Defensa, sí, aunque ni quienes decidieron su puesta en marcha ni quienes se mancharon las manos llevándola a cabo eran militares. Tampoco la mayoría de sus primeros usuarios.

La red Arpanet, que empezó a funcionar en 1969, evolucionó hasta terminar convirtiéndose en Internet. Pero a pesar de todos los avances técnicos de que disfrutó, y de que ya estaban todos en su sitio a comienzos de los noventa, el punto clave en su historia fue el 30 de abril de 1995. A partir de ese día, las empresas pudieron conectarse a Internet sin tener que pedir permiso. Se empezó a dejar de emplear para ello la llamada backbone o «columna vertebral» de la NSF, una agencia científica del Gobierno de Estados Unidos, descentralizándose de verdad y permitiendo a las distintas redes conectarse a través de los llamados puntos neutros.

En esa fecha Internet dejó de ser una red aburridísima a la que sólo se podía conectar uno desde la universidad, porque entonces tuvimos verdadera libertad para conectarnos a ella. Y la aprovechamos. A finales de aquel año había 16 millones de internautas. Catorce años después se estima que existen 1669 millones, casi un cuarto de la población mundial. Internet es el primer medio de comunicación global, en el que potencialmente cualquier emisor puede llevar su mensaje a todo el mundo, si este tiene interés en escucharlo, claro. Si los ordenadores dieron paso a la era de la información, Internet ha hecho nacer la de la comunicación. Es, sin duda, el más importante de las computadoras.

ARPANET Y LOS PAQUETES QUE LA HICIERON POSIBLE

En 1957, la Unión Soviética lanzó el Sputnik, y Estados Unidos quedó horrorizado. La perspectiva de quedarse estancados tecnológicamente por detrás de los rusos era estremecedora para su honor y para las libertades que sus fuerzas armadas defendían en medio mundo. Había que reaccionar, y rápido.

La primera reacción fue crear una nueva agencia que financiara un gran salto en la investigación, especialmente en lo que se refería a cohetes y viajes espaciales. Con ese objetivo se creó ARPA (Agencia de Investigación en Proyectos Avanzados), dependiente del Pentágono, truco burocrático que permitió que empezara a funcionar en dos patadas. Sin embargo, el objetivo real era que sirviese de cabeza de playa hasta que estuviera lista la NASA, que se quedó con casi todo el dinero que recibía y su principal misión: llegar al espacio.

Así las cosas, el ARPA se reinventó pocos meses después de su creación como agencia dedicada a financiar investigaciones por todo el país que pudieran tener algún interés militar, por más remoto que fuera. Pronto tuvo un departamento dedicado a las tecnologías de la información (IPTO) dirigido por el psicólogo devenido informático J. C. R. Licklider, quien en 1963 escribió su Memorándum para miembros y afiliados de la Red de Ordenadores Intergaláctica, en el que puso negro sobre blanco su visión de una red de ordenadores que abarcara el mundo entero y, ya que estábamos en ello, el espacio.

Ese sueño, no obstante, quedó unos años convertido en eso, en sueño, hasta que su sucesor, Bob Taylor, descubrió cómo llevarla a la práctica, aunque fuese a una escala algo menor. Corre por ahí la especie de que Internet fue creada para permitir que las comunicaciones del ejército norteamericano sobrevivieran a un ataque nuclear. La realidad fue algo más pedestre. Taylor tenía en su despacho tres terminales para conectarse a tres ordenadores distintos, dos en California y uno en el MIT. Le parecía un desperdicio enorme: ¿por qué no disponer de un terminal que pudiera conectarse a cualquier ordenador de cualquier centro de investigación financiado por ARPA? Así, además, se podrían ahorrar recursos porque no haría falta que cada uno tuviera sus propios ordenadores, entonces trastos enormes y carísimos, porque podrían compartirlos. Ni corto ni perezoso, se presentó en el despacho del jefe a pedirle dinero para el proyecto. Se decía entonces que si tenías una buena idea bastaba media hora con Charles Herzfeld para que aflojara. A Taylor le llevó veinte minutos conseguir un millón de dólares. De los de entonces.

Era 1965, y habían pasado cinco años desde que Paul Baran había tenido una idea imprescindible para que la red imaginada por Licklider y que Taylor se disponía a construir funcionara. Baran sí que estaba obsesionado con el peligro de un ataque nuclear. Trabajaba entonces para la Corporación RAND, un think-tank financiado por el gobierno para realizar investigaciones y análisis para el Ejército. Enseguida se dio cuenta de que la red telefónica estadounidense era tremendamente frágil y se rompería sin remedio en el caso de un ataque, de modo que el presidente ni siquiera podría dar órdenes. Así que se puso a investigar cómo podría evitarse.

Pronto llegó a un esquema, que años más tarde sería conocido como «conmutación de paquetes» y que él bautizó como de «patata caliente». Hasta el momento, el único sistema para transmitir algo por la red telefónica consistía en la creación de un circuito cerrado entre los dos extremos. Al principio se hacía a mano: llamabas a la operadora, esta pinchaba su propio teléfono a tu circuito y le decías dónde querías llamar; ella llamaba al destino y luego conectaba un cable de tu circuito al del destino para que se pudiera hablar. Luego aquello se fue automatizando poco a poco, pero el principio era el mismo: para comunicarse entre dos puntos había que establecer un circuito, que dejaba de funcionar si cualquier punto intermedio tenía algún problema.

El esquema de Baran era más complejo, y requería del uso de señales digitales, en las que tenía experiencia por su trabajo anterior en Univac. Cada comunicación debía convertirse en un bloque de unos y ceros. Estos se dividían en mensajes (luego llamados paquetes) del mismo tamaño, que se numeraban y se enviaban a la red. Cada nodo de la red decidía cuál era el mejor camino para que el mensaje llegara el destino y lo enviaba; es decir, le llegaba la patata caliente y se la pasaba a otro inmediatamente. Así, si algún nodo fallaba, se podría reenviar el mensaje a través de otro. El receptor unía los mensajes, los ordenaba y veía si faltaba alguno, en cuyo caso pedía su reenvío. Cálculos matemáticos le llevaron a la conclusión de que cada nodo de la red debía estar conectado a otros tres o cuatro para hacerla resistente a los estragos de un ataque nuclear.

Baran se pasó años promocionando su esquema ante Washington y el monopolio telefónico AT&T, depurándolo ante las objeciones, sin mucho éxito. Tanto es así que el británico Donald Davies llegó independientemente a las mismas ideas, las presentó en sociedad y con el apoyo de su gobierno empezó a ponerlas en marcha antes de saber del trabajo de Baran. Al parecer, se sintió bastante avergonzado de haber publicado como propio lo mismo que el norteamericano, pero al menos sí inventó algo, como dijo al propio Baran: «Puede que hayas llegado el primero, pero el nombre se lo he puesto yo». Porque la idea de llamar «paquetes» a los mensajes es completamente suya. También en el MIT Leonard Kleinrock había llegado a las mismas conclusiones por su cuenta. Quién sabe si esa era la idea que estaba flotando en el viento y a la que cantaba Bob Dylan por aquel entonces.

El proceso de construir la red de ARPA (que en un alarde de originalidad se llamaría Arpanet) comenzó muy lentamente. Bob Taylor sabía que al frente debía estar Larry Roberts, el hombre que había logrado conectar con éxito dos ordenadores situados en costas distintas de Estados Unidos, es decir, a tomar viento uno del otro. Pero este no quería abandonar el Laboratorio Lincoln, donde trabajaba muy a gusto, pese a que el proyecto le ponía. Finalmente, tras muchos intentos de convencerle personalmente, Taylor llamó al jefe del Lincoln para recordarle que la mayor parte de su financiación la recibía de ARPA y que, en fin, sería mejor para todos que Roberts cambiara de empleo, tú ya me entiendes.

Roberts se trasladó a Washington y aprovechó una reunión de los responsables de los principales centros de investigación del ARPA en 1967 para exponerles la idea. Los interfectos se mostraron, por decirlo suavemente, ligeramente reacios a conectar sus valiosos ordenadores a una red y que además de todo lo que ya hacían tuvieran que lidiar con una línea telefónica. Wesley Clark, un ingeniero sin ninguna relación con el general salvo la de tener el mismo nombre, sugirió que esa tarea la realizaran unos computadores más pequeños e iguales, lo que tendría la ventaja adicional de no tener que lidiar con incompatibilidades entre las máquinas. Preguntado sobre quién podría construir esas máquinas, contestó: Paul French.

Trabajando sobre esa base, Roberts terminó con las especificaciones de la red a mediados de 1968 y las envió a más de un centenar de empresas para que participaran en el concurso. Ganó una pequeña compañía llamada Bolt, Beranek and Newman, nacida como consultora en asuntos de acústica y que había establecido un pequeño departamento de informática. Lo dirigía, sin duda por una completa casualidad, un tal Paul French.

De lo que no cabe duda es de que BBN cumplió: entregó en las fechas previstas las máquinas, unas minicomputadoras Honeywell que modificaron a mano, funcionando correctamente. Eso sí, la primera se fue a California sin que hubieran tenido tiempo de probarla, a finales de agosto de 1969. El mes siguiente se entregó la segunda y se hizo la primera prueba. Empezaron a escribir la palabra «login», el comando para entrar en la computadora, y el sistema se colgó tras enviar la ge. Pero al poco tiempo, ese mismo día, solucionaron el problema y pusieron en marcha el sistema.

Pero estos cacharros, llamados IMP (Interface Message Processors), sólo gestionaban el tráfico de la red y no examinaban su contenido. Y las distintas universidades que trabajaban en el proyecto aún no tenían un protocolo común, un lenguaje en el que se pudieran hablar entre sí las computadoras, para hacer algo útil en la red. Pero poco a poco fueron produciendo resultados. Primero fue Telnet a finales de 1969, que permitía entrar desde un terminal conectado a la red a cualquier ordenador de la misma, cumpliendo así con los deseos de Bob Taylor, quizá un poco tarde porque ya había dejado la agencia. En el verano de 1970 llegó NCP, el programa que ofrecía un sistema estándar para establecer conexiones estables en la red, y finalmente en 1972 el FTP, que permitía transferir ficheros y hacía ya uso del NCP.

No obstante, la cosa no tenía mucho éxito aún. A finales de 1971 el número de ordenadores conectados había llegado a 23, pero sólo se empleaba un 2 por ciento de la capacidad total de la red, y eso que buena parte del tráfico correspondía a diversas pruebas de funcionamiento. Se había gastado el dinero de los contribuyentes en construir una red que, con el tiempo, sería la base de lo que llamamos Internet, pero no sabían aún qué hacer con ella. Sin embargo, aquello pronto iba a cambiar: estaba a punto de llegar una aplicación que convertiría Arpanet en un éxito sin precedentes.

EL TONTO INVENTO DEL CORREO ELECTRÓNICO

El correo electrónico nació en los años sesenta, en los primeros ordenadores que contaban con un sistema operativo que permitía el uso compartido. En estas computadoras, te conectabas con un terminal y parecías tener a tu disposición un ordenador completo, pero en realidad era una simulación; había un buen número de personas haciendo lo mismo que tú al mismo tiempo. Aquellos programas eran más bien limitadillos, porque sólo podías enviar mensajes a otros usuarios de la misma computadora. Tenían su utilidad en cualquier caso, de modo que todos los sistemas contaban con uno. Pero a nadie se le había ocurrido ampliarlos para enviar mensajes a otros ordenadores. La razón era evidente: no había redes que los conectaran unos a otros.

Pero entonces llegó Arpanet, de modo que no hubo que esperar mucho para que a alguien se le ocurriera la feliz idea. Fue un ingeniero de BBN, la pequeña consultora que se encargó de construir la red, llamado Ray Tomlinson a quien se le encendió la bombilla. Estaba trabajando a finales de 1971 con un programa para transferir ficheros entre ordenadores de la red llamado Cpynet además de mejorar el programa que dejaba mensajes electrónicos a usuarios del mismo ordenador, cuando se le ocurrió juntarlos. Al fin y al cabo, un mensaje no deja de ser un fichero.

Técnicamente aquello era una chorrada. El programa de mensajería detectaba que el usuario no era de la misma máquina y usaba Cpynet para enviarlo a otro ordenador. Este otro ordenador lo recibía y lo trataba como si fuera un mensaje interno, dejándolo en el buzón del interesado. Pero muchos grandes inventos no son grandes avances técnicos. Tomlinson ni siquiera se acuerda de cuál fue el primer mensaje que surcó la red porque eran envíos de prueba, hechos entre dos ordenadores PDP-10 situados físicamente uno junto a otro pero conectados sólo a través de Arpanet. Piensa que seguramente sería algo así como «QWERTVUIOP». Pero que ni idea, oigan.

Quizá la decisión más duradera de Tomlinson fue la de usar la arroba para separar el nombre del usuario del nombre de la máquina a la que debía enviarse. Y no es que se lo pensara mucho: simplemente revisó el teclado, vio la @ ahí y pensó: «Bueno, esto no se usa para nada más, así que ya está». Lo cual no era del todo cierto, pues un sistema operativo relativamente popular entonces, Multics, lo empleaba para borrar la línea que se estaba escribiendo, así que los usuarios del mismo intentaban escribir pepito@maquinita y al llegar a la arroba desaparecía todo lo que habían escrito antes, dejándolo sólo en «maquinita». Pero claro, Tomlinson no usaba Multics.

El invento, no obstante, no se extendió mucho hasta el verano siguiente. Mientras se escribía la definición final del protocolo de transferencia de ficheros, el FTP, alguien que conocía el trabajo de Tomlinson sugirió incluirlo en la especificación. Y así se hizo, de modo que los programas para enviar mensajes comenzaron a popularizarse hasta el punto de que en 1973 un estudio indicó que el 75 por ciento de todo el tráfico de Arpanet eran correos electrónicos. Por fin le habían encontrado un uso a la red.

Uno de los mayores usuarios de la red era el jefazo de ARPA por aquel entonces, Stephen Lukasik, quien incluso se llevaba un ordenador portable —me niego a llamar portátil a ese mastodonte— fabricado por Texas Instruments, con el que podía conectarse y descargar su correo. Aquel amor por la red le vino muy bien a Arpanet, proyecto que vio casi duplicado su presupuesto. Un día se quejó a Larry Roberts, el principal responsable de la creación de la red, de lo incómodo que resultaba el manejo del e-mail y este regresó al día siguiente con un programa que había hecho en un día y que permitía seleccionar grupos de mensajes, archivarlos, borrarlos, etc. Había nacido el primer gestor de correo. Se llamaba RD. Pronto fue mejorado y finalmente uno llamado MSG se convirtió en algo que podría llamarse estándar de facto. ¿Por qué? Porque su creador, John Vittal, había tenido una idea feliz: un comando para contestar a un mensaje, sin necesidad de volver a teclear su dirección y cometer el riesgo de equivocarte.

Con el uso cada vez más extendido del correo electrónico y la infinidad de programas que aparecieron para gestionarlo, algunos de ellos incompatibles entre sí, había que poner orden. El 7 de junio de 1975 se creó la primera lista de correo para tratar estos temas: Message Services Group, que con esa tendencia a acortar nombres tan propia del gremio sería más conocido como MsgGroup. No fue la única lista ni la más popular, honor reservado a la dedicada a los aficionados a la ciencia ficción, pero sí la que más importancia tuvo y donde tuvieron lugar las primeras flame wars, o peleas a cara de perro vía mensajería electrónica.

La primera discusión importante, que hizo correr ríos de bits, fue, lo crean o no, sobre las cabeceras de los mensajes. Cuando se envía un correo electrónico, además del mensaje, se mandan una serie de líneas de texto llamadas cabeceras. Las más conocidas y útiles son el asunto del mensaje, el emisor y el o los receptores. Pero hay muchísimas más, como se puede comprobar si se lee el código fuente del mensaje. Al principio los lectores mostraban todas, y algunos programas de envío mandaban cosas tan esotéricas como la fase de la luna en el momento de escribir el mensaje y cosas así, por lo que muchos querían imponer unos límites, mientras otros lo consideraban poco menos que un asalto contra la libertad de expresión.

Tanto era así que como MsgGroup era una lista moderada, y los mensajes más agresivos no pasaban el filtro, se montó otra sin censura llamada Header People cuyos miembros, según uno en su momento, se ponían calzoncillos de amianto para poder participar en ella. Así somos a veces los informáticos, puristas hasta la náusea con las mayores tonterías. El problema finalmente se resolvió señalando unas pocas cabeceras obligatorias e indicando que las demás podían ser ocultadas al leer los mensajes; vamos, como estamos ahora.

Con el tiempo, a finales de los años setenta, se propondría el uso de emoticonos, esas caras sonrientes y guiños hechos con paréntesis y guiones, para evitar malentendidos y que algunas cosas que decimos en los mensajes se tomen demasiado en serio. Incluso se hizo una guía de «netiqueta», en la que ya se advertía que escribir en mayúsculas era equivalente a gritar y que convenía evitarlo. El correo electrónico fue lo que convirtió Arpanet en un éxito, y llevaría a la creación de otras redes y, finalmente, de Internet. A la web todavía le faltaban unos cuantos años para dar sus primeros pasitos.

ETHERNET, LA REINA DE LAS REDES TONTAS

Pese a que se usa constantemente, poca gente sabe qué es Ethernet. Se habla de la red de la oficina, así en general, o del cable de red. Es lo que tiene el triunfo absoluto, que te convierte en un genérico. Pero cuando Bob Metcalfe inventó Ethernet, en los años setenta, la idea parecía descabellada: ¿cómo podría funcionar una red que no ofrecía garantía alguna de que un mensaje llegara a su destino?

Robert Metcalfe era, en 1972, un estudiante cabreado. Estaba enfadado con AT&T, el mastodonte telefónico norteamericano, y con Harvard, su universidad. El origen de tanto mal rollo fue su pasión por Arpanet. Tras intentar sin éxito ser el responsable de conectar Harvard a la red, hizo lo propio con las minicomputadoras del MIT. Era un entusiasta, un absoluto enamorado de lo que terminaría siendo la red de redes.

El caso es que ese año se celebraron unas jornadas sobre Arpanet, para las cuales escribió un panfleto de veinte páginas donde describía cómo funcionaba aquélla y para qué se podía usar: algo así como el primer Internet para torpes. Gustó mucho, y acabaron pidiéndole que hiciera una demostración a una decena de directivos de AT&T. La empresa ya estaba luchando contra Arpanet, temerosa de que pudiera evolucionar y terminar echando abajo su monopolio, construido sobre la red telefónica. Y el caso es que a aquel barbudo estudiante se le colgó la red justo en ese momento, el único en tres días en que le dio por fallar, como si de una versión cualquiera de Windows se tratara. Y a los de AT&T les encantó. «Aquello era el trabajo de mi vida, mi cruzada. Y esos tíos estaban sonriendo», recordaría Metcalfe años más tarde. No se lo perdonó.

Pero peor fue lo de Harvard. Su tesis sobre Arpanet estaba terminada, tenía incluso día para leerla y sus padres ya habían reservado los billetes para volar desde Nueva York. Tenía ya un contrato para trabajar en el prestigioso laboratorio PARC de Xerox. Pues bien: se la echaron abajo con el argumento de que no era suficientemente teórica. Metcalfe podía admitir que no era una tesis demasiado buena, pero algo de razón tenía cuando replicaba que si aquellos profesores hubieran sido buenos en lo suyo le habrían encaminado mejor.

Con el cabreo con el mundo que tenía encima, llegó a Palo Alto a trabajar… y siguió con su obsesión con Arpanet. Un día llegó a sus manos un artículo sobre la primera red inalámbrica: la había montado dos años antes Norman Abramson en la Universidad de Hawai. Dado que esta institución tenía instalaciones en varias islas, el cableado no era una opción viable, así que el método de transmisión fue la radio. Si sabe usted tanto hawaiano como yo, seguro que apuesta a que su nombre era AlohaNet. Pues… ¡sí, lo era!

Esta red funcionaba de un modo curioso: todos los ordenadores conectados a ella estaban continuamente escuchando la radio, a ver si había algo para ellos. Cuando lo había, cogían el mensaje y mandaban otro avisando de su recepción. Cuando tenían que enviar, primero comprobaban que nadie estaba ocupando la radio con sus tonterías. No obstante, pese a las cautelas, podía pasar que dos o más terminales enviaran a la vez sus mensajes, con lo que la radio sólo emitía un ruido imposible de interpretar. Cuando no se recibía la confirmación del receptor, se esperaba un lapso de tiempo aleatorio y se volvía a intentar la comunicación.

AlohaNet era lo que se llama una red tonta. Tradicionalmente —y en telecomunicaciones lo tradicional es el teléfono— los terminales eran los cacharros menos complejos del sistema, y era dentro de la red donde se hacía todo el trabajo duro. En cambio, en una red tonta los encargados de que todo vaya bien son principalmente el emisor y el receptor. Si quiere entender la diferencia como Dios manda, imagine que es un náufrago y quiere enviar el obligado mensaje en esa botella que tiene a mano. En la red telefónica habría un señor que acudiría de inmediato, cogería la botella y la entregaría en destino. A simple vista, el sistema de AlohaNet equivalía a matar moscas a cañonazos: la botella se echaría en el agua y todos los posibles receptores estarían continuamente filtrando el mar a ver si les caía la breva.

Explicado así, lo cierto es que las redes tontas parecen un atraso, y así lo vieron en AT&T. Pero tenían una gran ventaja. Los señores de las compañías telefónicas sólo sabían hacer una cosa: repartir botellas, o sea, llamadas de teléfono. En cambio, las redes tontas pueden hacer de todo. Internet es como ellas. Por eso sirve para la web, el correo electrónico, la mensajería instantánea y, sí, para hablar como si fuera un teléfono. Cuando algunos hablan de la neutralidad de la red, en realidad defienden que las redes sigan siendo tontas. No lo dicen así porque, claro, no queda igual de bien.

Decíamos que nuestro héroe quedó fascinado por AlohaNet, pero también se dio cuenta de su gran problema: en cuanto aumentaba demasiado el número de terminales conectados a la red, o estos se enviaban demasiados mensajes, la red se pasaba más tiempo lidiando con las interferencias que enviando mensajes útiles, de modo que sólo se aprovechaba el 17 por ciento de su capacidad máxima. Metcalfe se dio cuenta de que, trabajándose un poquito las matemáticas, podía mejorar mucho el sistema. Y vaya si lo hizo.

El truco consistió, principalmente, en que ese tiempo aleatorio que había que esperar para volver a enviar el mensaje fuese aumentando según se iban sucediendo los errores. Es decir, si había más tráfico, se esperaba más para volver a intentarlo. De esta forma tan simple pasó a aprovechar el 90 por ciento del ancho de banda.

Metcalfe puso en práctica sus ideas en una red nueva que en lugar de radio usaba cables, que era lo normal. Se utilizó en principio para conectar entre sí los novedosos ordenadores personales en los que estaban trabajando en Xerox. La cosa le sirvió, además, para que los tocanarices de Harvard le aprobaran de una vez su tesis. Pero, como él mismo diría años después, no se forró por inventar Ethernet, sino por venderlo durante más de una década; década que comenzó en 1979, cuando fundó una empresa que llamó 3com: por las tres com: comunicaciones, computadores y compatibilidad.

Ya en la década de los noventa, y con el bolsillo bien cubierto, Metcalfe cambió de oficio y pasó de inventor y empresario de éxito a gurú de las nuevas tecnologías. Se hizo famoso por varias predicciones… fallidas, como esa que auguraba que lo de las redes inalámbricas no iba a funcionar jamás y que la gente haría bien en cablear sus casas y oficinas, o esa otra, de 1995, que decía que Internet iba a colapsar en 1996…

Aseguró que se comería sus palabras si erraba. Y con la ayuda de una batidora y algo de agua, cumplió su promesa.

UNA RED PARA ATRAERLOS A TODOS Y ATARLOS AL ORDENADOR

Arpanet había sido todo un éxito gracias al correo electrónico, y pronto aparecerían más redes para competir con ella. IBM crearía su Bitnet en 1984. Los estudiantes de las universidades norteamericanas crearon una red propia, llamada Usenet. Incluso Microsoft intentó implantar la suya, a mediados de los noventa. Todas desaparecieron.

En 1972 se hicieron varios experimentos con redes inalámbricas y por satélite. Uno de los principales responsables del desarrollo de Arpanet, Bob Kahn, recabó la ayuda de su colega Vinton Cerf para intentar encontrar un modo de conectar esas redes con la suya. Todas usaban paquetes, pero eran de distinto formato y tamaño, y no tenían la misma fiabilidad. Dado que les parecía imposible proponer un sistema común a todas ellas, decidieron que deberían mantenerse cada una como era y comunicarse con las demás a través de unas pasarelas, que funcionaran como un nodo normal de red, pongamos, inalámbrica y también de Arpanet, y pasaran los mensajes de una a otra. Si al funcionamiento normal de una red se le llamaba networking, a esto se le denominó internetworking. ¿Les da una pista de cómo acabaría todo?

Era algo más que un esfuerzo teórico. Pese a que aquellas redes eran experimentales, había otras que estaban funcionando a pleno rendimiento, similares a Arpanet pero en Reino Unido y Francia. Sin duda habría más por venir. Cerf y Kahn trabajaron juntos durante meses para dar a luz un nuevo protocolo, llamado TCP, que permitiría el milagro. Al contrario que el NCP de Arpanet, este esquema de comunicación no confiaría en la fiabilidad de las conexiones. Establecía que todo circulase por las distintas redes en datagramas, o mensajes TCP, del mismo modo que los bienes viajan por el mundo en barco, tren o camiones en contenedores estándar, todos del mismo tamaño. Y del mismo modo que los contenedores permitieron la globalización económica, los datagramas trajeron la globalización de la información.

Una primera versión del esquema fue presentada en la primavera de 1974, y cuatro años después Cerf, junto a otros dos pioneros llamados Jon Postel y Danny Cohen, decidieron romper el protocolo en dos. TCP (Transfer Control Protocol) sería responsable de dividir los mensajes en datagramas, enviarlos, volver a ensamblarlos en el destino y reenviar los que no hubieran llegado correctamente. IP (Internet Protocol) sería el responsable de coger cada datagrama individualmente y llevarlo de nodo en nodo hasta su destino final. De este modo, las pasarelas que interconectaban las redes sólo necesitarían entender el protocolo IP, así que serían más baratas. Una red TCP/IP sería una red tonta, en la que los extremos, los ordenadores, serían realmente los encargados de que todo funcionara correctamente. Igualico que Ethernet.

Debido a la facilidad con que se podían interconectar gracias a TCP/IP, a mediados de los ochenta se habían establecido un buen número de redes distintas a Arpanet. Todas se comunicaban entre sí en lo que empezó a llamarse Internet. Ya en 1983, la red original había abandonado su protocolo original a favor de TCP/IP. La NSF, una agencia federal dedicada a impulsar la ciencia, puso en marcha la gran columna vertebral de la red, una suerte de oleoducto de información, llamada NSFNET, a la que se conectaron las redes regionales. Todo parecía claro: la idea de Kahn y Cerf había triunfado.

Pero había nubarrones en el horizonte. En 1978 se había establecido un comité ISO para crear un protocolo estándar de comunicación entre redes. Es decir, repetir lo que ya estaba inventado pero de forma oficial y pomposa. Lo tuvieron listo diez años después, nada más y nada menos, y los gobiernos de medio mundo apostaron por él. OSI, que así se llamó el invento, era mucho más refinado, más lógico, más depurado… y fracasó miserablemente. Las organizaciones ya tenían sus propias redes Ethernet comunicadas con el exterior mediante TCP/IP y no tenían intención alguna de cambiar una tecnología que funcionaba por otra que parecía muy bonita sobre el papel, pero nada más.

Así que OSI fracasó. El estándar de facto venció al estándar de iure. Arpanet desapareció finalmente a finales de 1989. Se había convertido en una de tantas redes conectadas a Internet mediante NSFNET. Así que un ingeniero llamado Mark Pullen recibió el encargo de ir desconectando los nodos de la red uno a uno y enchufándolos directamente a la red de redes.

En cualquier caso, fuera de las instituciones académicas, la mayor parte del universo seguía sin acceder a Internet. Su papel lo tomaron las BBS, o Bulletin-Board Systems, máquinas a los que los usuarios se conectaban vía módem desde su ordenador personal marcando el número correspondiente para enviar sus mensajes y recibir los nuevos. Incluso se formó una suerte de Internet alternativa, llamada Fidonet, que englobaba a un buen porcentaje de las BBS. Sin embargo, en 1995 se produjo el gran cambio. Ese año la NSF decidió abandonar su papel en la red, permitiendo que todos los nodos se conectaran entre sí como prefirieran, sin pedirle permiso para conectarse a su red central. Esto es, la privatizó. Sin ese paso, Internet hubiera seguido siendo confinada al gueto universitario, y sólo una pequeña parte del mundo hubiera tenido acceso.

A finales de aquel 1995 había 14 millones de internautas. En 2009 eran ya 1669 millones, casi un cuarto de la población mundial. Todas las demás redes desaparecieron o quedaron reducidas a algo testimonial. La cesión de Internet a la sociedad civil y la creciente popularidad de los ordenadores personales permitieron la creación del primer medio de comunicación de masas que, al mismo tiempo, ponía a sus miembros en un estatus de igualdad: cada internauta puede poner lo que quiera en la red, y ese algo puede ser leído, visto u oído por todos los demás. Pero para convertir ese enorme potencial en algo fácil de entender y utilizar por esos centenares de millones de personas hacía falta aún algo más.

LA WEB: EL SUEÑO Y LA PESADILLA DE H. G. WELLS

Durante siglos, la humanidad ha soñado con poner todo el saber a disposición de todo el mundo. Fue la idea que impulsó a Diderot a elaborar la Enciclopedia. Y la que llevó al escritor británico H. G. Wells a proponer la creación del Cerebro Mundial, que no sería un mero almacén estático de información, sino que se modificaría según fuera cambiando el conocimiento acumulado.

Wells tenía algunas sugerencias sugestivas, como la de que el conocimiento podría no estar en un único lugar sino en una red; pero desafortunadamente no tenía la más remota idea de cómo podía demostrarlo: su única propuesta práctica consistía en almacenar la información en microfilms. Así las cosas, poco pudo hacer, además de publicitar sin mucho éxito su idea durante los años treinta.

El testigo lo cogió Vannevar Bush, que en 1945 describió, en uno de esos artículos que los sabiondos y los cochinos llaman «seminales», un aparato al que llamó memex: un escritorio con una pantalla, un teclado y varias palancas que permitían, por medio de unos códigos, acceder a la información almacenada en microfilms. Bush reconoció que la mente no funciona por medio de índices y clasificaciones sino mediante asociaciones, saltando de una idea a otra, y pretendía que el memex reflejara ese modo de gestionar la información y ofreciera documentos relacionados con lo que el usuario estuviera leyendo. Pero no dio ningún paso para verlo construido, pese a su indudable capacidad técnica, que demostró —por ejemplo— al inventar el analizador diferencial, y su elevada posición política, pues fue responsable del desarrollo técnico y científico norteamericano durante la Segunda Guerra Mundial, Proyecto Manhattan incluido.

Bush ejerció su influjo en otros investigadores norteamericanos, no crean. A mediados de los años sesenta Ted Nelson acuñó el término hipertexto para describir su pionero sistema de organización de datos: cada documento tendría no sólo texto, también unas etiquetas, llamadas hiperenlaces, que al ser pulsadas con un lápiz óptico permitirían consultar otro documento con él relacionado. Poco después, el sistema informático creado por Douglas Engelbart incorporó un esquema similar, pero con ratón de por medio. Ahora bien, aunque el mecanismo de funcionamiento estaba creado, a nadie se le ocurrió emplearlo dentro de la red Arpanet, que por aquel entonces daba sus primeros pasos.

En los años ochenta, el problema de la gestión, organización y búsqueda de información en red fue cobrando más importancia, a medida que Internet crecía. Pero no fue hasta los inicios de la década siguiente cuando se propusieron dos soluciones bien interesantes… y completamente distintas. La primera fue una cosa llamada Gopher, desarrollada en la Universidad de Minnesota y lanzada al mundo en 1991. Cada servidor Gopher albergaba un conjunto de documentos accesibles mediante menús y submenús. Tuvo sus dos o tres años de gloria, porque era la primera aplicación de Internet que no requería que el usuario aprendiera un conjunto de abstrusos comandos para hacerla funcionar. Cuando llegó al poder, Clinton, que prometió en campaña impulsar las «autopistas de la información», creó un servidor de la Casa Blanca para Gopher. Fue uno de los cerca de 7000 que llegaron a existir en su momento de mayor esplendor, 1994.

Sin embargo, aquel sistema no respondía a la visión de Vannevar Bush, pues su estructura era rígida. Fue un inglés, Tim Berners-Lee, quien se ocupó de mezclar adecuadamente el hipertexto de Ted Nelson con Internet. Era un informático que trabajaba en el CERN, el laboratorio europeo de física de partículas situado en Suiza y conocido por albergar el mayor acelerador de partículas del mundo. Berners-Lee quiso ocuparse de un problema que tenían los investigadores a la hora de compartir documentos dentro del laboratorio, dado que empleaban un gran número de ordenadores en muchos casos incompatibles entre sí.

Armado con su ordenador NeXT, de la empresa que fundó Jobs cuando le echaron de Apple, creó el protocolo HTTP y el lenguaje HTML. El primero definía la forma en que se accedía a los documentos, dando a cada uno de ellos una dirección única, que se llamaría URL, como por ejemplo http://historia.libertaddigital.com/ceros-y-unos.html. HTML era un lenguaje que permitía añadir formato al texto y, sobre todo, ponerle hiperenlaces. De este modo, aunque técnicamente fuera más complicado crear lo que ahora llamamos un sitio web que un servidor Gopher, aquel era mucho más versátil. La manera en que cada página se conectaba con otras a través de los enlaces llevó a su creador a compararlo con una telaraña, cuyos hilos, gracias a Internet, abarcarían pronto toda la Tierra, de modo que lo llamó World Wide Web, o telaraña mundial. El primer sitio web, una página alojada en el CERN que explicaba qué era esto del HTML y cómo hacerte una tú mismo, vio la luz el 6 de agosto de 1991.

La batalla entre ambos servicios tuvo como fecha clave 1993. Ese año, la Universidad de Minnesota decidió cobrar a las empresas por usar un servidor Gopher, mientras Berners-Lee y el CERN pusieron su trabajo bajo dominio público. Mientras tanto, en un laboratorio informático de la Universidad de Illinois, Marc Andressen y Eric Bina crearon Mosaic, el primer navegador web gráfico cuyo uso se popularizó, facilitando el uso de imágenes en los documentos de la web. Temerosos de que terminaran queriéndoles cobrar, y viendo que la WWW empezaba a presentar notables mejoras, los que querían poner información en la red se olvidaron de Gopher y se centraron en la web.

Tim Berners-Lee se ha dedicado desde entonces a dirigir el consorcio W3, que se dedica a proponer los patrones de uso común en la web, y a sacar lustre a su distinción como Caballero del Imperio Británico. Andressen y Bina fundaron Netscape, una de tantas empresas que intentaron mojar la oreja a Microsoft y terminaron fracasando: su demanda contra el gigante de Redmond hizo temer que la justicia terminara ordenando la atomización de este en varias empresas, pero finalmente todo quedó en agua de borrajas.

Wells escribió en 1937 que estaba cerca el momento en que «cualquier estudiante, en cualquier parte del mundo», pudiera sentarse con su proyector en su propio estudio para «examinar a voluntad cualquier libro, cualquier documento, en una reproducción exacta». A finales del año 2010 existían ya 125 millones de sitios web, que acercaban ese sueño a la realidad. Pero, pese a ser escritor de ciencia ficción, Wells se quedó corto. Pensó en trasladar el conocimiento ya existente a su Cerebro Mundial. Sin embargo, no pudo anticipar que buena parte de la información creada por la humanidad naciera directamente no en un papel del que hubiera que hacer una réplica, sino en la web, dando lugar a una explosión sin precedentes en el número de personas capaces de comunicarse con sus semejantes, de expresar sus opiniones, de aportar algo a lo que fuera.

Claro, que el Cerebro Mundial era parte de la visión totalitaria de la sociedad que tenía el cantamañanas de Wells, quien creía que tal artilugio debía servir como «un sistema de control mental», una herramienta al servicio de un totalitarísimo Gobierno Mundial. Como para anticipar que ese invento aumentaría nuestras libertades y se convertiría en el azote de los tiranos de todo el mundo…

AMAZON Y EL «MARCO DE MINIMIZACIÓN DEL ARREPENTIMIENTO»

Cuando Internet estaba en manos del Estado, una de sus principales normas era que no debía usarse con ánimo de lucro. El dinero no debía manchar con sus sucias manos la pureza prístina de la red. Las más agrias discusiones se producían cuando alguien ofrecía un coche de segunda mano o algo por el estilo. El comercio electrónico no es que estuviera en pañales: es que estaba prohibido.

Pero cuando finalmente el Gobierno estadounidense decidió privatizar Internet, uno de los primeros que decidió que ahí podía haber pasta fue un tal Jeff Bezos, que trabajaba de analista financiero en D. E. Shaw, una empresa de Wall Street conocida por su capacidad para aplicar la tecnología a las finanzas.

Jeffrey Peston nació en Albuquerque, y como el matrimonio de su madre con su padre biológico terminó antes de que cumpliera un año, para Jeff su único y verdadero padre fue su padrastro Miguel Bezos, un cubano que huyó del castrismo cuando tenía quince años y llegó a Estados Unidos con una mano delante y otra detrás: acabaría trabajando como ingeniero para la pérfida Exxon, y la familia mudándose a Houston. Con semejantes antecedentes familiares, no cabía duda de que nuestro héroe se dedicaría al mal absoluto, es decir, a intentar ofrecer lo mejor a los mejores precios. Al comercio.

Mientras trabaja en su despacho de Wall Street, Bezos consultó un sitio web que aseguraba que Internet estaba creciendo un 2300 por ciento anual. Fue su epifanía. Desde ese mismo instante se dedicó a investigar qué podía venderse a través de la red. Investigó las empresas de venta por catálogo e intentó averiguar qué podía hacerse mejor por Internet, porque tenía claro que si su idea no ofrecía algo de valor a los consumidores, ya fueran precios más bajos, una selección más amplia o una compra más cómoda, los consumidores seguirían fieles a sus costumbres.

Fue así como llegó a los libros. No tenía ninguna experiencia práctica en el negocio editorial, pero se dio cuenta de que no se vendían bien por catálogo porque para colocar uno mínimamente decente había que contar con miles, si no millones, de títulos. De la forma tradicional, eso suponía un catálogo inmanejable del tamaño de una guía telefónica. Así que era un sector perfecto para Internet.

Las casualidades de la vida, eso que algunos llaman Destino, hizo que la convención anual de los libreros tuviera lugar en Los Ángeles al día siguiente de que llegara a esa conclusión; así que voló hasta allí e intentó aprender cómo funcionaba el negocio en un solo fin de semana.

Quedó convencido de que su idea podía materializarse, y a su vuelta, tras consultar a su mujer y a su jefe, se dio dos días para tomar la decisión de seguir en su trabajo, que era estimulante y estaba bien pagado, o tirarse a la piscina. A la hora de decidirse empleó lo que luego llamaría «marco de minimización del arrepentimiento»: se imaginó con ochenta años dando un repaso a su vida, y se dio cuenta de que nunca se arrepentiría de haber renunciado a un buen salario o de haber fracasado; al contrario, como buen emprendedor, se sentiría orgulloso de haberlo intentado. Así que se puso a llamar a familiares y amigos, tanto para comunicarles su decisión como para ofrecerles invertir en la idea.

Su padre, Miguel, o Mike, le contestó que qué era eso de Internet. Pero aun así él y su mujer le dieron 300 000 dólares, que guardaban para la jubilación; no porque entendieran su idea, sino porque creían en Jeff más que el propio Jeff, que cifraba en un 30 por ciento sus posibilidades de triunfo.

El puente del 4 de julio de 1994 viajó a Seattle, donde montó la empresa al estilo tradicional, o sea, en un garaje. Durante al viaje llamó a un abogado para que le preparara los papeles y bautizó a la criatura con el nombre de Cadabra, que gracias a Dios cambiaría más adelante. Durante un año estuvo trabajando junto a sus primeros empleados en poner en marcha la web, que abriría sus puertas el 16 de julio de 1995. En su primer mes en funcionamiento, y para sorpresa del propio Bezos, había vendido libros por todos los rincones de Estados Unidos… y en otros cuarenta y cinco países.

Bezos había corrido mucho para ser el primero, y no iba a dejar que nadie lo adelantara. Su premisa fue crecer rápido, a toda costa, aunque eso le impidiera repartir beneficios y le obligara a sacar capital de donde fuera. Por poner un ejemplo: sus ingresos en 1996 fueron de 15,7 millones, y al año siguiente se dispararon hasta los 147,8. Así las cosas, a lo largo de los años noventa y durante su salida a bolsa, en plena burbuja de las puntocom, todo el mundo se preguntaba si aquella empresa que crecía tan desordenadamente daría dinero alguna vez.

Uno de sus mejores hallazgos fue encontrar un sustituto para la placentera experiencia que supone comprar un libro en una librería de las de ladrillo, estanterías y olor a papel, donde podemos coger los libros, hojearlos y, en algunos casos, sentarnos a tomar un café. Algo que sustituyera al librero experto que nos aconseja. Y lo encontró creando la mayor comunidad de usuarios del mundo, que dan sus opiniones sobre todos los productos que ofrece la empresa, brindan consejos, elaboran listas con sus 15 preferidos de esto o aquello…

Otro gran acierto fue expandirse más allá del inventario casi infinito de libros y empezar a ofrecer discos, películas, videojuegos, electrónica, ropa, instrumentos musicales, accesorios de cocina, juguetes, joyería, relojes, suministros industriales y científicos, herramientas y… básicamente todo lo que se pueda imaginar, bien directamente, bien comprando otras compañías de comercio electrónico o llegando a acuerdos con comercios tradicionales.

Pero Bezos hubo de pagar un precio por todo ello, especialmente por su empeño de vender más barato que nadie —a menudo, regalando los gastos de envío—: sus pérdidas llevaron a algunos a pensarse, con el cambio de milenio, que quizá no fuera la persona más adecuada para dirigir la empresa que había fundado. Pero perseveró y logró lo impensable: que en 2003, después de que la burbuja reventara —como terminan haciendo todas—, Amazon tuviera beneficios por primera vez. Desde entonces, su nombre es sinónimo de comercio electrónico: tiene aproximadamente 50 millones de clientes sólo en los Estados Unidos, y nadie espera que otra empresa pueda desplazarla del trono.

Su última aventura ha sido la de liderar el cambio del libro al libro electrónico con el Kindle, que se lanzó a tiempo para que el personal pudiera regalarlo en las navidades de 2007. Su objetivo: que no suceda con la industria editorial lo mismo que con la discográfica. Será complicado, toda vez que los libros electrónicos pueden copiarse incluso con más facilidad que la música. Pero parece claro que si hay alguien capaz de conseguirlo, ese alguien es Bezos, con su Amazon.

GOOGLE, EL BUSCADOR QUE NACIÓ EN WILLIAM GATES

En enero de 1996 todo el departamento de informática de la Universidad de Stanford se mudó a un nuevo edificio, en cuya entrada se grabó el nombre del benefactor que hizo posible su construcción: William Gates. En la ceremonia de inauguración, el decano hizo el siguiente vaticinio: «En año y medio, algo importante va a ocurrir aquí, y habrá un sitio, un despacho, un rincón que la gente señalará diciendo: “Sí, ahí trabajaban en 1996 y 1997”». Una profecía que se revelaría tremendamente exacta, para desgracia del propio Gates.

Entre los alumnos que hicieron ese día la mudanza había dos estudiantes de doctorado que siempre andaban juntos, hasta el extremo de que había quien los llamaba Larryandsergey. Ambos eran hijos de profesores y doctores de matemáticas e informática. Larry Page estaba trabajando en algo llamado Proyecto de Bibliotecas Digitales, mientras que Sergey Brin estaba a las órdenes del profesor Rajeev Motwani en el programa Midas; sí, como el rey griego que convertía en oro todo lo que tocaba. Bajo ese nombre tan sugerente y a su vez pelín profético buscaban nuevas formas de sacar información útil de las bases de datos. Es el llamado data mining, que a veces se describe como la técnica de torturar los datos hasta hacerlos confesar sus pecados. Con suficiente información puede averiguarse todo tipo de relaciones, como por ejemplo las cosas que suelen comprarse juntas, para atraer al personal con una oferta jugosa… y recuperar el dinero en otros productos. Esta es la razón de la proliferación de las tarjetas de cliente con descuento en todo tipo de comercios: nos dan dinero a cambio de que les digamos qué compramos, y cómo, para proceder en consecuencia.

Pero me estoy desviando. Tanto Brin como Page tuvieron que buscar información en la web para avanzar en sus respectivas investigaciones, y pese a emplear la mejor herramienta disponible en aquel momento, Altavista, quedaron bastante frustrados. Por entonces los buscadores sólo extraían información relevante del texto de las propias páginas; es decir, que una web porno podía colarse en los resultados de quienes buscaban agencias de viajes con sólo repetir la expresión «agencias de viajes» un porrón de veces. Tan poco preciso era el sistema que en bastantes ocasiones era más práctico navegar por los sitios web listados en directorios como Yahoo y mirar una a una las páginas, a ver si sonaba la flauta…

Fue Page quien tuvo la idea de emplear un sistema distinto. El futuro multimillonario había nacido entre libros, y no libros cualquiera, sino académicos. Sabía de la importancia de las citas: un trabajo al que hacían referencia a menudo otros investigadores era seguramente un estudio importante. Pensó que los enlaces eran como las citas, y que podían usarse para averiguar qué páginas eran más importantes y debían mostrarse primero. Es más, tampoco era precisamente lo mismo que te enlazara Yahoo o que lo hiciera la página personal del vecino de enfrente. Así, dio a luz a un algoritmo que tuviera en cuenta todos estos factores para ordenar los sitios web por grado de importancia; lo llamó PageRank, nombre que incluye su apellido, que, por alguna razón, quién sabe si también algo profética, significa «página» en inglés.

Tanto él como Brin abandonaron pronto lo que estaban haciendo para poder pasar de la teoría a la práctica. Su objetivo era descargarse Internet; si no entera, al menos un cacho bien gordo. No tenían presupuesto, por lo que funcionaron a base de pasearse por los laboratorios del edificio William Gates y recoger ordenadores que nadie quería. Así montaron, a comienzos de 1997, BackRub, que fue como denominaron a su buscador, que en poco tiempo se convirtió en la opción preferida dentro de Stanford. En otoño lo cambiaron por otro nombre más de acuerdo con sus intenciones de convertirlo en el mejor del mundo: lo llamaron gúgol, que es el nombre que recibe el número formado por un uno seguido de cien ceros. El problema es que el compañero de despacho que se lo sugirió no sabía escribirlo bien (sí, por eso hacen concursos de deletreo en Estados Unidos, porque tienen un idioma tan raro que hasta los doctorandos de una universidad cometen ese tipo de errores). Así, en lugar de googol que es como se escribe el numérico en inglés, acabaron llamándole Google.

La verdad es que Page y Brin no parecían tener mucho interés en fundar una empresa. Su objetivo era sacarse el doctorado, vender la tecnología (debidamente patentada) a alguno de los grandes de Internet y… a otra cosa, mariposa. Eran estudiantes y asiduos a un festival conocido como Burning Man, nacido en 1986 y que hubiera sido el sueño de todo hippie de los sesenta: gente en pelota picada, arte, prohibición total del comercio y obligación de dejar todo como estaba por conciencia ecológica. Lo suyo, desde luego, no parecía ser la gestión empresarial, por más que Brin dijera años más tarde que siempre le había atraído la idea de ser un tipo de éxito en los negocios.

Pensaran lo que pensaran, el caso es que se vieron cada vez más obligados a tirar para delante. Las empresas de entonces, Altavista incluida, consideraban las búsquedas una parte más de sus portales omnicomprensivos, que pretendían dar toda la información que podía interesar a sus usuarios: correo electrónico, noticias, cotizaciones bursátiles, mensajería instantánea, el tiempo… De hecho, las búsquedas eran casi la hermana menor, porque se llevaban a los usuarios fuera de los portales, las malditas. Así que no lograron convencer a nadie y tuvieron que plantearse salir de Stanford y formar su propia empresa.

En agosto de 1998 se reunieron con un tal Andy Bechtolsheim y le mostraron su buscador. Aunque aún tenían la idea de vender su motor de búsqueda a otras empresas como vía de financiación, el inversor veía muy claro que aquello terminaría sacando dinero de la publicidad. Brin y Page abominaban de ella porque en aquel entonces era frecuente pagar por aparecer en los primeros puestos de las búsquedas y porque los anuncios solían ser demasiado llamativos e invasivos. No querían que nada alterase la pureza ni de sus resultados ni de su diseño minimalista, y mucho menos el dinero. Pero Bechtolsheim estaba seguro de que se lo replantearían, así que extendió un cheque a nombre de Google Inc. por valor de 100 000 dólares para que empezasen a comprar las placas base, los discos duros y los procesadores que necesitaban para montar su infraestructura técnica. Sin hablar de acciones ni de nada.

Aquello les convenció. Hicieron una ronda entre amigos y conocidos diversos y sacaron en total un millón de dólares; fundaron la empresa en septiembre, requisito básico para poder cobrar el cheque, que estaba a nombre de la misma, y se mudaron a un garaje de Menlo Park. Como decía su primer empleado, su compañero de universidad Craig Silverstein, lo del garaje es una obligación para toda empresa de Silicon Valley que se precie.

En 1999, Brin y Page lograron 25 millones más de dos empresas de capital riesgo. La condición que les impusieron fue que buscaran a un profesional que ejerciera de consejero delegado y les gestionara la empresa como Dios manda, algo a lo que no estaban muy dispuestos. Estaban muy contentos con cómo iba todo. Habían pasado del garaje a un piso de Palo Alto, y de ahí a un edificio de Mountain View. Entre sus logros estaba el haber trasplantado el ambiente universitario a la compañía; lo que ahorraban en infraestructura tecnológica gracias a que empleaban muchísimos ordenadores muy baratos en lugar de unos pocos muy caros se lo gastaban en pelotas de colorines, lámparas de lava y juguetes diversos, un chef que trabajó en su día para los Grateful Dead, servicios de lavado de coches, guardería, lavandería, médico, dentista… y el famoso 20 por ciento: el tiempo que los ingenieros podían pasar trabajando en proyectos propios, práctica importada directamente de la Universidad de Stanford. De ahí han salido muchos de los éxitos y de los fracasos de la compañía, como Product Search, Gmail, Google News, Orkut o Google Talk. No fue la primera empresa en aplicar algo así (el trabajador de 3M que inventó los post-it lo hizo en ese tiempo extra), pero sí la que más ha hecho por promocionarlo.

Como lo de colocar el buscador a otras empresas no estaba resultando, al final pasaron por el aro de la publicidad. Eso sí, a su estilo. Las empresas contrataban sólo anuncios de texto que aparecían junto a los resultados de las búsquedas, sin mezclarse, claramente diferenciados. Cualquiera podía anunciarse, desde la compañía de seguros elefantiásica hasta el más pequeño taller mecánico de Wisconsin, gracias a las herramientas web que facilitaban. Y pagaban por clic, no simplemente por aparecer un determinado número de veces. Larry asegura que el esfuerzo por hacer rentable la empresa se debió a que Sergey quería aumentar su atractivo ante las mujeres, y ser presidente de una empresa de nuevas tecnologías con pérdidas no era un buen arma.

Al final, no obstante, les encontraron el tipo ideal para dirigir Google. Eric Schmidt venía de ultimar los detalles de la fusión de Novell, la empresa que dirigía en 2001, con otra compañía, cuyo consejero delegado le sustituiría, por lo que en breve se quedaría sin trabajo. Por otro lado, en los noventa se había atrevido a pegarse con Microsoft desde la dirección de Sun Microsystems. Pero lo que más convenció a Brin y Page es que había investigado en el famoso laboratorio Xerox PARC… y acudido en alguna ocasión al dichoso Burning Man. Hasta cierto punto, era uno de los suyos. Así que se incorporó a Google y les hizo ganar aún más dinero, aunque tuviera que pagar algunos peajes; como este: siendo el mandamás, tuvo que compartir su despacho durante unos meses con uno de los mejores ingenieros de la empresa. Schmidt dio a Google el aire de respetabilidad que necesitaba para que su salida a bolsa (2004) fuera un éxito.

Google se ha convertido para muchos en sinónimo de Internet. Lo que no fue capaz de desarrollar en casa lo compró: Blogger, YouTube, AdSense, Google Maps, Android, Docs, Analytics… Tiene un vasto programa dedicado a digitalizar las mayores bibliotecas del mundo y hacerlas accesibles desde Google Books. Ha creado un navegador propio, Chrome, y planea convertirlo en un sistema operativo. Su tamaño y ambiciones, cada vez mayores, han conseguido que muchos internautas la teman, pero no es tan odiada como lo fueron IBM o Microsoft en su momento, al menos por ahora. En parte porque ha intentado ser fiel a su lema, algo así como «no hagas el mal», por más que esto se traduzca en la práctica como «no hagas lo que Sergey considera malo», según explicó en su momento Schmidt. Y porque, al contrario de lo que pasa con los productos de otras grandes empresas, la verdad es que sus búsquedas siguen funcionando estupendamente.

WIKIPEDIA: DEL PORNO AL CONOCIMIENTO

En la universidad, a mediados de los años ochenta, un estudiante empezaba a sentirse identificado con el Howard Roark de El manantial, según leía la novela. También por entonces leyó el clásico ensayo de Hayek El uso del conocimiento en la sociedad. No sabía que le inspiraría para realizar la obra de su vida, su propio rascacielos virtual.

Jimmy Jimbo Wales nació en Alabama y se educó… no en casa pero casi, pues la pequeña escuela en la que pasó su infancia era privada, estaba regentada por su madre y su abuela y tenía un número de alumnos bastante ridículo; varios cursos compartían de hecho la misma aula, la única que había. No obstante, era un colegio exitoso, que cogía niños con problemas para aprobar y en poco tiempo los ponía a un nivel uno o dos cursos por encima de lo que les correspondía. Wales, de hecho, pasó algunos de esos años no con libros de texto, sino leyendo y estudiando una enciclopedia por su cuenta.

Aquello no salió del todo mal, ya que empezó muy joven la universidad… y no se doctoró no porque no tuviera tema para su tesis, pues de hecho publicó un artículo sobre ello, sino porque el proceso le aburría soberanamente. Aunque no sé qué entiende por diversión exactamente alguien que pasó la niñez entretenido con una enciclopedia.

Tras salir de la universidad, Wales se dedicó a ganar dinero negociando con futuros y opciones, y tuvo cierto éxito. Lo suficiente, según sus palabras, para poder vivir con cierta comodidad, aunque sin dispendios, el resto de su vida. También fundó, en 1996, un sitio web, llamado Bomis, con otros dos socios.

Dado que esta página tiene una gran importancia en el nacimiento de Wikipedia, su naturaleza no ha estado exenta de polémica. Aquellos que lleven un tiempo en la red recordarán los «anillos de páginas web» o webrings. En la segunda mitad de los noventa era normal que páginas con una temática similar se agruparan en anillos, lo que significa que todas tenían un bloque de enlaces al final que permitía ir a la anterior o a la siguiente, visitar una cualquiera de forma aleatoria o ir a la web del anillo para ver todas las que estaban en él. Pues bien, Bomis era un anillo de «páginas orientadas al público adulto», ustedes ya me entienden, y además sólo para hombres. También ofrecía un servicio de pornografía de pago y un blog centrados en noticia sobre modelos, famosas y actrices del ramo.

El caso es que Bomis dio suficiente dinero durante un tiempo como para que Wales empleara parte en otros proyectos más personales, que alojó en los servidores del sitio web pornográfico, lo cual les daba cierto lustre, por así decir. Entre ellos había una página, Freedom’s Nest, que consistía en una base de datos de libros y citas liberales, y We the Living, un foro objetivista.

Y es que Wales es seguidor de Rand y liberal. Él mismo recuerda dónde nació su desconfianza hacia el Gobierno: de las continuas interferencias en la escuela de su madre. A pesar de su éxito en elevar el nivel de sus alumnos, o quizá precisamente por él, «sufrían una interferencia y una burocracia constantes y tenían que aguantar a los inspectores del Estado que les decían esto o aquello, que nuestros libros no eran suficientemente nuevos y cosas así. Y viendo esto a una edad muy temprana pensé que no es tan simple pensar que el Gobierno se hará cargo de algo».

En cualquier caso, también tenía otro proyecto en mente, derivado de sus pasiones de la infancia: una enciclopedia gratuita, que todos pudieran consultar. Así que fundó Nupedia, en marzo de 2000, tras haber contratado unos meses antes al filósofo Larry Sanger para que se hiciera cargo de ella. Sanger elaboró una serie de protocolos para asegurar la calidad de sus contenidos y comenzó a solicitar a expertos de varios campos que colaboraran con artículos gratuitos. No tuvo mucho éxito: cuando finalmente cerró sus puertas, en 2003, tenía 24 artículos publicados y otros 74 en proceso de revisión.

Aquella lentitud resultaba exasperante, de modo que decidieron lanzar un proyecto paralelo cuya intención inicial era proveer de textos a Nupedia. Un viejo amigo de Sanger, Ben Kovitz, le habló del concepto de wiki, inventado en 1995 por el informático Ward Cunnigham: un sitio web en el que todo el mundo pudiera escribir y modificar lo que otros habían hecho previamente. Wales lo aceptó con ciertas reticencias, pero tras poner en marcha Wikipedia el 15 de enero de 2001 vieron que funcionaba, y muy bien. En febrero ya habían sobrepasado los 1000 artículos y en septiembre alcanzaron los 10 000.

Cuando el éxito de Wikipedia ya era evidente, Wales empezó a verlo todo muy claro. Suele ofrecer dos explicaciones de este fenómeno. La corta, en traducción más o menos libre, es esta: «Wikipedia hace que Internet no sea una mierda». La más erudita le lleva a sus lecturas de Hayek y concluir que, como el mercado, la llamada enciclopedia libre es un orden espontáneo que permite agregar información dispersa de una forma precisa.

Los dos creadores de Wikipedia finalmente se separarían. Primero, en buenos términos, cuando en 2002, tras la explosión de la burbuja puntocom, Bomis dejó de dar dinero y Wales tuvo que despedir a Sanger. Más tarde, según el éxito de Wikipedia se hacía mayor, la relación se deterioró. El filósofo empezó a poner a caldo el proyecto y el objetivista comenzó a definirse como el único y auténtico fundador, degradando a Sanger al papel de mero empleado suyo. Cosas de la fama.

Actualmente, Wikipedia es el sexto sitio web más consultado del mundo, según Alexa. Lo superan Google, Facebook, Yahoo, YouTube y Windows Live. Hacen falta 350 servidores, repartidos por tres continentes, para que pueda funcionar como está mandado. Wales, después de alguna mala experiencia al intentar cambiar su biografía, ha optado por no interferir en el trabajo de los enciclopedistas y dedicarse a representar Wikipedia por el mundo y obtener fondos para mantenerla sin tener que recurrir a la publicidad.

La versión en idioma inglés, la más exitosa, ha superado los tres millones de artículos. Curiosamente, el número 2 000 000 fue el dedicado al programa de televisión El hormiguero. En total hay versiones para 260 idiomas, con más de 14 millones de artículos en total. Todas ellas pertenecen a la Fundación Wikimedia, fundada en 2003 para sustituir a aquella página porno, Bomis, como propietario de la enciclopedia libre.

Por cierto, la madre de Wales tiró a la basura aquella vieja enciclopedia con la que aprendió de niño. Una desgracia para el fundador de Wikipedia, que tenía esperanzas de sacarle un dinerito en eBay.

LA RED SOCIAL: FACEBOOK

En mayo de 2008 la palabra más buscada en Google no fue sex sino facebook. Mark Zuckerberg había creado la célebre red social sólo cuatro años antes. En agosto de ese mismo 2008 superaba la barrera de los 100 millones de usuarios; actualmente tiene más de 600.

Zuckerberg era un hacker de familia con ciertos posibles que disfrutaba programando por encima de todas las cosas. En el instituto —uno privado muy bueno, naturalmente— creó con su amigo Adam D’’Angelo una aplicación llamada Synapse que atendía a lo que el usuario escuchaba y le creaba listas de canciones a su medida. En la primera semana de su segundo año en Harvard, nuestro hombre pergeñó Course Match, un servicio que permitía saber quién se había apuntado a qué clases, lo que permitió a cientos de estudiantes sentarse ese semestre junto a la chica o el chico de sus sueños.

Poco después tuvo una cita con una muchacha que le salió mal; despechado y algo achispado, dedicó el resto de la noche a crear Facemash, un sitio web que permitía comparar las fotos de dos estudiantes escogidos al azar y votar quién estaba mejor: era una versión local del entonces famoso sitio web Hot or Not. Para conseguir las fotografías, Zuckerberg se infiltró en los ordenadores de nueve de los doce colegios mayores de Harvard; en concreto, en sus directorios fotográficos, llamados, ¡tachán!, facebooks. Zuckerberg puso a funcionar la cosa en su portátil al día siguiente, y por la noche, antes de que la universidad decidiera cortarle el acceso a Internet, las fotos habían sido votadas 22 000 veces por 450 estudiantes.

Zuckerberg pasó por un tribunal disciplinario, pero no recibió más que una pequeña reprimenda. Durante los siguientes meses, además de atender a otros proyectos menores, colaboraría con otros tres estudiantes en HarvardConnection, una web de citas que incluiría descuentos para ir de fiesta a los locales de moda. Sin embargo, acabó dejándoles tirados porque estaba creando una similar luego de que en un editorial del periódico de la universidad se dijera que Facemash no habría causado tanta controversia si la gente hubiera subido voluntariamente sus fotos. Llamó al servicio TheFacebook y lo lanzó el 4 de febrero de 2004; antes de final de mes tenía 6000 usuarios registrados, unos tres cuartos del alumnado de Harvard.

En esta ocasión, su portátil pudo suspirar de alivio: Zuckerberg subió su nueva creación a un servidor externo, incluso pensó en montar una empresa. Empezó a colaborar con él su compañero de habitación Dustin Moskowitz; otro alumno de Harvard que había conocido a través de una hermandad, Eduardo Saverin, se encargaría de ganar pasta con el invento. La web era sencilla: la gente debía apuntarse con su nombre real y la dirección de su correo oficial de la universidad, subir una foto y varios datos personales y… darle a la tecla e interrelacionarse, que diría un gafotas, con sus amigos. La interacción era más bien limitaíca: sólo se podía «dar un toque» a alguien, acción que no tenían el menor significado oficial, aunque, tratándose de universitarios residentes en colegios mayores, para muchos la cosa sólo podía tener un contenido sexual.

Moskowitz fue el encargado de sumar al cotarro a otras universidades. Cuando llegó el verano tenían ya 200 000 usuarios, y unos cuantos se fueron a California a seguir trabajando en el invento. La idea era volver cuando comenzaran de nuevo las clases. Nunca lo harían. La mayoría de quienes no se mudaron al soleado estado del oeste terminarían fuera del proyecto, empezando por Saverin, lo que llevaría a no pocas lamentaciones y a alguna que otra demanda.

Pero poco de eso preocupaba a Zuckerberg, cuya principal obsesión en aquel momento era Wirehog, una aplicación que usaba la base de datos de TheFacebook para posibilitar al usuario que compartiera ficheros con sus amistades. Logró enrolar a un joven veterano de Internet, Sean Parker, quien había tenido su bautismo de fuego con la fundación, junto a Shawn Fanning, de Napster. Parker dirigiría la empresa durante año y medio. Fue quien le quitó el The al nombre de la empresa, y consiguió convencer a Zuckerberg de que se olvidara del puñetero Wirehog —recordaba demasiado bien las querellas de las discográficas— y se concentrara en convertir Facebook en una red social mejor. Una labor imprescindible, dada la competencia.

Los responsables de HarvardConnection, luego renombrada ConnectU, demandaron a Zuckerberg por robarles la idea. Pero el caso es que no era nueva. La primera red social de Internet fue lanzada en 1997, se llamó SixDegrees.com y llegó a tener un millón de miembros, pero era la época de los módems y las carísimas conexiones a la red, y una web que exigía pasar mucho tiempo online no podía triunfar demasiado. Es más, cuando Facebook fue lanzada ya existían Friendster y MySpace. La primera fue un bombazo, pero se hundió porque daba un servicio pésimo: no funcionaba cada dos por tres. MySpace fue la reina de las redes sociales, pero terminó cayendo por un exceso de publicidad basura y de páginas de usuarios recargadas e incómodas de ver, en el mejor de los casos. Hasta Google había tenido su propia red social, Orkut, que tras ser recibida con cierto interés se convirtió en un feudo particular de los brasileños.

Pero si no era nuevo, ¿por qué Facebook triunfó donde los demás habían fracasado o, al menos, no triunfaron tanto? Según Parker, simplemente porque no la cagó. Siempre ha sido capaz de soportar el tráfico que generaba, y su diseño ha sido sencillo y manejable. Los elementos poco exitosos se abandonan y se añaden mejoras poco a poco. Cada usuario pasó a tener un muro, una suerte de foro particular donde tanto él como sus amigos podían escribir; podían subirse fotos, en las que cabía la posibilidad de etiquetar a los amigos, de modo que también ellos las vieran.

Un año después de su nacimiento, Facebook se abrió para los alumnos de instituto, y en septiembre de 2006 para todo el mundo. Su ritmo de crecimiento dio un salto brutal en la primavera de 2007, cuando se anunció que cualquier desarrollador podría crear aplicaciones para la red social y aprovecharse así del boca a boca virtual de sus miembros.

Fue un movimiento muy pensado. Zuckerberg llegó a pedir consejo a Bill Gates a finales de 2005: consideraba que convertirse en plataforma para desarrolladores era una garantía de éxito. Muchas personas entrarían en Facebook para usar las aplicaciones, y muchas aplicaciones se harían para Facebook para conectar con el público. Como sucede con Windows, vamos. La red social tenía 20 millones de usuarios cuando lanzó su plataforma, y dos años después había multiplicado por diez esa cifra.

Cada vez más internautas pasan cada vez más tiempo en Facebook, y empieza a existir un cierto acuerdo en que hará obsoleta a Google como Google hizo obsoleta a Microsoft, y Microsoft a IBM. Ha cambiado el uso que se da a la red, facilitando tanto el intercambio más personal como el activismo político. Y su éxito ha inspirado una de las mejores películas de 2010. No está mal para un proyecto puesto en marcha por unos coleguis en el dormitorio de un colegio mayor.