Se habla de informática clásica, o la era del mainframe, para referirse a las décadas de los cincuenta, sesenta y primeros setenta del siglo XX. Fue el periodo en que los ordenadores eran máquinas enormes y caras, que sólo las empresas e instituciones más importantes podían adquirir y cuyo acceso debía ser compartido entre numerosos usuarios.
En los primeros años de la informática, el trabajo del programador solía consistir en preparar su programa pacientemente en papel, pasarlo después a tarjetas perforadas y dárselo después al operador, una suerte de sumo sacerdote que era el encargado de la sagrada tarea de poner a funcionar aquella mágica máquina. Cuando terminaba, el cuidador de tan místico aparato daba al programador otro grupo de tarjetas perforadas con los resultados de la computación. Eso si no le daba una parca explicación de que su programa había fallado porque había olvidado poner una coma en el sitio que debía y ahora tendría que esperar a que decenas de usuarios hicieran funcionar sus programas para poder volver a ejecutar el suyo a ver si ahora le daba por funcionar, al maldito.
Para cuando acabó el periodo de informática clásica, lo normal era que cada programador tuviera un terminal al que se llamaba «tonto» porque consistía sólo en un teclado, un monitor y la electrónica imprescindible para comunicarlo con el ordenador. Cada usuario trabajaba con la computadora como si fuera el único que lo estuviera haciendo y el ordenador cambiaba continuamente de tarea para atender a todos aquellos que estuvieran accediendo a ella en un momento dado para que pudieran trabajar sin esperas. Ningún programador podía emplear él solo toda la potencia de la máquina, a no ser que la usara a las cuatro de la mañana, pero al menos ya no había sumo sacerdote y la forma de operar era mucho más rápida.
Entre ambos escenarios sucedieron muchas cosas que permitieron ese progreso: los transistores, la memoria de ferrita, el chip y otras innovaciones. También fue la época en la que se diseñaron los primeros lenguajes de programación y nació la industria del software. Pero eso lo veremos más adelante.
En la noche electoral de 1952, aquel cerebro electrónico llamado Univac ante las cámaras de la CBS y a partir de los primeros datos que llegaron de las urnas, que Eisenhower arrasaría por 438 a 93 votos electorales. Las encuestas de Gallup y Roper que se habían hecho el día anterior auguraban, en cambio, una victoria del republicano mucho más ajustada.
Los técnicos, asustados porque las probabilidades de victoria de Eisenhower que manejaban eran «de 00 a 1» (en realidad, eran de 100 a 1, pero no habían previsto que hicieran falta tres cifras a la hora de imprimir los resultados), decidieron alterar a mano el programa sobre el que trabajaba Univac, para que diera algo mucho más modesto: en concreto, 8 a 7. El caso es que el resultado final fue de 442 a 89. Por supuesto, los directivos y programadores de Remington Rand se dieron de cabezazos contra la pared por no haber confiado en los resultados iniciales, pero difícilmente podrían haber inventado una demostración mejor de las posibilidades de su máquina: tenía razón incluso cuando sus creadores pensaban que se equivocaba.
Univac fue el primer ordenador de propósito general producido en serie —aunque el segundo en ser comercializado, tras el británico Manchester Mark 1—. La primera unidad fue enviada a la Oficina del Censo de Estados Unidos en junio de 1951. Se completaron y vendieron cuarenta y seis unidades, a un millón de dólares de la época cada uno. Univac tuvo el mérito de poner algo nervioso al ya por entonces gigante IBM, que pese a su fama de dinosaurio reaccionó con rapidez y terminó imponiéndose; gracias, sobre todo, a su enorme capacidad de venta, desarrollada a lo largo de las anteriores tres décadas.
Univac fue una creación de John Mauchly y Presper Eckert, que habían sido los responsables del primer ordenador electrónico de propósito general, Eniac, diseñado por y durante la guerra y finalizado en noviembre de 1945, quizá un pelín tarde. En el ínterin, el proyecto llegó a los oídos de Von Neumman. Este matemático húngaro y judío, que se había establecido en Estados Unidos en 1930, era considerado el mayor genio de la Universidad de Princeton en la época en que Albert Einstein trabajaba allí, lo cual nos da una idea de la reputación que tenía. Hizo importantes contribuciones a la teoría de juegos, la física cuántica, la teoría de conjuntos, el análisis numérico y otro montón de disciplinas matemáticas. Incluso pergeñó el concepto de Destrucción Mutua Asegurada, idea en la que se basaría la política exterior americana durante toda la Guerra Fría. En 1944 estaba ya involucrado en el Proyecto Manhattan, y preocupado por los complejos cálculos que conllevaba la construcción de una bomba atómica. Cuando supo del proyecto del Eniac, acudió a conocer a sus inventores.
Al parecer, Mauchly había comentado que se creería que Von Neumann era el genio que todos decían que era si su primera pregunta iba orientada a conocer la arquitectura de la máquina, entonces llamada estructura lógica. Y, naturalmente, eso fue lo primero que preguntó.
La visita terminó con la creación de un grupo de trabajo dedicado al diseño del sucesor de Eniac, proyecto que ya tenían en mente sus creadores. Sería llamado Edvac, y debía solucionar varios de los problemas que tenía la primera máquina, especialmente su poca capacidad de almacenamiento, de sólo veinte números. De resultas de aquellas reuniones se tomaron dos decisiones que desde entonces formarían parte del diseño de todas las computadoras: el empleo del sistema binario (Eniac era decimal), para aprovechar mejor la tecnología de almacenamiento disponible, y el almacenamiento del programa en la memoria.
Tanto en el Eniac como en otros ingenios electrónicos y electromecánicos de la época, programar requería recablear las tripas de las máquinas y colocar un montón de interruptores. Von Neumann pensó en dividir la estructura lógica del ordenador en cinco partes: la memoria, donde se almacenarían los datos y también los programas; la unidad de control, que leería las instrucciones y, por así decir, dirigiría el cotarro; la unidad aritmética, que haría los cálculos; y los «órganos» (según los llamó) de entrada y de salida. Esa estructura es conocida como arquitectura Von Neumann y sigue siendo la empleada hoy en día, uniendo los papeles de las unidades aritmética y de control en el procesador.
La polémica de la paternidad de estos avances sigue sin resolverse. El británico Alan Turing desarrolló teóricamente estos conceptos ya en 1936, y diseñó una máquina basada en ellos diez años después. Por otro lado, parece claro que muchas de las ideas que surgieron de aquel grupo de trabajo pertenecían a Mauchly y, sobre todo, a Eckert. Pero fue Von Neumann quien se ofreció a escribir las conclusiones del grupo de trabajo; el artículo «Primer borrador de un informe sobre el Edvac», terminado en junio de 1945, fue puesto en circulación por Herman Goldstine, otro de los miembros del grupo, con sólo el nombre del húngaro. Esto, y la fama que ya tenía acumulada Von Neumann, hizo que la paternidad de los relativamente desconocidos Eckert y Mauchly quedase completamente oculta.
Cabreados en parte por la falta de reconocimiento y en parte porque la circulación del informe podría impedirles patentar las tecnologías que formaban la base de Edvac, Eckert y Mauchly decidieron abandonar la universidad e intentar ganar dinero con las computadoras. Tras estudiar y rechazar varias ofertas, una de ellas especialmente golosa, de IBM, montaron en 1946 su propia empresa.
En aquel tiempo la cosa de las compañías de capital riesgo no estaba tan bien desarrollada como ahora, así que su forma de financiarse consistió en lograr que les contrataran antes de tener nada construido. Estimaron que construir su ordenador, el Univac, les costaría 400 000 dólares, y se conformaron con un contrato por 300 000 que les ofreció la Oficina del Censo: pensaban que así, aunque perdieran, tendrían un buen escaparate para lograr unas ventas más lucrativas. El plan no era malo del todo. El problema es que fueron increíblemente ingenuos con el coste que supondría construir el primer Univac, que ascendió al millón de dólares. Así que, pese a lograr un contrato para una máquina más sencilla llamada Binac, que además carecía de la principal innovación que estaban desarrollando —el uso de una cinta magnética en lugar de las perforadas para introducir datos y programas en el equipo—, finalmente tuvieron que claudicar y ofrecerse en el mercado. Querían que les comprara IBM, pero les dijeron con total franqueza que si lo hacían los procesarían a todos por crear un monopolio, así que tuvieron que conformarse con Remington Rand, sí, la que vendía máquinas de escribir. Univac fue el nombre que recibió la recién creada división de ordenadores de la compañía.
Remington Rand se hizo cargo de los problemas financieros y de la gestión de esos mundanos asuntos de las ventas y la obtención de beneficios, así que Eckert y Mauchly pudieron dedicarse a lo que sabían hacer, que era fabricar computadoras. A comienzos de 1951 Univac ya era algo que podía llamarse ordenador y estaba listo para comenzar las exigentes pruebas de la Oficina del Censo, que superó en marzo: funcionó diecisiete horas seguidas sin un solo fallo. Pesaba siete toneladas, estaba compuesto de más de 5000 válvulas, tenía memorias de mercurio y ocupaba 35 metros cuadrados de superficie, más que los minipisos de Trujillo. Para cuando la CBS montó el espectáculo de la predicción del resultado de las elecciones de 1952, Remington Rand había construido y vendido otras dos unidades y tenía pedidos para tres más.
Tras aquella memorable noche electoral, y el acierto del programa de predicción que había programado Mauchly —quien, dicho sea de paso, fue el primero en usar la palabra «programar» en este contexto—, el nombre de Univac se convirtió en sinónimo de ordenador en la mente de los estadounidenses, tal y como décadas más tarde Google sería sinónimo de búsqueda en Internet. Por ejemplo, Asimov dedicó unos relatos a un ordenador complejísimo, de varios kilómetros de extensión, al que llamó Multivac, en clara alusión a nuestra criatura. Y un servidor de ustedes lleva unos diecisiete años usando el apodo de Multivac en foros y blogs de Internet, algo que quizá no sea un detalle de la misma importancia.
Sin embargo, su reinado fue muy corto. En 1955 ya se vendieron más ordenadores de IBM que de Univac. Remington Rand fue incapaz de colocar computadoras con la misma eficacia con que vendía el equipamiento de oficina que tenía en su catálogo tradicional, y pasó a convertirse en el más alto de los siete enanitos con que compitió IBM hasta comienzos de los años ochenta, con apenas un 12 por ciento del mercado. Tras diversas fusiones, ahora se llama Unisys.
Eckert trabajó como directivo en la empresa el resto de su vida, mientras que Mauchly se dedicó a la consultoría. Y pese a que la arquitectura Von Neumann seguramente debió llamarse arquitectura Eckert, lo cierto es que ambos reciben el crédito de haber creado el primer cerebro electrónico. Que no es poca cosa.
En 1956, tres científicos compartieron el Premio Nobel de Física por haber creado el transistor. Para entonces, John Bardeen y Walter Brattain habían sido apartados de ese campo de investigación por William Shockley, su antiguo jefe, y la relación entre este y aquellos no era, por decirlo suavemente, demasiado buena. Sea como fuere, entre los tres habían inventado un componente electrónico que revolucionaría la informática.
Cuando comenzó la Segunda Guerra Mundial, Shockley había terminado hacía poco su doctorado. Durante la contienda trabajó para su país —Estados Unidos— diseñando tácticas de lucha submarina y organizando un programa de entrenamiento para pilotos de bombardero. En julio de 1945, el Departamento de Guerra le pidió un informe que evaluara el número de bajas que podría suponer una invasión de Japón. Shockley calculó que Estados Unidos tendría que matar entre 5 y 10 millones de japoneses y perder entre 400 000 y 800 000 hombres. No obstante, se ignora si su opinión fue una de las que llevaron al lanzamiento de las bombas de Hiroshima y Nagasaki; al parecer, tuvo más peso en el ánimo de Truman un cálculo similar del general Marshall.
Terminada la guerra, Shockley se puso al frente del equipo de investigación en semiconductores de Bell Labs, de la compañía telefónica entonces monopólica AT&T: de ahí saldrían muchos avances relacionados con las tecnologías de la información. Se le pidió dar con un sustituto de las válvulas que se estaban empleando como base para todo tipo de equipos electrónicos, incluyendo los primeros ordenadores, pues tenían numerosos defectos: malgastaban mucha electricidad, ocupaban mucho espacio, generaban mucho calor y fallaban (mucho) más que una escopeta de feria. Como se utilizaban muchísimo, especialmente en receptores de radio, cualquier posible alternativa podía deparar fácilmente jugosos beneficios.
Los materiales semiconductores funcionan como aislantes o como conductores en función de la temperatura o de la energía que se les aplique. Shockley estaba convencido de que se les podía cambiar de estado (de conductor a aislante o viceversa) aplicándoles una corriente eléctrica, pero tenía que demostrarlo. Una teoría de Bardeen parecía probar por qué la cosa no funcionaba. A finales de 1947, este y Brattain lograron fabricar el primer transistor, en unos experimentos en los que no participó su jefe, o sea Shockley.
El transistor es un componente electrónico que permite hacer pasar electrones desde un punto de conexión llamado emisor a otro que se denomina colector, siempre y cuando llegue corriente a un tercer punto, llamado base, que funciona como si fuera un interruptor. Cumplía con la misma función que la válvula en el diseño de un ordenador, pues permitía crear los circuitos lógicos que había ideado Claude Shannon, y que son los ladrillos con que se construyen las computadoras. Hay que recordar que el primer ordenador electrónico, Eniac, tenía 18 000 válvulas, lo que provocaba un consumo de 174 kw, es decir, lo que 2900 bombillas de 60 vatios puestas en fila. Los transistores, además de ser más fiables y pequeños, prometían hacer la misma labor con un consumo infinitamente menor.
También permitió sustituir a las válvulas en los receptores de radio. Después de varios prototipos, el primero que sólo empleaba transistores comenzó a comercializarse en 1954. Este cambio tecnológico permitió que los receptores de marras fueran más pequeños y funcionaran a pilas. Su éxito fue enorme; tanto, que para mucha gente «transistor» es sinónimo de radio portátil. Aunque no todo fue bueno: la manía de llevarlo encendido hasta en los lugares menos apropiados llevó a decir a la gente en los sesenta: «No hay mocita sin amor ni hortera sin transistor». Los transistores pasaron de moda, pero los horteras sobrevivieron: se pasaron primero al radiocasete —o loro— y luego al móvil.
El invento de Bardeen y Brattain presentaba, de todos modos, algunos problemas. Había que crear cada unidad a mano, en un proceso que parecía difícil de automatizar; y además eran muy frágiles: con cualquier golpecito podían dejar de funcionar. Para Shockley tenía un fallo aún más gordo: que no lo había inventado él, aunque la teoría en que descansaba fuera suya, y la patente que había presentado Bell Labs no tenía su nombre. Así las cosas, hizo saber a sus dos subordinados que intentaría hacer desaparecer sus nombres de la petición de patente, mientras en secreto trabajaba en un transistor que solucionara los problemas que presentaba el diseño original. Lo logró al año siguiente.
Su creación se llama oficialmente transistor de unión bipolar, pero él lo llamo sandwich porque constaba de varias capas superpuestas de material semiconductor. El sandwich sentó las bases de la electrónica moderna, y, aunque a un tamaño microscópico, podemos encontrarlo en microprocesadores, memorias y demás chips que se ocultan en los aparatos que empleamos todos los días.
Como es de imaginar, el ambiente en el laboratorio se había convertido en un infierno. Bardeen recordaría años después que todo había ido como la seda hasta ese fatídico 23 de diciembre de 1947 en que vio la luz el primer transistor. Shockley, que al fin y al cabo era su jefe, se dedicó a impedir que su amigo Brattain y él mismo trabajaran en proyectos que pudieran interesarles, lo que les llevó a salir de la empresa. No sería esta la última vez que la personalidad de Shockley llevara a gente de su alrededor a huir de él lo más lejos posible.
Nuestros tres hombres volvieron a encontrarse en la gala de los Nobel. Durante una noche compartieron mesa y recordaron los buenos viejos tiempos en que eran amigos y formaban un grupo de investigación de primera línea.
En cuanto a Bardeen, no le fue mal. Empezó a investigar los materiales superconductores, y sus hallazgos le valieron otro Nobel de Física más, en 1972, lo que le convirtió en el único en conseguirlo en dos ocasiones en dicha categoría.
Shockley decidió marcharse de Bell Labs en 1953, al ver que le negaban el acceso a puestos de más responsabilidad; decisión que sin duda tomaron los barandas al ver cómo había gestionado su equipo de investigación. Regresó al lugar donde había crecido, en Palo Alto, California, cerca de la Universidad de Stanford, y unos años después fundó una división de semiconductores —a su nombre— con el capital de la empresa de un amigo suyo, Beckman Instruments.
No es que le fuera muy bien. Su prestigio y la cercanía de Stanford le habían permitido reclutar un buen número de jóvenes talentos, pero a pesar de que el laboratorio tenía como primera misión desarrollar transistores de silicio en un momento en que se hacían de germanio, pronto se empeñó en investigar un nuevo tipo de componente electrónico, el tiristor. De modo que dividió a sus empleados: la mitad trabajaría en su proyecto, y no podría decir nada a la otra mitad.
En ese ambiente de secretismo, Shockley se volvió un poco paranoico. Una vez que una secretaria se hizo daño en una mano con un objeto punzante que alguien dejó por accidente en una puerta, quiso hacer pasar a toda la plantilla por un detector de mentiras, pues estaba convencido de que detrás del incidente había un propósito oculto.
Finalmente, en 1957, y después de intentar sin éxito que Beckman pusiera orden, los que acabaron siendo conocidos como «Los Ocho Traidores» decidieron dejar la empresa y fundar otra similar, Fairchild Semiconductor. Entre ellos se contaban Robert Noyce, uno de los dos inventores del chip, y Gordon Moore, que acuñaría la ley que lleva su apellido, en la que predijo que el número de transistores que se pueden meter en un circuito integrado se duplica cada dieciocho meses. En 1968, Noyce y Moore fundarán Intel.
Fairchild triunfó donde no lo hizo Shockley, y sería la primera de un buen número de empresas de semiconductores que se establecerían en lo que acabó conociéndose como Silicon Valley, el Valle del Silicio, y no de la silicona, como algunas veces se traduce espantosamente mal.
Shockley volvió como profesor a Stanford, y desde entonces dedicó la mayor parte de sus esfuerzos a unas polémicas teorías sobre genética. Sostenía que los padres sin cualificación profesional tenían muchos más hijos que los que tenían algún tipo de educación, y que, como la inteligencia sería hereditaria, la abundancia de los primeros provocaría a largo plazo el colapso de la civilización. Le preocupó especialmente el caso de la raza negra, donde la diferencia en los niveles de procreación era mucho mayor, y predijo que este estado de cosas impediría a los negros salir del hoyo, pese a los logros registrados en materia de derechos civiles. Como solución, llegó a proponer que se incentivara la esterilización voluntaria de las personas con un coeficiente inferior a 100. No se hizo muy popular con esas ideas, claro, y lo llamaron de todo menos bonito.
Entre su carácter imposible y unas ideas tan políticamente incorrectas, su papel en la invención del transistor fue dejándose de lado. Cuando murió, en 1989, lo hizo acompañado sólo de su segunda mujer; incluso los hijos de su primer matrimonio se enteraron de su fallecimiento por la prensa. Jacques Beaudouin, un ingeniero que trabajó con él en Stanford, necesitó once años para conseguir que el Ayuntamiento de Mountain View pusiera una placa en el lugar donde estuvo el Shockley Semiconductor Laboratory. Y eso que Shockley fue el hombre que llevó el silicio a Silicon Valley…
IBM había perdido la iniciativa en el mercado de los ordenadores electrónicos y en Univac se las prometían muy felices. Pero entonces el Gobierno de Estados Unidos concedió a la primera el contrato para construir las máquinas que conformarían su sistema de defensa antiaérea SAGE, lo que le permitió adquirir la experiencia y saber hacer de sus rivales; experiencia y saber hacer que no tardaría en trasladar al ámbito civil. Años más tarde, ese mismo Gobierno la demandaría por abuso de monopolio.
El fabuloso contrato para fabricar las 52 enormes computadoras AN/FSQ-7, las más grandes jamás construidas, permitió al gigante azul colocarse como número uno del sector, relegando a Univac y compañía al papel de segundonas. Su mejor máquina, la 1401, superó a sus rivales gracias a que los gestores de la casa entendieron que no había que poner tanto énfasis en el ordenador en sí como en el sistema, que comprendía lectores de impresoras, teletipos y el software necesario para hacerlo funcionar.
A comienzos de los sesenta el mercado estaba dominado en cosa de un 70 por ciento por IBM. Muy de lejos, con alrededor del 10 por ciento, le seguían Univac y Control Data, empresa especializada en supercomputadoras. Burroughs y NCR, antigua competencia de IBM, se aseguraron una cuota de alrededor del 3 por ciento gracias a los clientes que compraban sus equipos mecánicos de oficina antes del advenimiento del ordenador. Los grandes del equipamiento eléctrico: RCA, Honeywell y General Electric, decidieron invertir en el negocio para quitarle parte del pastel al gigante azul. Durante aquellos años, la industria de la informática era conocida como «Blancanieves y los siete enanitos», con IBM en el papel de la hermosa jovenzuela.
Pese a todo, en IBM no acababan de ver las cosas claras. Tenían en total siete líneas de ordenadores distintas e incompatibles entre sí, de modo que se veían obligados a diseñar y fabricar las partes por separado —desaprovechando así las economías de escala— y, sobre todo, a programar el software de cada una. En cuanto sacaran más computadoras, el caos crecería sin remedio. De modo que pusieron una comisión a trabajar sobre el tema, y a finales de 1961 esta dio su dictamen: había que crear una nueva gama de computadoras, compatibles entre ellas, que difirieran en cuanto a potencia, de modo que las mejores, y más caras, llegaran a ser 25 veces más capaces que el modelo más básico. De este modo, como IBM no vendía máquinas, sino que las alquilaba, un cliente podía pedir un modelo más barato y, si sus necesidades crecían, cambiar a otro más potente sin necesidad de volver a programar todo su software.
En retrospectiva, puede parecer obvio. Al fin y al cabo, si comparamos los primeros PC de los ochenta con cualquiera que podamos encontrar hoy en un supermercado, la diferencia superará con mucho esa cifra; pues bien, ambos ordenadores tienen una arquitectura común. Pero entonces parecía una locura, y algunos de los ingenieros que liderarían su desarrollo estaban en contra. No veían de qué manera los distintos modelos de esta nueva gama podrían estar a la altura de las computadoras de la competencia siendo compatibles entre sí.
La solución consistió en añadir una capa más en el diseño. Normalmente, los programas se escriben en un lenguaje de alto nivel (como Fortran o C) y un compilador se encarga de traducirlos a código máquina, que es el que entiende el ordenador y el que realmente se ejecuta en el procesador. La técnica de microprogramación consiste en que el mismo procesador traduce en tiempo real ese código máquina a un microcódigo propio, que es el que realmente se ejecuta.
Ese nivel extra reduce las prestaciones, y por eso no se emplea en los actuales microprocesadores. Pero en aquel entonces permitía simplificar mucho la tarea de los ingenieros responsables de lo que se terminaría llamando System/360. El código máquina sería igual en todas las computadoras, con lo que quedaría asegurada la compatibilidad, pero el procesador de cada una tendría un microcódigo distinto, adaptado al diseño y prestaciones de cada modelo. Además, tenía una ventaja adicional: se podía trastear el procesador y microprogramarlo de modo que aceptara un código máquina distinto, como, por ejemplo, el del IBM 1401, que tanta aceptación tenía. De este modo, el gigante azul se garantizaba retener a sus antiguos clientes mientras adoptaba otros nuevos.
El esfuerzo de poner en marcha el System/360 fue comparado con el Proyecto Manhattan por su complejidad y por la cantidad de pasta que se invirtió: unos 500 millones de dólares de comienzos de los años sesenta sólo en investigación, y se calcula que unas diez veces más para acondicionar las fábricas, reeducar a los vendedores y demás. Como dijo un ingeniero, básicamente consistía en «apostarse la compañía» a que tuviera éxito. A finales de 1963 IBM recibió un duro golpe cuando Honeywell lanzó su modelo 200, compatible con el 1401 pero más barato y rápido. En pocas semanas recibió cuatrocientos pedidos, más que en sus anteriores ocho años en el negocio juntos, y muchos clientes de IBM empezaron a devolver sus ordenadores alquilados a la compañía para comprar a su competidor.
IBM decidió contraatacar adelantando el lanzamiento del System/360. Así, Thomas Watson Jr. tomó las riendas para hacer «el anuncio más importante de la historia de la compañía» en Nueva York, mientras sus empleados daban ruedas de prensa ese mismo día en otras sesenta y dos ciudades norteamericanas y catorce extranjeras. Fue un éxito arrollador, tanto que durante los dos años siguientes IBM sólo fue capaz de atender la mitad de los 9000 pedidos que recibió.
Este puñetazo encima de la mesa dejó a los siete enanitos temblando. Cada uno respondió a su manera. RCA decidió lanzar una gama de ordenadores, llamada Spectra 70, compatibles con los System/360. Honeywell se quedó con el nicho de clientes que había logrado con su modelo 200. Control Data optó por seguir ofreciendo superordenadores, un sector al que no llegaban los modelos más potentes de IBM. Univac, Burroughs y NCR lograron mantener su negocio aprovechándose de su relación con sus clientes antiguos. Y General Electric se hizo con un sector que IBM había descuidado: el de los sistemas de tiempo compartido, en los que varios usuarios tienen acceso simultáneo a la máquina, que en realidad lo que hace es dedicar una parte de sus recursos a cada uno, dándoles la sensación de que todo el ordenador es para ellos.
No todos sobrevivieron. La recesión de inicios de los setenta hizo abandonar a RCA y General Electric, con lo que los siete enanitos se convirtieron en «la pandilla» (por el acrónimo Bunch, formado por la letra inicial del nombre de cada uno de los supervivientes). IBM acentuó su dominio con el System/370, compatible con el anterior y que facilitaba el uso de sistemas de tiempo compartido; tan exitosa fue esta arquitectura, que se siguieron vendiendo modelos hasta los años noventa. De modo que desde mediados de los años cincuenta hasta entrados los ochenta, y a pesar de los esfuerzos de las autoridades antimonopolio, IBM dominó por completo el panorama informático, un logro que ni siquiera Microsoft parece capaz de igualar.
Sólo cuando aparecieron los ordenadores personales, que hicieron cambiar el modo de diseñar, fabricar, vender y consumir la informática, el gigante azul hincó la rodilla. Como terminan haciendo todas las empresas, por otra parte.
Mientras Estados Unidos lideraba el mercado de aquellos peazo ordenadores que ocupaban una habitación ellos solos, y países como Reino Unido o Francia intentaban estar a la altura, en España las cosas eran bien distintas: llegamos tarde, y cuando lo hicimos no fue para competir, sino simplemente para ser clientes de IBM o Univac.
No obstante, también hay que pensar que, en los tiempos de la informática clásica, para comprar y emplear un ordenador ya había que saber bastante del asunto. No es como ahora, que tenemos un teclado y una pantalla y un buen montón de hermosos iconos y programas que intentan facilitarnos la vida. Entonces había que saber, y en España no sabía ni el tato. Así que los encargados de poner en marcha esos cacharros tenían que irse al extranjero para aprender el oficio.
Los primeros ordenadores que llegaron a España fueron un IBM 650, alquilado por Renfe en 1957, y un Univac UCT, uno de los primeros parcialmente transistorizados en la Junta de Energía Nuclear, organismo ahora conocido como Ciemat. Este último se compró para que lo emplearan los investigadores del centro, pero un voluntarioso profesor mercantil, Anselmo Rodríguez, pensó que podía servir para funciones administrativas, y a base de meterle tarjetas perforadas en horario poco habitual fue reescribiendo parte del sistema operativo y programando aplicaciones de nómina y gestión de almacenes.
Primero aprendió a lo bruto, para más tarde viajar a Milán, Lausana o Hamburgo a ampliar conocimientos, que luego brindaría en cursos realizados en España a través de la empresa Rudi Meyer, en aquellos tiempos representante exclusivo en nuestro país de Remington Rand, casa madre de Univac.
A todo esto: don Anselmo Rodríguez Máyquez es mi padre.
Aquella forma de introducción a la informática fue la habitual en los años sesenta. Por ejemplo, la empresa textil La Seda de Barcelona decidió comprar un IBM System 360/20 en 1964, pero no llegó a instalarse hasta 1967, para lo cual hubo que derribar una pared, porque si no el trasto no entraba en el centro de cálculo de la compañía. Para entonces ya había estudiado cómo hacerlo funcionar el ingeniero industrial y economista Manuel Costa, que aprendió lo suyo en Holanda, donde se encontraba la sede central de la multinacional propietaria de La Seda, y gracias a unos cursos impartidos por IBM en Barcelona. Ahora bien, al igual que mi padre, en buena medida tanto Costa como sus subordinados tuvieron que inventar todo desde cero, ante la falta de información útil incluso en la propia IBM.
Y así, a trancas y barrancas, con un cuasi monopolio de IBM más unas migajas que se repartían Univac y la francesa Bull, llegó el año 1969: fue entonces cuando por fin se empezaron a impartir enseñanzas regladas en el Instituto de Informática de Madrid, germen de la futura facultad que encontraría acomodo en la Universidad Politécnica en 1976. Barcelona y Bilbao contaron también con sendas facultades de la cosa.
La única excepción a este panorama fue la empresa Telesincro, fundada en 1963 por Joan Majó. En principio se dedicó a otras cosas, pero en 1966 se puso a diseñar ordenadores. Al año siguiente presentó el Factor-P, el primer ordenador creado en España con software y tecnología propios. Durante los siguientes años presentó nuevos Factores: el Q, el R y el S. Eran ordenadores especializados en facturación que incluso incorporaron una versión castiza del lenguaje Cobol, en el que las instrucciones no eran del tipo «Move A to B» sino de las de «Mover A hacia B».
Pese a competir con cierto éxito durante unos pocos años en el mercado de ordenadores pequeñajos con fabricantes extranjeros como Phillips o NCR, en 1975 Telesincro se vio con el agua al cuello… y fue rescatada al estilo del capitalismo de aquel entonces: se creó una empresa con capital del Estado, varios bancos, Telefónica y la japonesa Fujitsu. Al final, la compañía Secoinsa sirvió principalmente como vía de entrada de Fujitsu en España y terminó convirtiéndose en su filial, mientras que Telesincro acabó en manos de Bull. Ahora se dedica a fabricar terminales de punto de venta (TPV).
Durante aquellos primeros años, los compatriotas de Torres Quevedo seguimos en líneas generales aquello tan nuestro del «que inventen ellos». Tampoco es que después nos hayamos convertido en líderes mundiales de casi nada, la verdad, pero algo hemos avanzado, especialmente a partir la explosión de la informática personal, en los ochenta. A veces incluso Google o Microsoft compran una empresa española. De verdad de la buena.
Uno ganó el Premio Nobel, el otro se hizo multimillonario. Sus empresas lucharon en los tribunales para dirimir quién había sido el responsable de uno de los inventos que más han cambiado nuestras vidas en los siglos XX y XXI: el circuito integrado, más conocido como chip. Pero ellos siempre reconocieron el mérito del otro. Se llamaban Jack Kilby y Robert Noyce.
El invento del transistor había permitido jubilar los viejos tubos de vacío como amplificadores y ladrillos con que construir los circuitos lógicos que alimentaban los ordenadores y demás artefactos electrónicos. Sin embargo, ya a mediados de los años cincuenta se había empezado a vislumbrar un grave problema. Mientras los ingenieros pergeñaban circuitos cada vez más complejos y útiles, las fábricas les contestaban que aquello no se podía construir de ninguna de las maneras. Lo bautizaron como «la tiranía de los números».
Hay que pensar que cada transistor (y cada resistencia, cada diodo y cada condensador, que eran los otros tres elementos de todo circuito electrónico) era un objeto en sí mismo, que debía conectarse con los demás por medio de cables soldados a las patas del componente. En cuanto el circuito empezaba a crecer, también lo hacía el número de cables y soldaduras, de modo que un circuito con 100 000 elementos podía requerir un millón de conexiones, la mayor parte de las cuales debían hacerse a mano. Esto no sólo desorbitaba el coste, sino que hacía casi inevitable la aparición de errores. Además, impedía reducir el tamaño de los componentes, porque el que fueran más pequeños sólo servía para hacer más difícil la labor de conectarlos.
A finales de los años cincuenta, al optimismo que había dado brío a la industria tras la aparición del transistor le había sucedido un fuerte pesimismo, ante los límites prácticos que imponía la tiranía de los números. Naturalmente, eso no implicaba que no hubiera gente buscando una solución al problema. Lo hacían todos. Pero no se encontraba la vía hasta que Kilby y Noyce tuvieron la misma idea, independientemente, con sólo unos meses de distancia: la «idea monolítica».
Kilby era ingeniero; o, como diría él, era un tipo al que le gustaba encontrar soluciones a los problemas, no explicar cómo funciona el mundo. Trabajaba para una pequeña empresa de electrónica donde supo de primera mano el grave problema al que se enfrentaba la industria, y pensó que la compañía que lo solucionara tendría que invertir muchos recursos en ello, algo fuera del alcance de Centralab, que era donde curraba. Así que emigró a Dallas y en 1958 comenzó a trabajar para Texas Instruments, la empresa que había popularizado el transistor gracias a la idea de su presidente, Patrick Haggerty, de colocarlo en las radios portátiles.
TI estaba trabajando en algo que gustaba mucho al Ejército: los micromódulos. La idea era construir todos los componentes del mismo tamaño y forma, con las conexiones ya hechas. Luego bastaría ensamblarlos como si fueran piezas de Lego para formar un circuito. Kilby odiaba la dichosa idea, pues pensaba que era una solución equivocada para el problema, así que aprovechó la llegada del verano y que todo el mundo se había ido de vacaciones menos él, que era el nuevo y no tenía ese derecho, para pensar, lo más rápido que pudiera, en una solución alternativa que acabara con la tiranía de los números de una vez por todas. Y se le ocurrió que aunque los semiconductores se utilizaran sólo para construir transistores y diodos, también podían funcionar como resistencias y condensadores. No tan bien como los materiales que se empleaban específicamente para ello, pero sí lo suficiente como para hacer su función. De modo que podría emplearse una pieza de silicio o germanio para construir en ella todos los componentes necesarios para que funcionara un circuito electrónico.
Cuando los demás regresaron de sus vacaciones, Kilby enseñó su idea al jefe, el cual… pues tampoco es que se mostrara demasiado entusiasmado. Sin embargo, le propuso un trato: si lograba construir con semiconductores una resistencia y un condensador, le permitiría usar los recursos necesarios para hacer un circuito integrado. Kilby, por supuesto, cumplió con su parte, y el 12 de septiembre de 1958 probaron el primer circuito completamente construido con una sola pieza (chip) de germanio. Y funcionó perfectamente. Pero no lo patentaron porque seguía teniendo un problema: aunque los componentes estuvieran juntos, no había forma de conectarlos entre sí que no fuera con cables soldados a lo bruto. Así que Kilby se puso manos a la obra.
Robert Noyce era un líder nato a quien con el tiempo llamarían el «alcalde de Silicon Valley». Esa habilidad lo acompañaría en todo lo que hiciera, fuera profesional o no: en los años ochenta, por ejemplo, ingresó en un coro para cantar madrigales y a las pocas semanas ya lo estaba dirigiendo. Así, no fue raro que cuando ocho ingenieros —los «Ocho Traidores»— que trabajaban para el inventor del transistor y Premio Nobel, William Shockley, decidieron dejar la empresa, se convirtiera en el director de la filial de semiconductores de Fairchild, que fue donde terminaron todos dando el callo.
El éxodo tuvo lugar en 1957, y al año siguiente ya habían encontrado su primera gran y patentable idea: uno de los ocho, el físico suizo Jean Hoerni, había encontrado una vía para evitar los problemas que daba la contaminación del silicio cuando se fabricaban los transistores: colocar encima de las placas donde se «imprimían» estos una capa de óxido de silicio que los aislaba del exterior y sus impurezas. El abogado de la compañía quería que la patente fuera lo más amplia posible, de modo que le preguntó a Noyce qué más se podía hacer con esa idea. Y Noyce pensó que se podría aprovechar la capa de óxido para hacer las conexiones de los transistores, «pinchando» el cable en el óxido como si fuera una vela en una tarta de cumpleaños. Era el mes de enero de 1959.
Dándole aún más vueltas, se le ocurrió que ya teniendo el transistor y sus conexiones hechas, no sería difícil enlazar entre sí dos transistores de una misma capa de silicio poniendo una línea de metal entre esas conexiones hechas a través del óxido. Es más, se podrían imprimir por medio de máquinas, solucionando el problema que suponía hacerlo a mano. Y una vez ahí, no tardó mucho en darse cuenta de que el resto de componentes también podían hacerse en el silicio, lo cual implicaría un circuito electrónico completo en un solo fragmento de material. Había llegado, por una vía completamente distinta, a la misma «idea monolítica» que Kilby.
Cinco días después de que Noyce tuviera su idea y se la contara a su colega Gordon Moore, llegaron a TI rumores de que alguien más había llegado a la solución de Kilby. Pero no es que Moore se hubiera ido de la lengua; el rumor era completamente falso, pues decía que era RCA quien había tenido la idea. Pero aunque no fuera verdad, tuvo la virtud de espolear tanto a ingenieros como a los abogados de TI para poder enviar una solicitud de patente lo antes posible.
Las patentes son de dos tipos. Las ofensivas suelen proteger ideas verdaderamente revolucionarias y están expresadas en términos amplios y generales para atacar a cualquiera que tenga una innovación parecida o derivada; el mejor ejemplo es la del teléfono. Por el contrario, las defensivas protegen una idea que, aunque importante, no supone un cambio tan notable sobre lo que ya hay, y suelen redactarse con mucha precisión para protegerse de las ofensivas. Algunas de ellas son muy famosas, como la radio de Marconi, el avión de los hermanos Wright o el dirigible de Zeppelin.
Texas Instruments registró una solicitud de patente ofensiva. Sin embargo, con las prisas, tuvo que incluir el diseño original de Kilby, en el que aún se usaban conexiones hechas a mano sobre el germanio. No obstante, se incluyó un texto en el que se indicaba que estas podían realizarse con otras técnicas, incluyendo la posibilidad de pincharlas sobre una capa de óxido de silicio, la técnica de Fairchild, que en TI aún no habían logrado hacer funcionar.
Unos meses después llegó a Silicon Valley el rumor de que TI había logrado un gran avance, y en Fairchild se temieron lo peor. Como empresa joven y preocupada por su supervivencia, no habían avanzado en la idea de Noyce, que tardaría todavía un tiempo en dar sus frutos, pero de todos modos solicitaron una patente, en este caso defensiva, en la que se detallaba con todo lujo de detalles el diseño del chip, con su capa de óxido de silicio, sus velas de cumpleaños y sus líneas de metal impresas por encima.
A comienzos de los años sesenta los abogados de una y otra compañía ya estaban peleándose para ver quién era el beneficiado de la invención, con documentos enviados a la junta que tomaba esas decisiones dentro de la Oficina de Patentes con títulos como «Respuesta a la Petición para la Suspensión de la Acción contra la Petición de Aceptar o Rechazar el Testimonio de la Contrarrefutación y para la Moción Condicional de Aceptar el Testimonio de ContraContrarrefutación». Sí, en serio. Finalmente, en 1967 decidieron otorgar la patente a Kilby. Pero Fairchild reclamó a los tribunales y, por fin, en 1970, el Supremo decidió a favor de Noyce.
Tampoco tuvo mayor importancia. Evidentemente, ninguna empresa podía esperar tanto, así que TI y Fairchild acordaron regalarse cada uno la licencia del otro y obligar a las demás empresas que quisieran entrar en el mercado a comprar las dos. Y así, pese a que al principio los chips no fueran una gran sensación, la decisión del jefazo de TI, Haggerty, de construir calculadoras de bolsillo —cuya invención y patente, de nuevo, correspondió a Kilby— llevó los circuitos integrados a comienzos de los setenta a los hogares de todos los norteamericanos, y enseguida del resto del mundo desarrollado. Lo mismo que hizo con los transistores, vamos.
Kilby recibió el Nobel de Física en el año 2000, y en su discurso afirmó que, de estar vivo Noyce, lo habría compartido con él, del mismo modo que ambos habían aceptado siempre el título de coinventores del circuito integrado. Gordon Moore, que había acudido a Estocolmo, estaba de acuerdo. En 1968 se había marchado de Fairchild con Noyce para fundar con él Intel. Se hicieron multimillonarios. Pero el segundo inventor del chip había muerto diez años antes de un ataque al corazón, mientras se daba un chapuzón matutino en su piscina, y no pudo recibir ese honor. Para que luego digan que el deporte es bueno.
Cuando visité el centro de cálculo del Ciemat, donde trabajó mi padre hasta su jubilación, me enseñaron las distintas máquinas que albergaba. Una de ellas despertó mi atención. «Es un Cray», me dijeron con indisimulado orgullo. Fue como si me hubieran dicho que en la estantería de al lado guardaban el Santo Grial.
Durante años, las Cray fueron las computadoras más rápidas del mercado, los mejores superordenadores, que fue como las bautizaron. El respeto que se tenía en el gremio a su creador, Seymour Cray, era casi infinito. En 1976 dio —cosa rara entre las raras— una conferencia en Colorado; acudieron ingenieros de todas partes de Estados Unidos para escucharle… pero nadie se atrevió a hacerle preguntas en el turno de ídem. Después de marcharse, el organizador de la conferencia preguntó enfadado a los asistentes por qué habían perdido esa oportunidad. «¿Cómo se habla con Dios?», le contestó uno de ellos.
Todo empezó al finalizar la guerra. Pese a que los principales responsables de descifrar los códigos alemanes fueron los británicos, en Estados Unidos tenían un equipo dedicado en pleno al asunto; un equipo cuyos integrantes se preguntaron a qué se iban a dedicar cuando ganaran. El teniente William C. Norris pensaba que las máquinas que empleaban en su tarea podrían utilizarse también en la empresa privada, y convenció al resto de los descifradores para fundar una empresa que tuviera a la Marina como principal pero no único cliente.
La compañía que fundaron, Engineering Research Associates (ERA), resultó ser el paraíso de los ingenieros. Ubicada en una antigua fábrica de planeadores, sus empleados vestían de manera informal y no tenían clientes que les obligaran a ajustar sus diseños; vendían al Gobierno, que les garantizaba sus ingresos, y le vendían lo mejor, sin atender a los costes. Pero en el 51, cuando Norris pensó que estaban listos para competir con los grandes en el diseño de ordenadores, el socio capitalista vendió la empresa a Remington Rand. Se convirtieron, así, en los hermanos pobres del departamento que construía los Univac. Los relegaron a ser la división científica de la empresa, pero con cada vez menos capacidad de decisión. Así que en 1957, pelín hartos, se lanzaron a la piscina y dimitieron en masa para fundar Control Data Corporation (CDC).
Con ellos se fue un gachó al que habían contratado en 1951 y que había resultado ser un auténtico genio en el diseño y construcción de ordenadores. Seymour Cray entró con veinticinco años, y a las dos semanas ya estaba rehaciendo los ordenadores de la compañía. Fue quien tomó la decisión de que debían usarse transistores, entonces una tecnología tremendamente novedosa, para fabricar computadoras más rápidas. Y eso hizo cuando se marchó al muy lujoso almacén que servía de sede a CDC, local que también empleaba el Minneapolis Star para guardar sus bobinas de papel.
Pero la empresa se había formado a base de vender acciones en pequeñas reuniones de una docena de personas en casas particulares, al estilo de las fiestas Tupperware, de modo que no tenía un duro. Así que Cray compró los transistores más baratos, que eran los que no habían pasado las pruebas de calidad. Agotó todos los que tenían los fabricantes. Entonces, sus subordinados emplearon las muestras gratuitas que les ofrecían los vendedores, con quienes quedaban a la hora de comer para disfrutar de un almuerzo por la cara. Cray diseñó el ordenador de tal manera que unos transistores compensaran los posibles fallos de otros. El resultado fue el CDC 1604, el más rápido del mundo hasta ese momento.
Empezó a venderse como rosquillas, gracias especialmente al interés que pusieron los laboratorios que tenían que sustituir por simulaciones los experimentos con armamento nuclear. Una de las máquinas fue comprada por el Gobierno de Israel, con el supuesto objetivo de hacerse con la bomba atómica, que todos sabemos posee, aunque no haya confirmación oficial. CDC creció y se puso como objetivo entrar en el mercado corporativo con una máquina… con la que Cray se negó a trabajar, pues obligaba a comprometer la velocidad de cálculo para hacerla más versátil. Así que, en 1960, se marchó con un grupo de ingenieros a otro local, una antigua fábrica de ropa interior, para estar más alejado de la creciente masa de burócratas que gestionaba la compañía. Dos años después decidió que no estaba suficientemente lejos y se afincó en un pueblo situado a 150 kilómetros de distancia, y que, por mera casualidad, resultó ser el mismo en el que había nacido: Chippewa Falis, en Wisconsin.
Al año siguiente llegó el triunfo. Tenían un prototipo del CDC 6600, para el que habían empleado transistores de silicio —en lugar del entonces habitual germanio—, una densidad de componentes brutal y refrigeración líquida, para que las superpobladas placas no se quemasen a los dos minutos. Era 50 veces más rápido que su predecesor, y fue el primero que recibió el nombre de superordenador.
De pronto, todos los laboratorios del mundo parecían tener problemas que necesitasen de una de estas máquinas. Aquel ordenador llegó incluso a formar parte de la política exterior de Estados Unidos. Llevó a impulsar un acuerdo de prohibición de pruebas nucleares con la Unión Soviética, pues los ruskis sabían que el 6600 permitiría a los americanos simularlas. Y encabronó a Thomas Watson Jr., jefazo de IBM, hasta el extremo. Su Goliat había sido vencido por un David de 34 empleados, contando al portero. El gigante azul intentó contraatacar y se gastó más de cien millones de dólares en el IBM 360/90, pero fracasó miserablemente.
CDC empezó a tener problemas para gestionar el enorme crecimiento que le había proporcionado Cray, y tuvo que recortar fondos por aquí y por allá. Cuando le comunicaron que debía reducir costes de personal, Cray prefirió no cobrar ni un duro antes que despedir a nadie. El 7600 ya estaba en el mercado, pero sólo era entre tres y cuatro veces más rápido que su predecesor, gracias a una técnica llamada pipelining, que consiste en comenzar a leer una instrucción antes de que termine de ejecutarse la anterior. Para el CDC 8600, Cray quería dar un nuevo salto cualitativo, y para lograrlo quería hacer funcionar varios procesadores en paralelo. Pero la cosa se le resistía, así que decidió olvidarse del diseño que había creado y empezar otra vez de cero. Pero no había dinero. De modo que puso tierra de por medio, y con el tiempo CDC sería dividida en cachitos y vendida a empresas tan dispares como Seagate, Siemens o Citigroup.
En 1972 nuestro hombre fundó Cray Research, con seis empleados de CDC, y comenzó el trabajo en el Cray-1, que estaría terminado cuatro años después. Por primera vez empleó chips y, aunque abandonó la idea de usar varios procesadores, optó por incorporar procesamiento vectorial, esto es, la habilidad de hacer una misma operación matemática sobre un conjunto de datos a la vez y no sobre un solo número. Este modo de calcular es habitual en las tareas que requieren de superordenadores, y permitió al cacharrín alcanzar los 80 MFLOPS, es decir, que era capaz de hacer 80 millones de operaciones con números decimales por segundo. Ahí es nada, ¿no? Bueno, el ordenador que tiene usted en su casa es más rápido.
El Cray-1 fue lanzado en 1976 y resulto ser un éxito extraordinario, que permitió a la empresa fardar de tener el superordenador más rápido y crecer a base de bien, como le había pasado a CDC.
Al poco de terminar el Cray-1, nuestro hombre se puso a pensar en un nuevo trasto. Como ya le había ocurrido otras veces, tuvo que desechar diversos diseños ante dificultades insalvables. Hasta 1981 no encontró la solución que buscaba: cada módulo del ordenador estaría compuesto por ocho placas cubiertas de chips una encima de la otra, casi unidas. Aquello era una locura, pues generaba calor a base de bien y, estando todo tan compacto, no se podían meter ventiladores ni tubos para refrigerar. Pero Cray decidió que todo el ordenador estaría sumergido en líquido; uno especial, que no condujera la electricidad, llamado Fluorinert.
Sí, se le encendió la bombilla, pero aún tardaría cuatro años en tener terminada su obra. Algunos de sus empleados decidieron coger sólo algunas de sus ideas para el Cray-2 y hacer un superordenador algo más modesto. Así nacieron el Cray X-MP, en 1982, y su sucesor, el Y-MP, en 1988; fue este último el que pude contemplar, con admiración nada disimulada, en el centro de datos del Ciemat.
Cray intentó repetir sus éxitos con el Cray-3, para el que sustituyó el silicio por arseniuro de galio, más rápido pero más difícil de fabricar. De nuevo, las dificultades retrasaron los plazos. Además, la Guerra Fría había terminado, y con ella las principales fuentes de financiación de los fabricantes de superordenadores. Así que fundó otra empresa, Cray Computer, para poder terminar su proyecto, puesto que la original decidió optar por los diseños de otros cuando no pudo seguir pagando dos líneas de desarrollo independientes. Pero cuando lo terminó, ya en los noventa, sólo vendió uno, así que el Cray-4 nunca llegó a terminarse, pues la empresa entró en bancarrota.
Pero Cray no se rindió. A los setenta años, en 1996, fundó una nueva compañía, SRC (Seymour Roger Cray) Computers, cuyo objetivo era crear superordenadores con microprocesadores de Intel, a los que por fin consideró dignos de ser utilizados en sus máquinas. Pero en septiembre murió en un accidente de tráfico.
Su antigua empresa, sin embargo, siguió vivita y coleando, y haciendo los superordenadores más rápidos del mundo. Desde noviembre de 2009 el cetro lo tenía el Cray Jaguar, con una velocidad de 1,75 petaflops. Unas 12 500 veces más rápido que el Cray-1.
Los primeros ordenadores eran grandes dinosaurios a los que había que alimentar con un programa, ya estuviera en unas tarjetas perforadas o en una cinta magnética; después, tocaba esperar a que los operadores lo ejecutaran y, finalmente, recibir el resultado. Si se había producido algún error, había que volver a repetir todo el proceso. Aquello era, en parte, producto de la tecnología de tubos de vacío, pero también fruto de la época en que las labores que comenzaban a hacer las computadoras las realizaban artefactos electromecánicos, que no podían funcionar de otra forma.
Las bases de la computación interactiva, en la que los resultados son servidos inmediatamente, fueron puestas por el proyecto SAGE, un sistema de alerta temprana ante un hipotético ataque con bombarderos encargado por el Ejército de Estados Unidos. Pero el mundo real seguía empleando el viejo sistema, llamado procesamiento por lotes. Esta situación comenzaría a cambiar gracias al nacimiento de unas computadoras que ahora consideraríamos enormes, pero que, comparadas con las que por aquel entonces estaban en boga, y que ocupaban habitaciones enteras, pudieron ser comercializadas como miniordenadores. Posteriormente, y para distinguirse, los personales se llamarían microordenadores.
En 1957 se fundaron dos empresas clave para el nacimiento de los miniordenadores: Control Data Corporation, donde trabajaba el genial Seymour Cray, y Digital Equipment Corporation. En 1960, después de crear el CDC-1604 para la Marina norteamericana, Cray diseñó, en tres días, una versión más pequeña, inicialmente pensada como terminal del gran ordenador pero que se comercializó aparte como CDC 160A. Con una arquitectura de 12 bits —cuando por aquel entonces lo normal eran las arquitecturas de treinta o cuarenta y pico— y el tamaño de un escritorio de oficina, el considerado primer miniordenador costaba algo más de 60 000 dólares, pero diez veces menos que su hermano mayor, que ya era considerado especialmente barato.
No obstante, CDC no tenía intención de continuar por esa línea. En cambio, DEC, o Digital, fue fundada precisamente para llevar al mercado ordenadores más baratos e interactivos. Sin embargo, para convencer al general Georges Doriot, uno de los primeros inversores en capital riesgo, de que pusiera dinero en su empresa los fundadores de la casa, Ken Olsen y Harlan Anderson, tuvieron que prometer que no se meterían en el mercado de los ordenadores hasta convertirse en una empresa de venta de módulos electrónicos con beneficios. Lo hicieron bien, y Digital tuvo beneficios desde el primer año, así que en 1959 comenzaron a diseñar el PDP-1, cuyas siglas significan Procesador de Datos Programable: he aquí un nuevo intento de no usar la palabra computadora, a la que tan alérgico era Doriot.
El PDP-1 era un miniordenador en algunos aspectos: por ejemplo, en lo relacionado con la interactividad o por su relativo bajo precio; pero no tanto en otros: por ejemplo, en lo relacionado con el… tamaño. Se vendieron como medio centenar, y uno de ellos fue donado al MIT, donde sería clave en el nacimiento de una nueva cultura: la de los hackers. Con su PDP-1, los alumnos del MIT crearían el primer videojuego para ordenadores (Spacewar), el primer editor de textos (TECO, antepasado de Emacs), el primer programa para generar música, el primer depurador de código y el primer programa que realmente podía jugar al ajedrez y ganar a alguien, entre otras muchas cosas. Y es que, a diferencia de los grandes ordenadores, los hackers podían usar el PDP-1 directamente, escribiendo un código y viendo cómo funcionaba, sin necesidad de esperar, lo que les permitía estar continuamente trasteando con él.
Digital siguió ofreciendo ordenadores pequeños, y con el PDP-8 de 1965 llegó el éxito. Este ya era suficientemente pequeño como para ocupar un escritorio o un solo armario, y fue el primero en tener un precio de venta inferior a los 25 000 dólares, cifra que algunos consideraban el límite máximo que podía tener un miniordenador para ser considerado como tal. Además, fue el primero en recibir ese nombre, que se le ocurrió a un comercial inglés, no se sabe si inspirado en la minifalda o en el Mini. Se vendieron 50 000 unidades, una auténtica locura en una época en que los ordenadores se vendían de uno en uno; años después, fueron muchos más, cuando se pudieron meter en un solo chip todas las funciones del original.
Durante todo este tiempo, Digital siguió gestionándose como una empresa pequeña. Anderson se fue en 1966, pero Ken Olsen siguió en el machito, dándole a la compañía una forma de funcionar y una filosofía muy particulares. Cada línea de producto era responsable de sus propios beneficios y pérdidas, los vendedores no se llevaban comisión; «Haz lo correcto» era el principio que se grababa a fuego en los recién llegados; y si creías que hacías lo mejor para la empresa podías discutir las órdenes de tus jefes y pelear por lo tuyo, siempre y cuando estuvieras dispuesto a seguir la segunda máxima: «El que propone, hace». Olsen creía por encima de todo en la responsabilidad individual de todos y cada uno de sus empleados. Las reuniones directivas eran agrias discusiones en las que cada uno defendía su punto de vista, hasta que finalmente se llegaba a un acuerdo. Esto ralentizaba la toma de decisiones, pero aseguraba que cada una fuera aceptada por toda la empresa, lo que aceleraba su puesta en marcha. Sin duda, Google le debe mucho.
DEC siguió creciendo. Además de miniordenadores y alguna computadora grande, hacía impresoras, redes, cintas magnéticas, módulos electrónicos… Abarcaba todo lo que daba de sí la informática. En 1976 lanzó VAX, una arquitectura que le permitió construir desde ordenadores muy pequeños hasta enormes máquinas compatibles entre sí y bajo el mismo sistema operativo, el VMS que años más tarde tomaría Microsoft como base para Windows NT, 2000, XP, Vista y 7.
Fue su momento de mayor esplendor. El sistema de red que adoptó fue Ethernet, que se convirtió en el referente, superando al Token Ring de IBM. También sus terminales, los VT, marcaron la pauta. Ideó un sistema que permitía unir varios VAX y que se comportaran como uno solo, lo que daba al comprador la tranquilidad de saber que su ordenador jamás se le quedaría pequeño. En mi facultad había uno de ellos, llamado Zipi y dedicado a que los alumnos nos conectáramos a Internet. Fue en él donde escribí mi primer correo electrónico y alojé mi primera web.
Pero mientras triunfaba, veía pasar la revolución de los ordenadores personales y Digital no hacía nada al respecto. En 1984 un grupo de ingenieros propuso comercializar dos clones del IBM PC: DEC PC25 y PC5O, pero Ken Olsen se negó a copiar el diseño de otros, especialmente ese, que consideraba bastante cutre. Pero eso era lo que empezaban a hacer otras compañías, como Compaq, nacida dos años antes. En su lugar puso en marcha tres proyectos de ordenador personal enfocados a distintos mercados e incompatibles entre sí: Professional 350, Rainbow 100 y DECmate H. Demasiado tarde: IBM (y Microsoft) habían creado el estándar. Sólo una empresa, Apple, sobreviviría compitiendo con él. Y Digital no era Apple.
El no entrar en el mercado de los PC no tenía por qué haber hundido la empresa. De hecho, durante unos pocos años siguió marchando bien; gracias a los VAX, que estaban siendo un éxito sin precedentes para la compañía y logrando hacer mella en el negocio de IBM. Pero las semillas de la destrucción ya habían sido plantadas. Tras alcanzar su récord de beneficios, en 1987, Digital empieza a perder pie y a tener pérdidas.
Fiel a su filosofía de dejar que los ingenieros decidieran el camino, DEC no optó a mediados de los ochenta por ninguno de los que se le propusieron, así que terminó por intentar tener éxito en todos, principalmente con la serie VAX 9000 y el procesador Alpha de 64 bits, que sería muy popular en la gama alta de servidores de los noventa. Eso costó mucho dinero.
Finalmente, en 1991 Olsen aceptó comercializar clones del IBM PC; pero, de nuevo, ya era demasiado tarde. Al año siguiente dejaría su cargo, siendo sustituido por Robert Palmers, quien se dedicó a dividir la empresa en pedazos, que fue vendiendo a distintas compañías. En 1998 dejó la última que quedaba, la división de ordenadores, a Compaq. No deja de ser un final irónico…