Ya bien entrada la noche, en Telecomp, Gerhard miraba preocupado el ordenador. Le dio más instrucciones, y después se acercó al teletipo para revisar la larga tira de hojas rayadas en verde. Las repasó velozmente, buscando el error que sabía se encontraba en las instrucciones programadas.

En cuanto al ordenador, jamás cometía una equivocación. Gerhard había trabajado con ordenadores durante casi diez años —ordenadores diferentes en distintos lugares— y nunca había visto que uno se equivocara. Como es natural, los errores se producían, pero siempre estaban en el programa, no en la máquina. A menudo esta infalibilidad resultaba difícil de aceptar. Por una parte, no encajaba en la visión que uno tenía del resto del mundo, según la cual las máquinas cometían incesantes errores: se fundían los plomos, los aparatos estereofónicos dejaban de funcionar, los hornos se recalentaban, los coches no querían ponerse en marcha. El hombre moderno daba por descontado que las máquinas también se equivocaban.

Pero los ordenadores eran diferentes, y trabajar con ellos podía ser una experiencia humillante. Jamás se equivocaban; era así de sencillo. Incluso aunque se tardaran semanas en encontrar el origen de un problema, incluso aunque el programa fuese comprobado docenas de veces por docenas de personas, incluso aunque todo el personal fuese llegando lentamente a la conclusión de que por una vez los circuitos del ordenador se habían enredado, al final siempre resultaba ser un error humano cualquiera. Siempre.

Entró Richard, que se desembarazó del abrigo deportivo y se sirvió una taza de café.

—¿Cómo va?

Gerhard movió la cabeza.

—Tengo problemas con «George».

—¿Otra vez? Vaya fastidio —Richard miró el ordenador—. ¿Y «Martha»?

—«Martha» va bien, supongo. Sólo se trata de «George».

—¿Cuál de los dos «George»?

—«San George» —respondió Gerhard—. Es un sinvergüenza.

Richard se sentó ante el ordenador, y comenzó a beber café.

—¿Te importa que lo intente?

—En absoluto —repuso Gerhard.

Richard empezó a tocar botones. Pidió el programa de «San George», y seguidamente el programa de «Martha». Entonces pulsó el botón de la acción conjunta.

Richard y Gerhard no habían hecho la programación; consistía en modificaciones de otros programas de ordenador ya existentes, ideados en otras universidades. Pero la idea fundamental era la misma: crear un programa que obligase al ordenador a actuar emocionalmente, como una persona. Era lógico dar a estos programas nombres como «George» y «Martha». Existía un precedente; «Eliza» en Boston, y «Aldous» en Inglaterra.

«George» y «Martha» eran esencialmente el mismo programa, con ligeras diferencias. El «George» original había sido programado para ser neutral en su reacción a los estímulos. Después se creó a «Martha». «Martha» era un poco coqueta, y detestaba la mayoría de las cosas. Finalmente se programó otro «George», más cariñoso, que recibió el apodo de «San George».

Cada uno de los programas podía reaccionar con tres estados diferentes: amor, miedo e indignación, y con tres iniciativas: acercamiento, retirada y ataque. Todo ello, naturalmente, era abstracto en extremo. Se llevaba a cabo por medio de números. Por ejemplo, el «George» original era indiferente a la mayoría de números, pero aborrecía el número 751. Estaba programado para aborrecerlo. Por extensión, aborrecía números similares, 743, 772, etc. Le gustaban mucho más números como el 404, 133 y 918. Si se le enviaba uno de estos números, «George» correspondía con números que significaban amor y acercamiento. Si se taladraba el 707, se retiraba. Taladrando el 750, atacaba con indignación, que ponía de manifiesto por los números que grababa.

El equipo de la Unidad Neuropsiquiátrica había jugado durante mucho tiempo con estos programas. Después incorporaron modificaciones para que el ordenador «hablase». Los números se traducían en frases, Esto era divertido, y también revelador. La acción conjunta se llamaba «juego de Navidad». Porque en su mayor parte se refería a dar o recibir regalos, objetos que tenían un valor emocional asignado o aprendido, del mismo modo que los números.

La actuación normal de «George» frente a «Martha» conseguiría conquistarla, y la coquetería de «Martha» pasaría a segundo plano.

Pero «San George» produjo en ella un efecto mucho peor. Su actitud amorosa la ponía en un aprieto, es decir, siempre que las cosas se sucedieran normalmente. Richard estuvo atento mientras el teletipo enviaba reflejos a la pantalla.

HOLA, SOY SAN GEORGE.

HOLA.

¿CÓMO TE LLAMAS?

MARTHA.

NO HABLAS MUCHO, MARTHA.

NO.

PERO ME GUSTAS.

PORQUE A MI NO ME GUSTAS.

LO COMPRENDO. ¿COMO AYUDARTE?

—No es muy consistente —dijo Richard—. ¿Desde cuándo lo hace?

—Esto no es nada —replicó Gerhard—. Espera y verás.

¿AYUDAR?

SI, ME GUSTARÍA AYUDARTE.

TOMA UN GATO.

Richard dio un respingo. Según lo programado, ni a «George» ni a «Martha» les gustaban los gatos. Dar un gato a «George» era una iniciativa muy agresiva.

GRACIAS.

TOMA OTRO GATO.

GRACIAS. ERES MUY BUENA.

TOMA OTRO GATO.

NO, GRACIAS.

¿NO TE GUSTAN LOS GATOS?

Si, PERO YA TENGO BASTANTES GATOS.

TOMA UN GORILA.

—Realmente agresiva —dijo Richard—. ¿Cómo son las otras acciones conjuntas?

—Muy parecidas —repuso Gerhard.

—¿Malas como ésta?

—Por el estilo.

A estas alturas ya estaban acostumbrados a la idea de que cuando los ordenadores trabajaban juntos, los resultados eran imprevisibles. La forma general de la conversación podía adivinarse, pero los resultados específicos eran inciertos. Algo parecido sucedía con una partida de ajedrez del ordenador: probablemente iba a ganarla, pero cada vez la ganaba de un modo distinto, de acuerdo con las jugadas del contrincante.

NO QUIERO UN GORILA.

¿NO TE GUSTAN LOS GORILAS?

NO, GRACIAS.

ERES DEMASIADO CORTES.

SIENTO OFENDERTE DE ALGÚN MODO.

HABLAS DEMASIADO.

LO SIENTO.

TOMA UNA BERENJENA.

Richard miraba con interés. «San George» no sabía nada de berenjenas. Pero detestaba los pepinos y los plátanos.

NO, GRACIAS.

¿NO TE GUSTAN LAS BERENJENAS?

NO MUCHO.

TOMA OTRA.

NO, GRACIAS.

QUIERO QUE. LA ACEPTES.

NO, GRACIAS.

ANDA, TÓMALA.

NO, GRACIAS.

INSISTO.

NO, GRACIAS.

—¿Qué le ha sucedido a «San George»? —preguntó Richard—. Sus respuestas se repiten.

—Esto es lo que me preocupa.

—¿En qué punto del programa se está encallando?

—Estaba buscándolo cuando has llegado.

INSISTO EN QUE TOMES UN PEPINO.

ME NIEGO.

—«George» —exclamó Richard, casi sin pensar.

ENTONCES TOMA UN PLÁTANO.

NO.

—Está fallando —dijo Richard—. Ya no es un santo.

ENTONCES TOMA UN PLÁTANO Y UN PEPINO.

NO, GRACIAS.

INSISTO.

VETE AL INFIERNO. TE MATARE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

La pantalla se llenó de puntos blancos.

—¿Qué significa esto, una respuesta imposible de transcribir? —interrogó Richard.

—Lo ignoro. Es la primera vez que lo veo.

—¿Cuántas veces se ha puesto en marcha este programa? —Siguió preguntando Richard.

—Con «Martha», ciento diez.

—¿Se han borrado algunas instrucciones?

—No.

—Que me cuelguen si entiendo algo —dijo Richard—. Según parece, a «George» le está fallando la paciencia —rió entre dientes—. Apuntemos esta frase.

Gerhard asintió, y regresó al teletipo. En teoría, lo que estaba sucediendo no era anormal; tanto «George» como «Martha» estaban programados para aprender por experiencia. Como los programas de partidas de ajedrez (en las cuales la máquina recopilaba experiencia para partidas ulteriores), este programa establecía que la máquina «aprendería» reacciones nuevas. Después de ciento diez repeticiones, «San George» dejaba repentinamente de ser un santo. Estaba aprendiendo la inutilidad de ser un santo en sus relaciones con «Martha»; pese a haber sido programado para ser un santo.

—Comprendo exactamente lo que siente —dijo Richard, desconectando el ordenador. Entonces acudió al lado de Gerhard, para ayudarle a buscar el error de programación que había hecho posible lo ocurrido.