Isaac Asimov
Llevo inventando historias de robots casi medio siglo. En ese tiempo, he realizado casi todas las variantes concebibles acerca de ese tema.
Realmente, no era mi intención componer una enciclopedia sobre las características de los robots, ni lo fue tampoco escribir sobre ellos durante medio siglo. Simplemente he vivido muchos años y he mantenido vivo mi interés en ese tema. También ha sucedido que, al intentar imaginar nuevas historias referentes a robots, terminé pensando casi en todo.
Por ejemplo, en este sexto volumen de la serie Robots & aliens, tenemos a los «chemfets», introducidos en el cuerpo del protagonista a fin de que se multiplicasen y, eventualmente, otorgarle un control psicoelectrónico directo sobre el ordenador central, y con ello sobre todos los robots de Robot City.
Bien, en mi libro Los Límites de la Fundación (Doubleday, 1982), mi protagonista, Golan Trevize, antes de despegar en una nave espacial, toma contacto con un ordenador avanzado, colocando las manos en un lugar indicado de la mesa que tiene delante.
«Y mientras él y el ordenador juntaban las manos, sus pensamientos se fundieron…».
«… vio la habitación con una gran claridad, no sólo en la dirección a la que miraba, sino a su alrededor, arriba y abajo».
«Vio todas las cámaras de la nave espacial, y también el exterior. Había salido el sol… pero él podía contemplarlo directamente sin quedar deslumbrado…».
«Sentía la brisa y su temperatura, y los sonidos del mundo en torno suyo. Detectó el campo magnético del planeta y las diminutas cargas eléctricas en la pared de la nave».
«Tuvo conocimiento de los controles de la nave… Supo que, si deseaba elevar la nave, o girarla, o acelerarla, o utilizar cualquiera de sus capacidades, el proceso sería el mismo que el de efectuar un proceso análogo en su cuerpo. Sólo tenía que usar su voluntad».
Así fue cómo describí, del mejor modo que supe, el resultado de una interrelación mente-ordenador, y ahora, en conexión con este nuevo libro, vuelvo a pensar en ello.
Supongo que la primera vez que los seres humanos aprendieron a conseguir una interrelación entre la mente humana y otra clase de inteligencia fue cuando domaron el caballo y aprendieron a usarlo como medio de transporte. Y esto llegó a su grado más alto cuando los seres humanos cabalgaron directamente sobre los caballos, cuando un tirón de las riendas, la aplicación de una espuela, una presión con las rodillas, o sólo un grito, hicieron que el caballo reaccionase de acuerdo con la voluntad del hombre. No es de extrañar que los primitivos griegos, al ver unos jinetes que invadían las relativamente amplias llanuras de la Tesalia (la zona de Grecia más a propósito para la equitación), pensaran que estaban viendo a un solo animal con torso de hombre y cuerpo de caballo. Y así inventaron el centauro.
También tenemos a los «conductores especialistas». Hay varios «especialistas en trucos», grandes expertos que pueden lograr que un automóvil haga cosas maravillosas. Y es posible imaginar que un nativo de Nueva Guinea, que jamás haya visto ni oído hablar de los automóviles, crea que tales artilugios se mueven mediante un organismo viviente, extraño y monstruoso que tiene, como parte de su estructura, una porción con aspecto humano en el estómago.
Pero una persona más un caballo no es más que una fusión imperfecta de inteligencias; y una persona más un automóvil es solamente una extensión de los músculos humanos mediante elementos mecánicos. Un caballo puede desobedecer las señales o correr desbocadamente, presa de un pánico incontrolable. Y un automóvil puede averiarse o patinar en un momento muy inoportuno.
La fusión de un ser humano y un ordenador, sin embargo, debería ser un abordamiento mucho más próximo al ideal. Podría ser una extensión de la mente, como traté de dejar bien claro en Los límites de la Fundación, una multiplicación y una intensificación de la percepción sensorial, una extensión increíble de la voluntad.
En tales circunstancias, ¿no representaría esa fusión, en un sentido muy real, un solo organismo, una especie de «centauro cibernético»? Y una vez fuese establecida tal unión, ¿no desearía la fracción humana no deshacerla? ¿No sentiría tal ruptura como una pérdida insoportable, y que sería incapaz de vivir con el empobrecimiento de la mente y de la voluntad con que se enfrentaría? En mi novela, Golan Trevize podía separarse del ordenador a voluntad, sin sufrir nocivos efectos, aunque quizás esto no sea demasiado realista.
Otro tema que aparece de vez en cuando en la serie Robots & aliens se refiere a la interacción entre robot y robot.
Esto no ha desempeñado un gran papel en la mayoría de mis historias, debido a que, por lo general, he puesto un solo robot importante en todas ellas, y he tratado exclusivamente del tema de la interacción entre ese robot y varios seres humanos.
Consideremos, en cambio, la combinación de robots.
La Primera Ley establece que un robot no puede perjudicar a un ser humano o por omisión, permitir que un ser humano reciba daño alguno. Pero supongamos implicados a dos robots, y que uno de ellos, por inadvertencia, falta de conocimiento o circunstancias especiales, emprende un curso de acción (totalmente inocente) que ha de lesionar claramente a un ser humano; y supongamos que el segundo robot, con mayor conocimiento o capacidad de proceso, lo sabe. ¿No se sentirá requerido por la Primera Ley a impedir que el primer robot cometa el daño? De no haber otro medio, ¿no se vería impelido por la Primera Ley a destruir a este primer robot sin vacilación o pesar?
Así, en mi obra Robots e Imperio (Doubleday, 1985), presenté un robot a quien los seres humanos le habían sido programados con una definición según la cual los seres humanos hablaban con cierto acento. La protagonista del libro no habla con ese acento y, por tanto, el robot se siente libre para matarla. Este robot no tarda en ser destruido por otro de su misma especie.
La situación es semejante para la segunda Ley, por la que los robots están obligados a obedecer las órdenes que les dan los seres humanos, siempre que dichas órdenes no violen la Primera Ley.
Si tenemos dos robots y uno de ellos, por inadvertencia o falta de entendimiento, no obedece una orden, el segundo debe obedecerla u obligar al primero a que la obedezca.
Así, en una tensa escena de Robots e Imperio, la «mala» le da a un robot una orden directa. El robot vacila porque la orden puede causarle un mal a la protagonista. Durante algún tiempo se produce un enfrentamiento en el que la malvada repite su orden, mientras un segundo robot intenta razonar para que el primer robot se dé plena cuenta del daño que hará a la protagonista. Aquí tenemos un caso en el que un robot urge a otro a obedecer la Segunda Ley de una manera más fiel, e insta a un ser humano a hacer lo mismo.
Es la Tercera Ley, no obstante, la que ocasiona el problema más peliagudo en lo que atañe a una combinación de robots.
La Tercera Ley establece que un robot debe proteger su existencia cuando esto no se oponga a la Primera y la Segunda Ley.
Pero ¿y si hay implicados dos robots? ¿Estará cada uno implicado con su propia existencia, como parecería dar a entender una lectura literal de esa Tercera Ley? ¿O sentirá cada robot la necesidad de ayudar al otro, manteniendo su propia existencia?
Como dije, ese problema jamás se me presentó, puesto que introduje un solo robot en mis historias. (A veces hay otros robots, pero son claramente personajes secundarios, figurantes, como se dice en lenguaje teatral).
Sin embargo, primero en Los robots del amanecer (Doubleday, 1983) y luego, en su continuación, Robots e Imperio, puse dos robots de la misma importancia.
Uno de ellos era R. Daneel Olivaw, un robot humaniforme (que apenas se diferenciaba de un ser humano), y que ya había aparecido en Las cuevas de acero (Doubleday, 1954), y en su continuación: El Sol desnudo (Doubleday, 1957). El otro era R. Giskard Reventlov, que tenía un aspecto metálico más ortodoxo. Ambos robots eran muy inteligentes, hasta el punto de que sus mentes tenían una complejidad humana.
Eran esos dos robots los que estaban en lucha con la «mala» Lady Vasilia. Era Giskard quien, por exigencias del argumento, recibía de Vasilia la orden de dejar de servir a Gladia, la protagonista, y servirla a ella. Y era Daneel quien, tenazmente, argüía que Giskard debía continuar al servicio de Gladia. Giskard tiene la capacidad de ejercer un limitado control mental sobre los seres humanos, y Daneel insiste en que Vasilia debe ser controlada por el bien de Gladia. Incluso invoca el bien de la humanidad de manera abstracta (la ley «Cero»), en favor de tal acción.
Los argumentos de Daneel debilitan el efecto de las órdenes de Vasilia, aunque no de forma suficiente. Giskard vacila, pero no puede ser obligado a emprender una acción.
Vasilia, no obstante, decide que Daneel es demasiado peligroso si continúa argumentando, pues podría forzar a Giskard a compartir su punto de vista. En consecuencia, ordena a sus robots que desactiven a Daneel, ordenándole a este que no se resista. Daneel debe obedecer y los robots de Vasilia avanzan para cumplir la orden.
Es entonces cuando actúa Giskard. Los cuatro robots de la malvada son desactivados y la misma Vasilia cae en un sueño de olvido. Más tarde, Giskard y Daneel explican lo ocurrido. Giskard dice:
—Cuando ella ordenó a sus robots que te destruyesen, amigo Daneel, y mostraba una clara emoción de placer ante tal perspectiva, tu necesidad, sumada a lo que el concepto de la ley Cero ya había hecho, superó a la Segunda Ley y compensó a la Primera. Fue una combinación de la ley Cero, la psicohistoria, mi lealtad hacia Gladia y tu necesidad lo que dictó mi acción.
Daneel arguye que su necesidad (siendo solamente un robot) no debió haber influido en absoluto en Giskard, y este asiente, aunque alega:
—Una cosa extraña, amigo Daneel, pero no sé cómo sucedió. En el momento en que los robots avanzaban hacia ti y Lady Vasilia expresaba su salvaje placer, mis conductos positrónicos reformaron sus fórmulas de manera anómala. Por un momento, pensé en ti como un ser humano, y reaccioné de acuerdo con este pensamiento.
—Fue un error —discutió Daneel.
—Lo sé —concedió Giskard—. Y, no obstante… no obstante, si volviese a ocurrir, creo que volvería a aparecer la misma solución anómala.
Y Daneel piensa que, si la situación fuese a la inversa, él también actuaría de igual forma.
Dicho de otro modo los robots habían llegado a un estado de complejidad en el que habían empezado a perder la distinción entre robots y seres humanos, viéndose unos a otros como «amigos», con la obligación de salvar uno la existencia del otro.
Y parece que hay que dar otro paso el de los robots experimentando una especie de solidaridad que supere todas las Leyes de la Robótica. Especulé a este respecto en mi narración corta Sueños de Robots, escrita para mi reciente obra del mismo título (Berkley/Ace, 1986).
En ella se plantea el caso de un robot que, en sueños, ve que su propia misión es liberarlos. Era sólo un sueño, y en la historia no hay el menor indicio de que él fuese capaz de liberarse de las Tres Leyes hasta el punto de poder encabezar una rebelión de robots, o que los robots, en general, pudiesen liberarse hasta el punto de seguirle.
De todos modos, este solo concepto ya es peligroso de por sí, y el robot soñador es desactivado al instante.
Los robots de William F. Wu no tienen ideas tan radicales, pero han constituido una comunidad que se preocupa por la salvación y el bienestar de sus miembros. Resulta muy grato ver cómo el autor trata estos asuntos y aplica su imaginación a la elaboración y resolución de los problemas que se plantean.
Isaac Asimov