La conciencia imaginada
En los capítulos anteriores hemos explicado los fenómenos de la conciencia humana en términos de operaciones de una «máquina virtual», una especie de programa de ordenador evolucionado (y en evolución) que coforma las actividades del cerebro. No hay Teatro Cartesiano; sólo hay Versiones Múltiples, compuestas por procesos de fijación de contenido que juegan diversos papeles semiindependientes dentro de la economía cerebral de controlar la singladura de un cuerpo humano por la vida. La sorprendente e insistente convicción de que hay un Teatro Cartesiano es el resultado de una serie de ilusiones cognitivas que hemos expuesto y explicado. Los «qualia» han quedado sustituidos por estados disposicionales complejos del cerebro, y el yo (también conocido con los nombres de audiencia en el Teatro Cartesiano, Significador Central o testigo) resulta ser una valiosa abstracción, la ficción de un teórico en vez de un observador o un jefe interno.
Si el yo no es «más» que el centro de gravedad narrativa, y si todos los fenómenos de la conciencia humana son explicables «solamente como las actividades de una máquina virtual realizada en las conexiones astronómicamente ajustables de un cerebro humano, entonces, en principio, un robot “programado” de forma adecuada, con un cerebro basado en la química del silicio, podría ser consciente, podría tener un yo. Mejor dicho, podría existir un yo consciente cuyo cuerpo sería el robot y cuyo cerebro sería el ordenador. Esta implicación de mi teoría, para algunas personas es algo obvio y contra lo que no hay nada que objetar». «¡Claro que somos máquinas! Somos máquinas muy, muy complicadas y muy, muy evolucionadas, hechas de moléculas orgánicas en vez de metal y silicio, y nosotros somos conscientes, de modo que también puede haber máquinas conscientes: nosotros». Para estos lectores, esta implicación era una conclusión anunciada. Lo que puede haber sido interesante para ellos, espero, es la variada serie de implicaciones nada evidentes que hemos encontrado por el camino, en particular aquellas que demuestran hasta qué punto la imagen cartesiana, a la que apela nuestro sentido común, debe ir siendo sustituida a medida que aprendemos más sobre los mecanismos cerebrales.
Otras personas, sin embargo, consideran la idea de que pueda haber, en principio, robots conscientes como algo tan increíble que, para ellos, equivale a una reductio ad absurdum de mi teoría. En una ocasión, un amigo mío respondió a mi teoría con una sincera confesión: «Pero, Dan, ¡no puedo imaginar un robot consciente!». Es probable que algunos lectores se sientan inclinados a aceptar esta afirmación, pero deberían intentar resistir la tentación de aceptarla, porque mi amigo cometió un error. Su error fue muy simple, pero llama la atención sobre una confusión fundamental que impide que progresemos en nuestra comprensión de la conciencia. «Sabes perfectamente que eso que dices es falso», le contesté, «más de una vez has imaginado un robot consciente. El problema no es que no puedas imaginar un robot consciente, sino que no puedes imaginar cómo puede ser consciente un robot».
Cualquiera que haya visto a R2D2 o a C3P0 en La guerra de las galaxias, o escuchado a Hal en 2001, ha imaginado un robot consciente (o un ordenador consciente; que el sistema tenga una total autonomía, como R2D2, o permanezca fijo en algún lugar, como Hal, no es realmente importante para nuestro ejercicio de imaginación). La verdad es que imaginar el flujo de la conciencia de una cosa «inanimada» es como un juego de niños. Los niños lo hacen constantemente. No sólo los ositos de peluche poseen una vida interior; también la tiene la pequeña locomotora. En el bosque, los abetos esperan en silencio, temerosos del hacha del leñador y a la vez deseando convertirse en un hermoso árbol de navidad, en una casa calentita y rodeados de niños. La literatura infantil (por no hablar de la televisión) está repleta de oportunidades para imaginar la vida consciente de las cosas. Los artistas que ilustran estas fantasías suelen ayudar a la imaginación de los niños pintando unas caras muy expresivas a todos estos agentes imaginarios, pero esto no es esencial. Con que hablen —como lo hace Hal— basta, sin la necesidad de que haya una cara, para fomentar la ilusión de que hay alguien ahí dentro, de que se puede sentir algo al ser Hal, o un osito de peluche, o una vieja locomotora.
Ahí está el problema, claro: esto no son más que ilusiones, o, por lo menos, eso es lo que parece. Hay diferencias entre la una y la otra. Es evidente que los ositos de peluche no son conscientes, pero no es tan evidente que un robot no pueda serlo. Lo que es evidente es que resulta difícil imaginar cómo podría serlo. Mi amigo, al no poder imaginar cómo podría ser consciente un robot, se resistió a imaginar un robot que fuese consciente, aunque lo podría haber hecho sin la mayor dificultad. Hay una enorme diferencia entre estos dos ejercicios de imaginación, pero la gente tiende a confundirlos. Es terriblemente difícil, sin lugar a dudas, imaginar de qué modo el ordenador-cerebro de un robot puede ser el soporte de una conciencia. ¿Cómo es posible que una compleja serie de acontecimientos de procesamiento de la información ejecutados en el interior de un puñado de chips de silicio equivalga a una serie de experiencias conscientes? Pero eso es tan difícil como imaginar de qué modo un cerebro humano orgánico puede ser el soporte de una conciencia. ¿Cómo es posible que una compleja serie de interacciones electroquímicas entre miles de millones de neuronas equivalga a una serie de experiencias conscientes? Y sin embargo, no tenemos ninguna dificultad en imaginar a seres humanos conscientes, aunque todavía no podamos imaginar cómo puede ser esto posible.
¿Cómo puede ser el cerebro la base de la conciencia? Por lo general, los filósofos han tratado esta pregunta como una cuestión retórica, sugiriendo implícitamente que la respuesta está muy por encima de la capacidad de comprensión de los humanos. Uno de los principales objetivos de este libro ha sido el de derribar este supuesto. He argumentado que es posible imaginar de qué modo esa serie de actividades en el cerebro equivalen a experiencias conscientes. Mi argumento es muy simple: me he limitado a mostrar cómo hacerlo. Resulta que la manera de imaginarlo consiste en pensar en el cerebro como si fuera una especie de ordenador. Los conceptos de la informática y las ciencias de la computación nos proporcionan los elementos necesarios para imaginar, si queremos cruzar esa terra incógnita que se extiende entre nuestra fenomenología, tal como la conocemos por «introspección», y nuestros cerebros, tal como nos los presenta la ciencia actual. Al pensar en nuestros cerebros como sistemas de procesamiento de la información, poco a poco podemos ir disipando la niebla y hallar así el camino para cruzar el gran abismo, desvelando de qué modo nuestros cerebros producen todos esos fenómenos. Hay muchos obstáculos y muchas trampas que debemos evitar —tentadores callejones sin salida tales como el Significador Central, la «repleción» y los «qualia», por ejemplo—•, y no cabe duda de que todavía permanecen algunas confusiones y algunos errores de envergadura en el esbozo que he presentado, pero, cuando menos, ahora podemos ver cómo será nuestro camino.
No obstante, algunos filósofos han afirmado que es totalmente imposible cruzar ese abismo. Thomas Nagel (1974, 1986) ha sostenido que no hay manera de pasar al nivel subjetivo de la fenomenología partiendo del nivel objetivo de la fisiología. Y más recientemente, Colin McGinn ha afirmado que la conciencia posee una «estructura oculta» que se extiende más allá de la fenomenología y de la fisiología y que, aunque dicha estructura oculta nos permitiría tender un puente sobre el abismo, probablemente este quedaría fuera de nuestro alcance para siempre.
El tipo de estructura oculta que propongo no se situaría a ninguno de los niveles descritos por Nagel: se situaría en algún lugar entre ellos. Ni fenomenológico ni físico, este nivel intermedio no estaría cortado (por definición) según el patrón de los otros dos lados del abismo, y, por tanto, no le sería imposible alcanzar la otra orilla. Su caracterización requeriría una radical innovación conceptual (que, según he argumentado, superaría Los límites de nuestras capacidades) (McGinn, 1991, págs. 102-103).
El nivel de descripción del software o de la «máquina virtual» que he descrito en este libro es precisamente el tipo de nivel que describe McGinn: por una parte ni explícitamente fisiológico o mecánico y, aun así, capaz de tender los puentes necesarios hacia los mecanismos cerebrales y, por la otra parte, no explícitamente fenomenológico pero capaz de establecer los vínculos necesarios con el mundo del contenido, con los mundos de la (hetero-) fenomenología. ¡Lo hemos conseguido! Hemos imaginado cómo puede producir experiencias conscientes un cerebro. ¿Porqué McGinn piensa que está por encima de nuestras capacidades el embarcarnos en esta «radical innovación conceptual»? ¿Acaso ha sometido los diversos enfoques de la mente basados en la idea del software al detallado análisis que podría demostrar su futilidad? No. Ni siquiera los toma en consideración. Ni siquiera intenta imaginar el nivel intermedio cuya existencia él mismo ha postulado; se limita a señalar que a él le parece evidente que no hay ninguna esperanza.
Esta espuria «obviedad» es un gran obstáculo para el progreso de la comprensión del fenómeno de la conciencia. Lo más natural del mundo es pensar que la conciencia es algo que se produce en una especie de Teatro Cartesiano, y suponer que nada tiene de malo el pensar de esta manera. Todo eso parece obvio hasta que uno intenta aprender en serio las actividades del cerebro, y empieza a intentar imaginar, con detalle, un modelo alternativo. Entonces lo que ocurre se parece mucho a descubrir el truco de un juego de manos. Cuando nos paramos a mirar entre bastidores, descubrimos que no vimos realmente lo que creíamos haber visto en el escenario. El enorme abismo que se extiende entre la fenomenología y la fisiología empieza a cerrarse; comprobamos que algunas de las características más «obvias» de la fenomenología no son reales: no hay repleción con figmento; no hay qualia intrínsecos; no existe el manantial del significado y la acción; no existe ese mágico lugar donde se produce el entendimiento. En efecto, no hay ningún Teatro Cartesiano; incluso la distinción entre experiencias sobre el escenario y procesos entre bastidores empieza a perder todo su atractivo. Todavía nos quedan muchos fenómenos sorprendentes por explicar, pero algunos de los efectos especiales que más aturdían a nuestra mente ni siquiera existen, así que no tenemos que tomarnos la molestia de explicarlos.
Una vez hemos hecho algunos procesos en esta difícil tarea de imaginar cómo produce el cerebro los fenómenos de la conciencia, debemos hacer algún ajuste en la tarea más fácil: imaginar a alguien o algo que es consciente. Podemos seguir pensando en ello apelando a una especie de flujo de la conciencia, pero ya no podemos dotar a ese flujo con todas sus propiedades tradicionales. Ahora el flujo de la conciencia ha sido reconcebido como las operaciones de una máquina virtual realizada en el cerebro, ya no resulta «obvio» el que hayamos sucumbido a una ilusión cuando imaginamos ese flujo produciéndose en el ordenador cerebral de un robot, por ejemplo.
McGinn invita a sus lectores a unírsele en la rendición; es totalmente imposible imaginar cómo puede el software hacer consciente a un robot. Ni siquiera lo intenten, dice. Otros filósofos han fomentado esta actitud recurriendo a experimentos mentales que «funcionan» precisamente porque disuaden al lector de llevar a cabo el intento de imaginar, con detalle, cómo puede el software llegar a conseguirlo. Curiosamente, los dos experimentos más conocidos tienen que ver con China: el experimento de la Nación China de Ned Block (1978) y el de la Habitación China de John Searle (1980, 1982, 1984, 1988a, b[1]). Ambos experimentos mentales se basan en el mismo y mal dirigido ejercicio de imaginación, y puesto que el de Searle ha sido el más ampliamente discutido, me centraré exclusivamente en él. Searle nos invita a imaginarle encerrado en una habitación, simulando de forma manual un programa de IA gigante que, supuestamente, comprende el chino. Searle estipula que el programa es capaz de superar el test de Turing, frustrando así todo intento por parte de sus interlocutores humanos de distinguirlo de un sistema realmente capaz de comprender el chino. De esta mera imposibilidad de distinguirlo desde el punto de vista de la conducta no se deduce, afirma Searle, que, en la Habitación China, se produzca una comprensión real del chino o una conciencia china. Searle, encerrado en la habitación y manipulando concienzudamente las cadenas de símbolos del programa de acuerdo con este, nunca llega a tener una comprensión del chino, y no hay nada más en la habitación que comprenda el chino (eso «es obvio» como diría Frank Jackson).
Se supone que este experimento mental prueba la imposibilidad de lo que Searle denomina «IA fuerte», la tesis de que «un ordenador digital programado adecuadamente y con la información de entrada y de salida apropiada tendría una mente exactamente en el mismo sentido que los seres humanos tienen una mente» (Searle, 1988a). Las diferentes versiones de este experimento mental que Searle ha ido produciendo en la última década han provocado gran cantidad de reacciones y, aunque filósofos y otras personas siempre han hallado defectos en su estructura como argumento lógico[2], parece innegable que su «conclusión» sigue siendo «obvia» para muchas personas. ¿Por qué? Porque nadie se imagina realmente la situación con el detalle que esta requiere.
He aquí un simple experimento que nos ayudará a demostrar que mi diagnóstico es el correcto. Primero, imaginemos un breve extracto del diálogo entre la Habitación China y el juez que dio un veredicto positivo en el test de Turing (para facilitar las cosas, me he permitido la libertad de traducirlo del chino al inglés.)*
JUEZ: ¿Sabe usted aquel del irlandés que se encontró una lámpara maravillosa? Al frotarla, se le apareció un genio que le concedió tres deseos. «¡Me tomaría una pinta de Guinness!», replicó el irlandés, y esta se le apareció al instante. Nuestro hombre se lanzó ávidamente sobre ella, bebiendo a grandes sorbos, pero el nivel de Guinness en la jarra siempre se reponía como por arte de magia. Al cabo de un rato, el genio empezó a impacientarse. Bueno, ¿y qué pasa con el segundo deseo?», le preguntó. A lo que, entre sorbo y sorbo, el irlandés replicó, «Ah, sí, ¡pues me tomaría otra igual!».
HABITACIÓN CHINA: Muy gracioso. No, no Lo sabía, pero encuentro que los chistes racistas son de muy mal gusto, ¿sabe? Me he reído muy a pesar mío, pero. La verdad, esperaba que usted encontraría otros temas de discusión.
J: Está bien, pero le conté el chiste porque quisiera que me lo explicara.
HC: ¡Qué aburrido! Los chistes nunca deberían explicarse.
J: Como quiera, pero esta es mi pregunta para el test. ¿Podría usted explicarme por qué «funciona» el chiste?
HC: Si insiste. Veamos, depende del supuesto de que la jarra que se vuelve a llenar por arte de magia seguirá llenándose para siempre, de modo que el irlandés tiene toda la cerveza que quiera. Apenas puede haber algún motivo por el cual querría tener otra igual, pero es tan tonto (esta es La parte que a mí me molesta) o está tan borracho, que no se da cuenta y, sintiéndose tan contento porque su primer deseo se hizo realidad, pide una segunda ronda. Evidentemente, estos supuestos son falsos, sólo forman parte de la situación especial que rodea a todo acto de contar un chiste, en que suspendemos nuestra incredulidad en la magia, etc. De hecho, podríamos imaginar una continuación del chiste un poco más elaborada, según la cual nuestro irlandés «hiciera bien» al pedir un segundo deseo igual que el primero: a lo mejor está planeando organizar una gran fiesta, y una sola jarra no se volvería a llenar con la celeridad suficiente como para satisfacer a sus sedientos invitados (y ya sabemos que no vale la pena guardar la cerveza, ya que La cerveza pasada pierde sabor). Todos tendemos a no considerar todos estos aspectos cuando nos cuentan un chiste, lo cual explica en parte que los chistes funcionen. ¿Es suficiente con esto?
Esta conversación no es particularmente deslumbrante, pero supongamos que con ella bastó para engañar al juez. Ahora se nos invita a imaginar que es el programa que Searle está simulando manualmente quien compone todos estos discursos de la HC. ¿Difícil? Por supuesto, pero dado que Searle estipula que el programa supera el test de Turing, y dado que este nivel de virtuosismo conversacional sin duda estaría dentro de sus capacidades, a menos que intentemos imaginar toda la complejidad de un programa capaz de generar una conversación como aquella, no estaremos siguiendo las instrucciones. Asimismo, es evidente que debemos imaginar que Searle no tiene ni el más mínimo indicio de lo que está haciendo en La Habitación China; él solo ve ceros y unos que manipula de acuerdo con el programa. Es importante, por cierto, que Searle nos invite a imaginar que lo que él manipula son incomprensibles caracteres chinos en vez de ceros y unos, ya que ello puede llevarnos a suponer (sin fundamento) que el programa gigante funciona por un simple proceso de «hacer coincidir» los caracteres chinos de entrada con los caracteres chinos de salida. Ningún programa así funcionaría, evidentemente; ¿acaso los discursos en inglés de la HC «coinciden» con las preguntas del juez?
Un programa que realmente pudiera generar los discursos de la HC en respuesta a las preguntas del J tendría más o menos esta apariencia (visto desde el nivel de la máquina virtual, pero no desde el nivel más básico en que se encuentra Searle). Al analizar las primeras palabras, «¿Sabe usted aquel…?», se activarían algunos de los demonios para la detección de chistes del programa, lo cual pondría en funcionamiento toda una serie de estrategias para tratar con ficciones, lenguaje «con segundas», y cosas parecidas, de modo que al analizar las palabras «lámpara maravillosa», el programa ya habría dado una prioridad muy baja a todas las respuestas con la función de hacer notar que las lámparas maravillosas no existen. Se activaría una serie de marcos (Minsky, 1975) o guiones (Schank y Abelson, 1977) acerca de chistes con un genio, creando así diversas expectativas sobre posibles continuaciones, las cuales no se verían satisfechas, finalmente, a causa del desenlace de la historia, que invocaría un guión más mundano (el guión para «pedir una segunda ronda»), aunque lo inesperado de esta situación no se perdería en el programa (…). Al mismo tiempo, los demonios sensibles a las connotaciones negativas de los chistes racistas también se verían alertados, lo cual motivaría las palabras pronunciadas por la HC en su primera respuesta(…). Así, sucesivamente, con mucha más complejidad de la que yo he podido reflejar aquí en este pequeño esbozo.
Lo cierto es que cualquier programa capaz de mantener una conversación como la que reprodujimos más arriba dispondría de un sistema extraordinariamente flexible y con muchos niveles, rebosante de «conocimiento del mundo», de metaconocimiento y de metametaconocimiento sobre sus propias respuestas, las posibles respuestas de su interlocutor, sus propias «motivaciones», las motivaciones de su interlocutor y mucho, mucho más. Searle no niega que los programas puedan tener una estructura como esta, claro está. Simplemente nos invita a no tenerlo en cuenta. Sin embargo, si tenemos que hacer un buen ejercicio de imaginación con este caso, no sólo tenemos que intentarlo: estamos obligados a imaginarnos que el programa que Searle está simulando manualmente tiene toda esa estructura y mucha más, si es que podemos. Pero, entonces, ya no es tan obvio que no se produzca la comprensión del chiste que se ha contado. Quizá los miles de millones de acciones ejecutadas por todas esas partes perfectamente estructuradas produzcan, después de todo, un genuino entendimiento en el sistema. Si su respuesta ante esta hipótesis es que no tiene ni la más remota idea de si habría entendimiento o no en un sistema tan complejo, ello es suficiente para demostrar que el experimento mental de Searle depende, ilícitamente, de que usted imagine un caso demasiado simple, un caso irrelevante, y de que saque usted una conclusión «obvia».
Así es como se produce el engaño a la imaginación. Vemos claramente que si hubiera entendimiento en un sistema gigante como este, no sería el entendimiento de Searle (pues él no es más que un engranaje dentro de la maquinaria, completamente ignorante del contexto de lo que está haciendo). También vemos claramente que no hay ni el más remoto indicio de entendimiento en cualquier pedazo de programa que sea lo bastante pequeño como para imaginarlo; sea lo que sea, no es más que un estúpido mecanismo que transforma cadenas de símbolos en otras cadenas de símbolos de acuerdo con una receta sintáctica o mecánica. Y es aquí donde hay que rescatar la premisa que se suprime de forma implícita: seguramente, más de lo mismo, no importa cuánto más, nunca conseguirá que se produzca un genuino entendimiento. Pero ¿por qué debemos aceptar esto como cierto? Los dualistas cartesianos lo aceptarían, porque piensan que ni siquiera los cerebros humanos son capaces de generar entendimiento por sí mismos; según la visión cartesiana, se necesita de un alma inmaterial para producir el milagro del entendimiento. Si por otra parte nos consideramos materialistas, convencidos de que de un modo u otro nuestros cerebros son los únicos responsables de sí mismos, sin necesidad de ninguna ayuda milagrosa, debemos admitir que el verdadero entendimiento se produce por un proceso compuesto de interacciones entre una serie de subsistemas que por sí solos no poseen entendimiento. El argumento que empieza diciendo «este poquito de actividad cerebral no entiende el chino, y tampoco lo entiende este poco más…», está condenado a llegar a la conclusión no deseada de que ni siquiera la actividad de todo el cerebro es suficiente para comprender el chino. Es muy difícil imaginar cómo es posible que «más de lo mismo» pueda resultar en entendimiento, pero tenemos buenas razones para suponer que efectivamente es así, de modo que, en este caso, tenemos que redoblar nuestros esfuerzos, no abandonar.
¿Cómo podemos redoblar nuestros esfuerzos? Con la ayuda de algunos conceptos útiles: el concepto del software de nivel intermedio que fue diseñado por los informáticos precisamente para ayudarnos a seguir lo que en caso contrario serían las complejidades inimaginables de sistemas muy grandes. En los niveles intermedios vemos muchas entidades que son invisibles en niveles más microscópicos tales como los «demonios» a que aludíamos más arriba, a los cuales se les atribuye un módico cuasientendimiento. Así, no es tan difícil llegar a imaginarse cómo es posible que «más de lo mismo» pueda producir un genuino entendimiento. Todos estos demonios y las demás entidades están organizados en un sistema enorme, cuyas actividades se organizan alrededor de su propio centro de gravedad narrativa. Searle, trabajando en la Habitación China, no entiende el chino, pero no está solo en la habitación. También está el sistema, la HC, y es a este yo al que debemos atribuir la comprensión del chiste.
Esta respuesta al ejemplo de Searle es lo que él ha bautizado con el nombre de respuesta de los sistemas. Es la misma respuesta que los investigadores en IA han venido dando desde que se propuso por primera vez este experimento, hace ya más de una década, pero rara vez se ha sabido apreciar su valor fuera de los límites de la IA. ¿Por qué? Probablemente porque aquellos que no lo han sabido apreciar tampoco han aprendido a imaginar un sistema así. No pueden imaginar cómo es posible que el entendimiento sea una propiedad que emerge a partir una cantidad inmensa de cuasientendimientos distribuidos en un sistema muy grande. Sin duda no podrán si no lo intentan, pero ¿qué ayuda podemos prestarles en este ejercicio tan difícil? ¿Es acaso «hacer trampas» el pensar en el software como algo que se compone de homúnculos que casi comprenden, o es precisamente el tipo de ayuda que se necesita para que la imaginación pueda tratar con esa complejidad astronómica? Searle comete una falacia. Nos invita a imaginar que el programa gigante posee una arquitectura muy simple consistente en consultar una tabla y en emparejar secuencias de caracteres chinos con otras secuencias del mismo tipo, como si algo así pudiera ser considerado como un programa. No tenemos que molestarnos en imaginar un programa tan simple ni en asumir que este es el programa que Searle está simulando, ya que ningún programa como este sería capaz de producir los resultados que le permitirían superar el test de Turing, como se nos dice. (Para un argumento similar y su refutación, véase Block, 1982; y Dennett, 1985a).
La complejidad es relevante. Si no lo fuera, dispondríamos de un argumento mucho más simple en contra de la IA fuerte: «Esta calculadora de bolsillo no entiende el chino, y cualquier ordenador que podamos concebir no es más que una calculadora gigante, de modo que ningún ordenador puede entender el chino. Q.E.D.», Cuando tenemos en cuenta la complejidad, como debe ser, tenemos que tenerla realmente en cuenta, y no sólo hacer ver que la estamos teniendo en cuenta. Esto es difícil de hacer, pero hasta que no lo hagamos, cualquier intuición que tengamos sobre lo que es «obvio» que no está presente no debe ser tenida en cuenta. Como en el caso del experimento que nos propone Frank Jackson sobre Mary, la investigadora del color, el experimento mental de Searle nos lleva a una fuerte y clara convicción sólo si no seguimos las instrucciones. Estas bombas de intuición son defectuosas; no sirven para dirigir nuestra imaginación, sino para desorientarla.
¿Qué ocurre entonces con mis propias bombas de intuición? ¿Qué decir de Shakey el robot, o del CADBLIND Mark II, o del paciente con visión ciega entrenado en el biofeedback, por ejemplo? ¿No son también sospechosos y culpables de desorientar al lector? He puesto mucho cuidado en contar estas historias a fin de dirigir su imaginación en ciertas direcciones y para evitar que usted se enzarzara con complejidades que me parecían innecesarias para presentar las ideas que pretendía ilustrar. Existe, no obstante, una asimetría: mis bombas de intuición pretenden, en gran medida, ayudarle a imaginar nuevas posibilidades, y no convencerle de que ciertas perspectivas son imposibles. Hay excepciones. Mi variante sobre el tema del cerebro en un tarro con el que empezaba el libro fue diseñada con la idea de hacerle ver que ciertas formas de engaño son imposibles, y algunos de los experimentos mentales del capítulo 5 pretendían demostrar que, a menos que exista un Teatro Cartesiano, no puede existir un hecho determinante que permita distinguir una revisión de contenido de tipo orwelliano de otra de tipo estaliniano. Estos experimentos mentales procedían, sin embargo, clarificando primero la postura de la «oposición»; los ejemplos de la mujer con sombrero en la fiesta y la mujer del pelo largo con gafas, por ejemplo, se diseñaron para clarificar la intuición que después intenté desacreditar con mi argumentación.
Sin embargo, que sea precavido el lector: mis bombas de intuición, como las de cualquier otro, no son las simples demostraciones que parecen ser; tienen más de arte que de ciencia. (Para algunas advertencias más sobre los experimentos mentales de los filósofos, véase Wilkes, 1988). Si nos ayudan a concebir nuevas posibilidades, que podamos confirmar después recurriendo a métodos más sistemáticos, entonces es un logro; si, por el contrario, hacen que nos adentremos por un incierto camino de rosas, entonces es una pena. Incluso las mejores herramientas pueden utilizarse mal, y como cualquier trabajador, mejor será que comprendamos bien cómo funcionan las nuestras.
El experimento mental sobre la conciencia más ampliamente citado y que más influencia ha ejercido en los más variados círculos es el experimento de Thomas Nagel sobre «¿Qué se siente al ser un murciélago?» («What is it like to be a bat?», 1974). Nagel responde a la pregunta del título afirmando que para nosotros es totalmente imposible imaginar algo así. Aparentemente, muchos simpatizan con esta conclusión; no es raro ver citado este artículo en trabajos científicos como si fuera una gran rareza, un «resultado» filosófico, la demostración de un hecho que toda teoría debe incorporar.
Nagel supo escoger muy bien las criaturas que iban a ser objeto de su reflexión. Los murciélagos, como mamíferos, se parecen lo bastante a nosotros como para que exista la convicción de que sin duda son conscientes. (Si hubiera escrito «¿Qué se siente al ser una araña?», muchos se habrían sentido con el derecho de preguntarle qué le hacía pensar que realmente se sentía algo al ser una araña). Pero gracias a su sistema de ecolocalización —los murciélagos pueden «ver con sus oídos»— también son lo bastante diferentes de nosotros como para que todos podamos percibir la enorme distancia que nos separa de ellos. Si hubiera escrito un artículo titulado «¿Qué se siente al ser un chimpancé?» o, mejor, «¿Qué se siente al ser un gato?», la opinión de que su resultado tan pesimista es obvio no habría sido tan unánime. Hay muchas personas que están completamente convencidas de que saben exactamente lo que se siente al ser un gato. (Esas personas están equivocadas, por supuesto, a menos que hayan complementado todo su amor y toda su simpatía al observar a los gatos con buenas dosis de investigación psicológica, aunque, en cualquier caso, según Nagel, estarían pecando por exceso de confianza en estas herramientas de investigación).
Para bien o para mal, la mayoría de las personas no tienen ningún problema en aceptar el «resultado» de Nagel en cuanto a nuestra incapacidad de acceder a la conciencia de un murciélago. Algunos filósofos, sin embargo, lo han puesto en duda, y con razón (Hofstadter, 1981b; Hardin, 1988; Leiber, 1988; Akins, 1990). En primer lugar, es preciso aclarar de qué resultado se trata. No es la afirmación epistemológica o empírica de que si alguien consiguiera («por accidente») imaginar lo que se siente al ser un murciélago, nunca sería capaz de confirmar que había conseguido realizar esa proeza imaginativa. Consiste, por el contrario, en decir que los seres humanos no disponemos, ni nunca podremos disponer, de los recursos, los mecanismos de representación, para representarnos a nosotros mismos lo que se siente al ser un murciélago.
La distinción es importante. En el capítulo 12 nos ejercitamos en realizar la proeza de imaginar lo que se debió sentir al ser un ciudadano de Leipzig escuchando una de las cantatas de Bach por primera vez. El problema epistemológico es complejo, pero fácil de abordar mediante los métodos normales de investigación. El imaginar exactamente qué tipo de experiencias habría tenido, y en qué medida diferirían de nuestras propias experiencias sobre Bach, es una mera cuestión de investigación histórica, cultural, psicológica y, quizá, fisiológica. Podemos imaginarnos algo de esto con cierta facilidad, incluidas algunas de las diferencias más sorprendentes con nuestra propia experiencia, pero si intentáramos colocamos en la propia secuencia de estados de experiencia de los que disfrutaría una persona así, nuestras ganancias disminuirían notablemente. Una tarea de este calibre exigiría que sufriésemos transformaciones radicales, olvidando la mayor parte de nuestros conocimientos, perdiendo asociaciones y hábitos, y adquiriendo nuevos hábitos y asociaciones. Podemos utilizar nuestro método de investigación de la «tercera persona» para determinar cuáles deberían ser dichas transformaciones, pero someternos a ellas comportaría unos costes excesivos en cuanto a aislamiento de nuestra cultura contemporánea: sin escuchar la radio, ni leer sobre los desarrollos políticos y sociales posteriores a Bach, etc. No es necesario llegar a estos extremos para aprender sobre la conciencia de un ciudadano de Leipzig.
Lo mismo vale para imaginarse lo que se siente al ser un murciélago. Deberíamos interesarnos por lo que podemos aprender sobre la conciencia del murciélago (si es que la tiene), y no sobre si podemos convertir nuestras mentes temporal o permanentemente en mentes de murciélago. En el capítulo 12 socavamos el supuesto de que hay propiedades «intrínsecas» —los qualia— que constituyen lo que se siente al tener una u otra experiencia consciente y, como ha señalado Akins (1990), incluso si hubiera propiedades residuales de experiencia de murciélago, no disposicionales y no relaciónales, llegar a tener un conocimiento íntimo de estas, aun permaneciendo ignorantes de los hechos investigables sobre la estructura sistemática de la conducta y la percepción del murciélago, nos dejaría en el más profundo desconocimiento sobre lo que se siente al ser un murciélago. Hay bastantes cosas que podemos llegar a conocer sobre lo que se siente al ser un murciélago, y ni Nagel ni ningún otro nos han demostrado que haya algo particularmente interesante o teóricamente relevante que nos sea inaccesible.
Nagel afirma que ningún conocimiento adquirido desde la perspectiva de la tercera persona podrá decirnos nada sobre lo que se siente al ser un murciélago, y yo niego rotundamente esta afirmación. ¿Cómo podemos dirimir esta disputa? Pues participando en algo que empieza como un juego de niños, un juego en el que una persona imagina lo que se siente al ser x, y la otra intenta demostrar que hay algo incorrecto en ese particular ejercicio de heterofenomenología. Aquí tenemos unos simples ejercicios para ir entrando en calor:
«A: Este es Pooh, el osito de peluche, pensando que le gustaría desayunar un poco de miel».
«B: Mal. Un osito de peluche no tiene la capacidad de distinguir la miel de ninguna otra cosa. No tiene órganos sensoriales que funcionen, ni tampoco tiene estómago. El osito está relleno de materia inerte. No se siente nada al ser un osito de peluche.»
«A: Este es Bambi, el cervatillo, admirando una hermosa puesta de sol, hasta que, de repente, el tono anaranjado del cielo le recuerda la chaqueta del malvado cazador.»
«B: Mal. Los ciervos son ciegos al color (bueno, quizá tengan una especie de visión dicromática). De entre todas las cosas de que los ciervos son conscientes (si es que son conscientes de algo), no se encuentra la posibilidad de distinguir colores como el naranja.» «A: Este es Billy, el murciélago, percibiendo, con su especial sistema de sonar, que el objeto volador que está descendiendo hacia él no es su primo Bob, sino un águila con las alas extendidas y las garras prestas para atacar.»
«B: Un momento, ¿a qué distancia has dicho que estaba el águila? La ecolocalización de los murciélagos sólo funciona a unos pocos metros.» «A: Hmmm, bueno, pues… ¡el águila está a tan sólo dos metros!» «B: Ah, pues ahora resulta difícil decirlo. ¿Cuáles son los límites de resolución exactos de la ecolocalización de los murciélagos? ¿Se utiliza para identificar objetos, o sólo como sistema de alerta y de seguimiento para cazar? ¿Sería capaz un murciélago de distinguir unas alas extendidas de unas alas cerradas mediante la ecolocalización? Lo dudo, pero tendremos que diseñar nuevos experimentos para descubrirlo y también, claro está, algunos experimentos para descubrir si los murciélagos son capaces de seguir, e identificar, a sus parientes. Algunos mamíferos pueden hacerlo, mientras que tenemos los suficientes motivos para creer que otros son totalmente insensibles a estas cuestiones.»
El tipo de investigación que sugieren estos ejercicios nos permitiría llegar bastante lejos en una explicación de la estructura del mundo perceptivo y comportamental de los murciélagos, de modo que podríamos ordenar las narraciones heterofenomenológicas en función de su realismo, descartando aquellas que atribuyeran o presupusieran talentos discriminativos o disposiciones reactivas que se puede demostrar que no forman parte de la ecóloga ni de la neurofisiología del murciélago. Aprenderíamos, por ejemplo, que los murciélagos no se ven perturbados por los chillidos que emiten para producir sus ecos, porque poseen un músculo que les tapa los oídos en perfecta sincronía con la emisión de los chillidos, no muy distinto de los dispositivos que evitan que los sistemas de radar más sensibles se vean perturbados por las señales que emiten. Se han llevado a cabo numerosas investigaciones en este terreno, y podemos decir mucho más, por ejemplo sobre por qué los murciélagos emiten chillidos con diferentes frecuencias, en función de si están buscando una presa, aproximándose a su objetivo, o están a punto de capturarla (Akins, 1989, 1990).
Cuando hemos conseguido elaborar un relato heterofenomenológico que ningún crítico será capaz de refutar, deberemos aceptarlo —provisionalmente, a la espera de que se realicen nuevos descubrimientos— como relaciones precisas sobre lo que se siente al ser la criatura en cuestión. Así es, después de todo, como nos tratamos los unos a los otros. Al recomendar que tratemos del mismo modo a los murciélagos y a otros candidatos para la interpretación, no estoy trasladando el peso de la prueba, sino ampliando el peso de la prueba normal, humana, a otras entidades.
Podríamos utilizar estas investigaciones para desmitificar todo tipo de ilusiones románticas sobre la conciencia de los murciélagos. Sabemos que el delicioso libro para niños de Randall Jarrell, The Bat-Poet (1963) [«El murciélago poeta»], es una fantasía, porque sabemos que los murciélagos no hablan. Algunas afirmaciones fantásticas nada evidentes sobre su fenomenología sucumben ante hechos aún menos evidentes, pero conocidos, sobre su fisiología y su conducta. Estas investigaciones nos enseñarían muchas cosas sobre de qué puede y de qué no puede ser consciente un murciélago bajo condiciones diversas, mostrándonos con qué recursos cuenta su sistema nervioso para representar esto o aquello, y verificando experimentalmente si el murciélago utilizó la información para modular su conducta. Resulta difícil imaginar la abundante información que podemos acumular con estas investigaciones hasta que uno ha empezado a llevarlas a cabo. (Para una investigación preliminar sorprendentemente detallada sobre lo que se siente al ser un mono verde, por ejemplo, véase Cheney y Seyfarth, How Monkeys See the World, 1990.)
Llegados a este punto, es lícito plantear la siguiente objeción: estas observaciones nos enseñarían mucho sobre la organización cerebral y el procesamiento de la información en el murciélago, lo cual nos mostraría simplemente de qué no son conscientes los murciélagos, dejando completamente abierta la cuestión sobre de qué son conscientes los murciélagos, si es que son conscientes de algo. Como es bien sabido, una gran parte del procesamiento de la información en los sistemas nerviosos es completamente inconsciente, de modo que estos métodos de investigación no nos permitirían rechazar la hipótesis de que los murciélagos son… zombies voladores, ¡y de que no se sentiría nada al ser criaturas como estas! (Wilkes, 1988, pág. 224, se pregunta qué ocurriría si la ecolocalización de los murciélagos fuera una especie de visión ciega, que no produce ningún efecto subjetivo).
Ay, que el murciélago está tirando de la manta. Este parece ser el mal cariz que está tomando nuestra discusión, y debemos intentar corregirlo. Richard Dawkins (1986), en un clarificador examen del diseño de la ecolocalización en los murciélagos de herradura (Rhinolophidae), nos presenta una clara versión de la imagen que está empezando a surgir.
Los sistemas de radar de la policía para detectar excesos de velocidad utilizan el efecto Doppler (…). Comparando La frecuencia de salida con la frecuencia del eco de retorno, La policía, o, mejor dicho, su instrumental automático [la cursiva es mía), puede calcular la velocidad de los coches (…). Comparando el tono de su chillido con el tono del eco de retorno, por tanto, el murciélago (o, mejor dicho, su ordenador de abordo en el cerebro) [la cursiva es mía) podría, en teoría, calcular a qué velocidad está volando hacia el árbol (pág. 30-31).
Resulta tentador preguntarse: ¿hay algo en el murciélago que esté situado en relación a su «ordenador de abordo» (el cual opera sin una brizna de conciencia) del mismo modo que los policías están situados en relación a su «dispositivo automático»? Los policías no tienen que calcular el efecto Doppler conscientemente, pero tienen que experimentar, conscientemente, la lectura de su dispositivo que dice, en brillantes símbolos de LED: «150 km/h». Este es el dato que les hace saltar sobre sus motocicletas y poner en marcha sus sirenas. Es plausible suponer, por tanto, que el murciélago tampoco tiene que calcular conscientemente el efecto Doppler —su ordenador de abordo se ocupa de ello—, pero ¿no queda nada en el murciélago que pueda asumir el papel del policía, un testigo capaz de apreciar (conscientemente) la «información de salida» del ordenador de análisis del efecto Doppler del murciélago? Nótese que podríamos sustituir fácilmente los agentes de policía por un dispositivo automático que registrara la matrícula del vehículo infractor, comprobara el nombre y dirección del propietario y le enviara la multa. No hay nada de especial en la tarea que llevan a cabo los policías que indique que no pudiera efectuarse sin que algo fuese experimentado. El mismo argumento vale, aparentemente, para el murciélago. Un murciélago podría ser un zombie. Sería un zombie —o esto es, cuando menos, lo que esta línea de argumentación sugiere— a menos que hubiese un observador interno que reaccionase a la presentación interna de un modo parecido acornó reaccionan los agentes a las luces rojas de sus instrumentos.
No caigamos en la trampa. Esta es nuestra vieja némesis, la audiencia del Teatro Cartesiano. Nuestra conciencia no depende del hecho de que nuestro cerebro esté habitado por un agente interno para quien el cerebro prepara presentaciones, así que nuestra incapacidad de hallar un agente central en el cerebro del murciélago no altera nuestra atribución de conciencia, o nuestra afirmación de que somos capaces de decir cómo es su conciencia. Para comprender la conciencia de un murciélago, simplemente tenemos que aplicar al murciélago los mismos principios que nos aplicamos a nosotros mismos.
¿Pero qué podría hacer entonces un murciélago, que fuese lo bastante especial como para convencernos de que estamos en presencia de una conciencia genuina? Parece que, por muchos utilizadores de información de entrada que situemos ante el traductor Doppler del murciélago, nunca habría una razón de la «tercera persona», desde el exterior, lo bastante convincente como para atribuir experiencia consciente al murciélago. No es cierto. Si el murciélago pudiese hablar, por ejemplo, generaría un texto a partir del cual podríamos originar un mundo heterofenomenológico, lo cual nos proporcionaría el mismo fundamento para atribuirle conciencia a un murciélago que a una persona. Pero, como ya hemos dicho, los murciélagos no hablan. Sí pueden, sin embargo, mostrar ciertas conductas no verbales, las cuales bastan para sentar unas bases claras para describir su mundo heterofenomenológico o, como lo denominó von Uexkill (1909), el pionero en estas investigaciones, su Umwelt und Innenwelt, su mundo del entorno y su mundo interior.
La heterofenomenología sin texto no es imposible, sólo más difícil (Dennett, 1988a, 1988b, 1989a, 1989b). Una rama de la heterofenomenología animal es conocida con el nombre de etología cognitiva, el intento de modelar las mentes animales estudiando su conducta sobre el terreno y experimentando con ella. Hallamos una buena muestra de las posibilidades y dificultades con que se encuentra este tipo de investigación en Cheney y Seyfarth (1990), Whiten y Byrne (1988), y en Ristau (1991), un volumen de homenaje dedicado a Donald Griffin, el pionero en la investigación de la ecolocalización de los murciélagos y el creador del campo de la etología cognitiva. Una de las más frustantes dificultades con que se encuentran estos investigadores es que muchos de los experimentos que se le podrían ocurrir a uno resultan ser totalmente inútiles ante la ausencia de lenguaje; no se puede preparar a los sujetos (y saber que han sido preparados) sin conversar con ellos, como sería necesario para llevar a cabo uno de estos experimentos (Dennett, 1988a).
Este no es solamente un problema epistemológico para el heterofenomenólogo; la dificultad misma de crear las circunstancias experimentales necesarias en el entorno natural demuestra algo mucho más fundamental sobre la mente de las criaturas sin lenguaje. Demuestra que las situaciones ecológicas de estos animales nunca les han proporcionado las oportunidades para el desarrollo (por evolución, por aprendizaje, o ambos) de muchas de las actividades mentales avanzadas que conforman nuestras mentes, de modo que podemos estar completamente seguros de que nunca llegaron a desarrollarlas. Por ejemplo, considérese el concepto de secreto. Un secreto no es solamente algo que uno sabe y que los demás no saben. Para que uno pueda tener un secreto es preciso que sepa que los demás no lo saben y debe ser capaz de controlar este hecho. (Si usted es el primero que ve que se aproxima una estampida, puede que sepa algo que los demás no saben, pero no por mucho tiempo; usted no puede guardarse ese poquito de información secreta). La ecología comportamental de una especie tiene que estar estructurada de forma especial para que los secretos puedan jugar algún papel. Los antílopes, en sus manadas, no tienen secretos ni posibilidades de tenerlos. Por tanto, un antílope es tan incapaz de trazar un plan secreto como de contar hasta cien o de disfrutar de los colores de una puesta de sol. Los murciélagos, que se embarcan en incursiones relativamente solitarias en las que podrían ser capaces de reconocer su aislamiento de sus rivales, cumplen una de las condiciones necesarias para tener secretos. ¿Tienen también intereses a los que la explotación de esos secretos pudiera ser de alguna utilidad? (¿Qué podría hacer una almeja con un secreto? ¿Quedarse ahí, en la arena, riéndose sola?). ¿Tienen los murciélagos también hábitos de sigilosidad y engaño durante la caza que pudieran adaptarse para actividades de mantenimiento de secretos más elaborados? De hecho, hay muchas preguntas de este tipo que, una vez planteadas, sugieren nuevas vías de investigación y de experimentación. La estructura mental de un murciélago es tan accesible como la estructura de su sistema digestivo; el modo de investigar el uno o el otro consiste en pasar sistemáticamente de un análisis de su contenido a un análisis del mundo a partir del cual se deriva ese contenido, prestando atención a los métodos y los objetivos de la derivación.
Wittgenstein escribió una vez: «Si un león pudiera hablar, no podríamos entenderlo» (1953, pág. 223*). Yo pienso, por el contrario que, si un león pudiera hablar, ese león tendría una mente tan diferente de la de los demás leones, que, aunque pudiéramos comprenderlo perfectamente, de él aprenderíamos muy poco sobre los leones normales. El lenguaje, como vimos en los capítulos anteriores, juega un papel fundamental en la estructuración de la mente humana, y no puede considerarse que la mente de una criatura sin lenguaje —y que, además, no necesita el lenguaje— esté estructurada de esa manera. ¿Significa esto que los animales sin lenguaje «no son conscientes» (como insistía Descartes)? Llegados a este punto, siempre surge esta pregunta como una especie de desafío de los incrédulos, pero no debemos sentimos obligados a responderla tal como está planteada. Nótese que presupone una idea cuya influencia hemos intentado evitar: el supuesto de que la conciencia es una propiedad especial de todo o nada que divide el universo en dos categorías totalmente distintas: las cosas que la tienen (se siente algo al ser esas cosas, como diría Nagel) y las cosas que no la tienen. Ni siquiera en nuestro caso podemos trazar una línea que separe nuestros estados mentales conscientes de nuestros estados mentales inconscientes. La teoría de la conciencia que hemos esbozado permite un margen de variación en cuanto a la arquitectura funcional, y, pese a que la presencia del lenguaje conlleva un notable crecimiento del poder imaginativo, la versatilidad, el autocontrol (por mencionar sólo algunos de los poderes más evidentes de la máquina virtual joyceana), estos poderes no tienen el poder adicional de encender una luz interna especial que, en caso contrario, estaría apagada.
Cuando nos imaginamos lo que se siente al ser una criatura sin lenguaje empezamos, naturalmente, a partir de nuestra propia experiencia, de modo que la mayor parte de las cosas que nos vienen a la mente deben seguir un proceso de reajuste (generalmente hacia menos). El tipo de conciencia que poseen estos animales, comparada con la nuestra, está radicalmente impedida. Un murciélago, por ejemplo, no sólo no puede preguntarse si hoy es viernes; ni siquiera puede preguntarse si es un murciélago; el acto de preguntarse no juega ningún papel en su estructura cognitiva. Aunque un murciélago, e incluso la simple langosta, tiene un yo biológico, no tiene un yo egoico del que hablar; no tiene un centro de gravedad narrativa o, si lo tiene, no es lo bastante relevante. No hay palabras en la punta de la lengua, pero tampoco lamentaciones, ni complejos anhelos, ni recuerdos nostálgicos, ni grandes planes, ni reflexiones sobre lo que se siente al ser un gato, ni siquiera sobre lo que se siente al ser un murciélago. Esta lista de rechazos no sería más que una muestra de escepticismo barato si no poseyéramos una teoría empírica positiva sobre la que basarlos. ¿Estoy afirmando haber probado que los murciélagos no podrían poseer estos estados mentales? No, pero tampoco puedo probar que las setas no podrían ser naves intergalácticas que nos espían.
¿No es acaso un terrible prejuicio antropocéntrico? Además, ¿qué decir de los sordomudos? ¿Son conscientes? Por supuesto que lo son; pero no saquemos conclusiones precipitadas sobre su conciencia, fruto de una simpatía mal dirigida. Cuando un sordomudo adquiere el lenguaje (el lenguaje de signos, que es el lenguaje más natural que puede aprender un sordomudo), nace una mente humana completa, claramente distinta de la mente de una persona que pueda oír, pero con la misma capacidad de producir complejas reflexiones y con el mismo poder generativo, incluso más. Pero sin un lenguaje natural, la mente de un sordomudo queda terriblemente empobrecida. (Véase Sacks, 1989, especialmente su bibliografía comentada). Como señala el filósofo Ian Hacking (1990) en su reseña del libro de Sacks, «se necesita una imaginación muy viva para hacerse una idea de aquello de que carece un niño sordo». No hacemos ningún favor a los sordomudos al imaginar que, en la ausencia de lenguaje, disfrutan de todas las delicias mentales de que disfrutamos nosotros los humanos que podemos oír, ni se lo hacemos a los animales no humanos al intentar ocultar los hechos patentes sobre las limitaciones de sus mentes.
Y todo esto, como muchos de ustedes están impacientes por señalar, es un subtexto que ha estado luchando desde hace tiempo por salir a la superficie: muchas personas temen una explicación de la conciencia porque temen que, si llegamos a explicarla, perderemos nuestros valores morales. Quizá podamos imaginar un robot consciente (o la conciencia de un murciélago), pero no deberíamos intentarlo, piensan. Si adoptamos esa mala costumbre, empezaremos a tratar a los animales como si fueran juguetes de cuerda, a los bebés y a los sordomudos como si fueran ositos de peluche y —llegando al colmo del insulto y la injuria— a los robots como si fueran personas de verdad.
Tomo prestado el título de este apartado de un artículo de Marian Stamp Dawkins (1987), quien ha llevado a cabo cuidadosas investigaciones sobre las implicaciones morales de la heterofenomenología animal. (Sus primeros trabajos aparecen reseñados en su libro Animal Suffering: The Science o Animal Welfare, 1980). Como observa Dawkins, nuestras actitudes morales hacia los animales están plagadas de incoherencias.
No tenemos más que pensar en diversos animales para mostrar nuestras incoherencias. Se organizan manifestaciones en contra de las matanzas de bebés foca, pero no se organizan en contra de las matanzas de ratas. Muchas personas que no tienen ningún problema en comer cerdo o cordero se horrorizan ante la idea de comer perro o caballo (pág. 150).
Dawkins señala que hay dos perspectivas distintas dentro de todo este embrollo: la capacidad de razonamiento y la capacidad de sufrimiento. Descartes insistió mucho en la incapacidad de razonar (cuando menos, de razonar del mismo modo que lo hacen los humanos) de los animales no humanos, lo cual provocó una famosa respuesta por parte del filósofo utilitarista británico Jeremy Bentham: «Un perro o un caballo adulto son, sin punto de comparación, animales mucho más racionales y con los que es más fácil conversar que un bebé de un día, una semana o incluso un mes. Pero supongamos que fuese al contrario, ¿qué importancia tendría? La pregunta no es si pueden razonar, ni tampoco si pueden hablar, sino ¿pueden sufrir?» (Bentham, 1789). Aparentemente, estas son posturas morales opuestas, pero según argumenta Dawkins, «otorgar un valor ético a la capacidad de sufrimiento nos llevará eventualmente a valorar los animales que son inteligentes. Aun cuando empezáramos rechazando el criterio del razonamiento propuesto por Descartes, lo más probable es que sean los animales con capacidad de razonamiento los que posean una capacidad de sufrimiento» (pág. 153).
Los motivos de esta idea están implícitos en la teoría de la conciencia que hemos desarrollado. El sufrimiento no consiste en verse atacado por un estado inefable intrínsecamente malo, sino en ver arruinados las propias esperanzas, planes y proyectos de vida por circunstancias impuestas sobre nuestros deseos, frustrando nuestras intenciones, sean estas cuales sean. La idea de que el sufrimiento es algo explicable por la presencia de una determinada propiedad intrínseca —el horror, por ejemplo— tiene tan poco fundamento como la idea de explicar la diversión por la presencia de una hilaridad intrínseca. Así pues, la presunta inaccesibilidad, el desconocimiento último, del sufrimiento del otro es algo tan engañoso como las fantasías sobre los qualia intrínsecos que desenmascaramos anteriormente, aunque mucho más pernicioso. Se deduce, por tanto —lo cual enciende una luz en nuestra intuición— que la capacidad de sufrimiento está en función de la capacidad de poseer unos sistemas articulados de deseos, expectativas y otros estados mentales complejos a largo plazo y con un alto poder discriminativo.
Los seres humanos no son las únicas criaturas con la inteligencia suficiente como para sufrir; el perro y el caballo de Bentham muestran con su comportamiento que poseen la suficiente complejidad mental como para distingir, e interesarse por, un amplio espectro de dolores y otras imposiciones que no son negligibles, aun cuando el abanico de posibilidades es menor comparado con las posibilidades del sufrimiento humano. Otros mamíferos, particularmente los simios, los elefantes y los delfines, parecen poseer una gama mucho más amplia.
Como compensación por tener que soportar tanto sufrimiento, las criaturas inteligentes son también las que más se divierten. Se necesita una economía cognitiva con un presupuesto suficiente para la exploración y la auto-estimulación a fin de definir el espacio de deseos derivados recursivamente que hace posible la diversión. Se habrá dado el primer paso cuando la arquitectura disponible permita apreciar el significado de «¡para ya, que me encanta!». Versiones superficiales de este poder constructivo se manifiestan en algunas especies superiores, pero se necesita una imaginación exuberante, y un cierto tiempo de ocio —algo que la mayoría de las especies no se puede permitir—, para desarrollar una amplia gama de placeres. Cuanto mayor sea el alcance, mayor será el detalle; cuanto mayor sea el poder discriminativo de los deseos, peor será cuando estos se vean frustrados.
Pero ¿qué importancia puede tener, se preguntará usted, que los deseos de una criatura se vean frustrados si no son deseos conscientes? Mi respuesta: ¿por qué debería ser más importante si fueran conscientes, especialmente si la conciencia fuese, como muchos piensan, una propiedad que siempre escapará a todo intento de investigarla? ¿Por qué deberían ser las esperanzas frustradas de un «zombie» menos importantes que las esperanzas frustradas de una persona consciente? Estamos ante un juego de espejos que es preciso descubrir y desmantelar. La conciencia, nos dicen, es lo que importa, pero después se aferran a doctrinas de la conciencia que nos impiden sistemáticamente llegar a comprender por qué es importante. Postular la existencia de unas cualidades interiores especiales que no sólo son privadas e intrínsecamente valorables, sino también inconfirmables e investigables no es más que puro oscurantismo.
Dawkins muestra de qué modo es posible explorar experimentalmente las diferencias investigables —las únicas diferencias que podrían tener alguna importancia—, y merece la pena comprobar hasta dónde podemos llegar incluso con experimentos muy simples con especies muy poco atractivas en principio.
Las gallinas criadas en libertad o en grandes corrales pasan mucho tiempo rascando el suelo, de modo que tuve la sospecha de que la falta de paja o arena en el suelo de las jaulas les podría causar algún sufrimiento. Sin dudarlo, cuando les ofrecí la oportunidad de escoger entre una jaula con el suelo de alambre y una con el suelo de paja y arena que les permitiera rascar, escogían la segunda jaula. De hecho, estaban dispuestas a entrar en una jaula diminuta (tan pequeña que apenas podían darse La vuelta) si así tenían acceso a un suelo de paja y arena. Incluso gallinas que siempre habían vivido enjaulas de alambre y que nunca habían tenido contacto con la paja y la arena escogían una jaula con suelo de paja y arena. Aunque estos resultados resultaban sugerentes, no había suficiente. Tenía que demostrar no sólo que las gallinas mostraban una preferencia por la paja y la arena, sino también que su preferencia era tan fuerte que nos permitiera afirmar que sufrían si se las privaba de ella.
Se ofreció entonces a las gallinas una elección ligeramente distinta. En esta ocasión tenían que escoger entre una jaula con suelo de alambre que contenía comida y agua y una jaula con suelo de paja y arena sin alimento ni agua (…). El resultado fue que pasaban mucho más tiempo en la jaula con suelo de paja y arena, y mucho menos en la jaula con suelo de alambre, aunque este era el único lugar donde podían comer y beber. A continuación se introdujo una nueva complicación. Las gallinas teman que «trabajar» para pasar de una jaula a otra. Tenían que saltar por un corredor o empujar una cortina de plástico negro. Ahora, pasar de una jaula a otra tenía un coste (…). Las gallinas seguían pasando el mismo tiempo en la jaula con suelo de alambre y con comida que antes cuando no había ninguna dificultad para acceder a ella. Sin embargo, apenas accedían a la jaula con suelo de paja y arena. Simplemente, no parecían estar preparadas para trabajar o para pagar un coste a fin de poder entrar en la jaula (…). Al contrario de lo que yo esperaba, las gallinas parecían estar diciendo que, en realidad, la paja y la arena no les importaban (págs. 157-159).
Dawkins concluye que «el sufrimiento por parte de una mente se muestra en animales que poseen una mente lo bastante racional como para hacer algo en cuanto a las condiciones que les hacen sufrir», y continúa señalando que «es también probable que los organismos sin la capacidad de hacer nada para apartarse de una fuente de peligro nunca desarrollarían la capacidad de sufrir. No habría ningún sentido evolutivo en un árbol que, mientras le van cortando las ramas, tuviese la capacidad de sufrir en silencio» (pág. 159). Como vimos en el capítulo 7 (véase también el capítulo 3, nota 9), es preciso ser muy cuidadoso al construir argumentos evolutivos sobre la función como estos. Sin embargo, en ausencia de datos positivos que avalen la imputación de sufrimiento, o de datos positivos que avalen la sospecha de que, por un motivo u otro, dichos datos permanecen ocultos, deberemos concluir que no hay tal sufrimiento. No debemos temer que esta regla tan austera nos lleva a faltar a nuestras obligaciones para con las demás criaturas. Nos proporcionan unas amplias bases para alcanzar conclusiones positivas: muchos animales, pero no todos, son capaces de mostrar una amplia gama de sufrimientos. Reconociendo estas diferencias de grado, podrá organizarse una defensa más persuasiva en favor de un tratamiento más humanitario, que promulgando caritativamente el insostenible dogma de la universalidad y la igualdad del sufrimiento animal.
Puede que esto resuelva el problema objetivo sobre la presencia o ausencia de sufrimiento, pero no resuelve el problema de los sentimientos morales afectados por la perspectiva de ver la conciencia explicada de manera tan descorazonadoramente mecanicista. Todavía hay mucho en litigio.
Poseo una granja en Maine, y estoy encantado de que haya osos y coyotes viviendo en mis bosques. Casi nunca los veo, y apenas percibo indicios de su presencia, pero me gusta saber que están ahí, y me sentiría muy infeliz si me enterara de que se han marchado. Tampoco me sentiría completamente compensado por la pérdida si uno ele mis amigos investigadores en IA me llenara los bosques de animales robot (aunque, bien pensado, la idea no deja de tener su encanto). Me importa que haya criaturas salvajes que descienden de criaturas salvajes, y que viven cerca de mí. Igualmente, me encanta que haya muchos conciertos en el área de Boston que ni siquiera escucho e, incluso, de cuya existencia ni siquiera llego a enterarme.
Estos hechos son de una naturaleza especial. Son hechos que nos parecen importantes simplemente porque una parte del entorno que nos importa es nuestro entorno de creencias. Y puesto que no es fácil que sigamos creyendo en proposiciones cuya evidencia se ha evaporado, nos importa que las creencias sean ciertas, aun cuando no dispongamos de ninguna evidencia directa que las confirme. Como cualquier parte del entorno, un entorno de creencias puede ser frágil, compuesto de partes que están interconectadas tanto por accidentes históricos como por vínculos bien diseñados. Considérese, por ejemplo, la delicada parte de nuestro entorno de creencias relacionado con la suerte de nuestros cuerpos después de la muerte. Muy pocos creen que el alma permanezca en el cuerpo después de la muerte, ni siquiera los que creen en el alma creen en algo así. Y sin embargo, muy pocos de nosotros toleraría una «reforma» que animara a la gente a envolver sus muertos en plástico y a tirarlos a la basura, o a utilizar cualquier otro procedimiento tan poco ceremonioso como este para deshacerse de ellos. ¿Por qué no? Sin duda no es porque creamos que los cadáveres puedan sufrir por un ataque a su dignidad. Un cadáver puede sufrir por su dignidad tanto como un tronco. Y sin embargo la idea es chocante, repulsiva. ¿Por qué?
Los motivos son complejos, pero podemos establecer algunos simples puntos. Una persona no es solamente un cuerpo; una persona tiene un cuerpo. Ese cadáver es el cuerpo del viejo y querido Jones, un centro de gravedad narrativa que debe su realidad tanto a nuestros esfuerzos conjuntos de mutua interpretación heterofenomenológica como a ese cuerpo que ahora yace ahí sin vida. Los límites de Jones no son idénticos a los límites del cuerpo de Jones, y los intereses de Jones, gracias a esa curiosa práctica humana de tejer un yo, pueden extenderse más allá de los intereses biológicos básicos que promovieron esa práctica. Tratamos a su cadáver con respeto porque es importante para la conservación del entorno de creencias en que todos nosotros vivimos. Si empezamos a tratar a los cadáveres como basura, por ejemplo, también podría cambiar la manera en que empecemos a tratar a los casi-cadáveres: aquellos que aún viven, pero están muriendo. Si no pecáramos por exceso en la prolongación de los rituales y las prácticas de respeto más allá del umbral de la muerte, el que muere (y los que se preocupan por él) se enfrentarían a una angustia, una afrenta, una posibilidad, que corre el riesgo de ofenderlos. Puede que tratar «mal» a un cadáver no dañe directamente a la persona muerta, y, sin duda, no daña al cadáver, pero si se convirtiera en práctica común y ello llegara a saberse (como así sería), se produciría un cambio significativo del entorno de creencias que rodea a la muerte. Las personas imaginarían los acontecimientos que seguirían a su fallecimiento de forma totalmente distinta a como los imaginamos ahora, lo cual sería bastante deprimente. Quizá sin motivo, pero ¿qué más da? Si las personas van a estar deprimidas, ese es motivo suficiente para adoptar una determinada política.
Así pues, existen razones de peso indirectas, pero aún estimables y legítimas, para seguir respetando a los cadáveres. No necesitamos ninguna mitología sobre algo especial que reside en los cadáveres que los convierte en entidades privilegiadas. Podría ser un mito útil para extenderlo entre los más ignorantes, pero sería de un paternalismo extremo el pensar que los que estamos mejor informados debemos conservar dichos mitos. Similarmente, existen muy buenos motivos para tratar a todos los animales con cuidado y con atención. Estos motivos son, en parte, independientes del hecho de que determinados animales sientan ciertos tipos de dolor. Dependen de modo más directo del hecho de que diversas creencias formen parte de nuestra cultura, y nos importan, tanto si deben importarnos como si no. Puesto que ahora son importantes, son importantes. Sin embargo, la racionalidad del entorno de creencias —el hecho de que las creencias estúpidas o sin fundamento tiendan a desaparecer a largo plazo, a pesar de la superstición— implica que las cosas que ahora importan no tienen por qué importar siempre.
Pero entonces, como anticipábamos en el capítulo 2, una teoría que ataque directamente al entorno de creencias general posee la capacidad de hacer un verdadero daño, de provocar sufrimiento (en las personas con una particular preocupación por los animales, por ejemplo, cualquier cosa que les ocurra a los animales es sufrimiento). ¿Significa esto que debemos abandonar todo intento de investigar estos asuntos por temor a abrir la caja de Pandora? Ello podría tener alguna justificación si pudiéramos convencernos de que nuestro entorno de creencias, basado en mitos o no, es, sin lugar a dudas, moralmente aceptable, pero me permito afirmar que está claro que no es así. Aquellos que están preocupados por los costes con que nos amenaza está ilustración que nadie ha pedido deberían tomarse la molestia de analizar los costes de los mitos actuales. ¿Realmente pensamos que aquello con lo que actualmente nos enfrentamos merece ser protegido con una especie de oscurantismo creativo? ¿Pensamos, por ejemplo, que es preciso dedicar recursos para conservar las imaginarias perspectivas de una posible vida mental renovada de las personas en estado de coma profundo, mientras no hay recursos para mejorar la situación desesperada, y muy real, de los más pobres? Los mitos sobre la santidad de la vida, o de la conciencia, son un arma de doble filo. Puede que sean útiles para levantar barreras (contra la eutanasia, contra la pena de muerte, contra el aborto, contra el comer carne) a fin de impresionar a los que no tienen imaginación, pero al precio de provocar una hipocresía ofensiva o un autoengaño ridículo entre los más ilustrados.
Las barreras absolutistas, como la línea Maginot, rara vez cumplen la función para la que fueron ideadas. La campaña que se organizó en contra del materialismo ya ha sucumbido ante su propio desconcierto, y la campaña en contra de la «IA fuerte», aunque igual de bienintencionada, sólo puede ofrecernos los más gastados modelos alternativos de la mente. Sin duda sería mejor intentar fomentar la estima por unas bases no absolutistas, no intrínsecas y no dicotomizadas de nuestras preocupaciones morales que pudiesen coexistir con nuestro creciente conocimiento del funcionamiento interno de la más fascinante de las máquinas, el cerebro. Los argumentos morales, esgrimidos por ambos bandos, sobre asuntos como la pena de muerte, el aborto, el comer carne y la experimentación con animales no humanos, por ejemplo, se situarán a un más alto nivel cuando rechacemos los mitos que no merecen ninguna protección.
Cuando aprendemos que la única diferencia entre el oro y la plata es el número de partículas subatómicas en sus átomos, puede que nos sintamos estafados o enfadados; esos físicos han eliminado algo: le han quitado el carácter dorado al oro; han suprimido el carácter plateado de la plata que tanto apreciamos. Y cuando explican de qué modo la reflexión y la absorción de las radiaciones electromagnéticas dan cuenta de los colores y la visión en color, parecen estar olvidando lo que es más importante. Pero si no «suprimiéramos» algo, no podríamos empezar a explicar. El hecho de eliminar algo no es un rasgo de las explicaciones fallidas, sino de las explicaciones logradas.
Sólo una teoría que explicara acontecimientos conscientes en términos de acontecimientos inconscientes podría aspirar a explicar la conciencia. Si su modelo de cómo el dolor es un producto de las actividades cerebrales todavía tiene una cajita con la etiqueta «dolor», usted ni siquiera ha empezado a explicar lo que es el dolor, y si su modelo de la conciencia funciona perfectamente hasta el mágico instante en que tiene que decir «y entonces se produce un milagro», es que usted ni siquiera ha empezado a explicar lo que es la conciencia.
Esto lleva a algunas personas a insistir en que la conciencia nunca podrá ser explicada. Pero ¿por qué la conciencia debería ser la única cosa que no se puede explicar? Los sólidos, los líquidos y los gases pueden explicarse a partir de cosas que no son ni sólidos ni líquidos ni gases. Sin duda la vida puede explicarse a partir de cosas que no están vivas; y esa explicación no deja sin vida a las cosas vivas. La ilusión de que la conciencia es la excepción proviene, sospecho, del hecho generalizado de no haber sabido comprender este rasgo general de la explicación. Al pensar, sin razón, que la explicación comporta suprimir algo, creemos salvar aquello que en caso contrario se perdería, volviéndolo a colocar en el observador como un quale, o como alguna propiedad «intrínsecamente» maravillosa. La psique se convierte en el manto protector tras el cual se ocultan todos esos gatitos adorables. Puede que haya motivos para pensar que la conciencia no se puede explicar, pero, como espero haber demostrado, existen buenas razones para pensar que sí se puede.
Mi explicación de la conciencia dista mucho de ser completa. Podría decirse que no es más que el principio, pero es que es el principio, porque rompe el encantamiento del círculo mágico de ideas que hicieron que pareciera imposible la explicación de la conciencia. No puede decirse que haya sustituido una teoría metafórica, el Teatro Cartesiano, por una teoría no metafórica («literal, científica»). La verdad es que todo lo que yo he hecho no es más que sustituir una familia de metáforas e imágenes por otra, cambiando el teatro, el testigo, el Significador Central, el figmento, por el software, las máquinas virtuales, las Versiones Múltiples, el pandemónium de homúnculos. Así que no es más que una guerra de metáforas, me dirán ustedes, pero las metáforas no son «sólo» metáforas; las metáforas son herramientas de pensamiento. Nadie puede pensar sobre la conciencia sin ellas, de modo que es importante equiparse con el mejor juego de herramientas posible. Vean lo que hemos construido con nuestras herramientas. ¿Podrían haberlo imaginado sin ellas?