Tsevan Rabtan: Naturaleza incompleta (II) – Homúnculos

Fotografía: William Warby (CC).

Viene de aquí

Tiempo atrás hablé un poco del asunto del libre albedrío a raíz de un artículo de Jerry A. Coyne. Básicamente defendía que me parece absolutamente ingenua y autocontradictoria la idea de que dada una entrada (un input) en nuestra mente solo cabe un resultado y que, por tanto, no existe una conciencia que nos permita escoger. Las consecuencias de esta tesis son tan absurdas, considerando, no lo que sentimos, sino la ubicuidad de las leyes de la física, y la complejidad de lo que hay y de lo que falta, que en la práctica solo una visión infantilmente mecanicista es compatible con aquellas. En estos artículos me moveré en el terreno previo: el de lo real, el de las causas de lo que sucede y la aparición de lo absolutamente improbable, para terminar con una hipótesis sobre ese fenómeno tan difícil de explicar que llamamos conciencia.

Espero que tras estos artículos se animen a leer Naturaleza incompleta, la obra de Terrence W. Deacon. No porque resulte absolutamente satisfactoria —algo además imposible, sino porque los asuntos de que trata y la aproximación a los mismos que propone merecen el esfuerzo. Aclaro que se trata de una obra de lectura difícil. En parte esto es responsabilidad del autor, que no ha sido capaz de simplificar algunas explicaciones (algo que creo era posible), pero en su mayor parte la dificultad es intrínseca.

La ciencia trata de lo material, de lo que está ahí. Sus éxitos avalan esta estrategia. Asume que solo aquello con características físicas definidas masa, carga, momento… tiene incidencia causal. Sin embargo, hay  dominios «difíciles». La propia ciencia es un producto que carece de las cualidades —o mejor dicho, de las cantidades de lo material. Sucede lo mismo con todo aquello a lo que atribuimos cualidades referidas a algo, al menos aparentemente, «ausente» en el mundo material, como las de valor, función, propósito o significado. Están ausentes y, sin embargo, la mayoría de nosotros cree y la totalidad de nosotros actúa como si tuvieran alguna forma de existencia e influyeran en lo que hacemos. Por decirlo de otra forma, todo lo que nos representamos es o un espejismo causal, un epifenómeno, o algo diferente de aquello material en que supuestamente se encarna, como lo demuestra el que una configuración idéntica podría significar algo completamente diferente y que podemos representar lo mismo a través de «formas» distintas de lo real.

Hasta hace muy poco tiempo, las explicaciones intencionales, teleológicas, prevalecían y la potencia causal de la conciencia se imponía. Todo lo atribuíamos a algún tipo de yo superpoderoso, a un dios que modela las cosas conforme a un diseño espiritual. La filosofía, primero, y la ciencia, más tarde, fueron lentamente venciendo a esos sujetos más allá del tiempo e introduciendo explicaciones que iban excluyendo la necesidad de su existencia en cada vez más parcelas. El último golpe, en el dominio de la evolución de la vida y de sus productos (entre ellos la mente que se conoce), lo dio Darwin, al postular una explicación invertida: el resultado de la evolución no era querido ni diseñado por nadie, simplemente se preservaba, entre cantidades ingentes de combinaciones aleatorias. El punto fuerte de partida sería el siguiente: las leyes de la física informan lo que hay el Universo desde el primer momento, por lo que toda causa —que ha de ser de naturaleza física está disponible y no cabe aludir a fenómenos ausentes o representados como fuente o mejor dicho motor de «arrastre». Lo que hay ahora no sería más que una —algunos dirían inevitable de las posibles formas de barajar lo real. Curiosamente, estas explicaciones introducen conceptos metafóricos portadores de «quintacolumnismos», como cuando Dawkins habla del «relojero ciego» o se alude a que somos máquinas sin «alma». La máquina es el peor ejemplo posible: las partes y el todo se diseñan para lograr algo y presuponen una mente que piensa. El organismo, sin embargo, no es producto de una suma de partes, sino un todo dinámico evolutivo. La metáfora se usa para escenificar un mundo aparentemente duro y frío, en el que nuestros anhelos y valores son cuentos infantiles, pero su elección es desafortunada. No podemos ser máquinas, porque no hay relojero. Y si no somos robots con un programa diseñado para hacer algo, hay que preguntarse qué somos y más aún, por qué sí somos capaces de diseñar máquinas y programas para lograr fines. Y hacerlo además sin cartas marcadas, sin pedir el comodín de una caja negra explicativa, de un dualismo de nuevo cuño, en el que la adecuación a un fin se dé por sentada, evitándonos el problema, como si en vez de ciencia hiciéramos ciencia ficción y considerásemos que el amor forma parte de la urdimbre del Universo al modo de Dan Simmons en su saga Hyperion.

Para fijar su postura, el autor va introduciendo neologismos que en la mayor parte de las ocasiones están justificados. Es importante comprender su significado para no perderse en alguno de los niveles ascendentes que van apareciendo. Uno básico es «entencional»: lo usa para referirse a todo aquello construido u organizado para la consecución de algo que no es intrínseco al fenómeno en cuestión, a todo lo que se completa con una actividad dirigida. Es muy importante porque agrupa no solo los fenómenos que relacionamos con la conciencia, sino todos aquellos procesos vitales que se explican por su valor para la supervivencia y la copia, situados en el nivel más bajo de organización dinámica de un cierto tipo específico, el capaz de introducir un mecanismo causal orientado a un fin.

El autor recuerda cómo el análisis del mecanicismo causal dominante ejecutó a tres de las cuatro causas aristotélicas, manteniendo solo la causa eficiente. La causa material sería redundante, pues se identifica con lo real, mientras que la formal y la teleológica serían simples descripciones «a posteriori». Sin embargo, versiones mejoradas de los conceptos de causa formal y final podrían servir para describir la evolución «normal» y «anormal» de la realidad: la causa formal explicaría la evolución natural («ortógrada» la denomina el autor) de la materia en niveles micro y macroscópicos conforme a principios tan poderosos como el segundo de la termodinámica, mientras que la causa final volvería a entrar de la mano de una cierta geometría de lo material, centrada en su parte negativa, y consagrada en formas dinámicas emergentes que transforman la evolución ortógrada de sus partes en movimientos «contrágrados». Ya veremos esto en mayor profundidad.

Otro problema filosófico de los de toda la vida que se recupera en el libro, animándolo con un nuevo contenido, es el de los universales; es decir, el problema del realismo frente al nominalismo, o por decirlo de una forma simplificada, el de si los modelos representados son reales o se trata de simples generalizaciones a partir de las similitudes útiles, descriptivas, de los únicos objetos con existencia real: los objetos individuales. Curiosamente, todo el pensamiento científico (con la excepción de algún «exaltado» —permítanme la coña como Penrose) ha terminado considerado anatema la idea del realismo, a pesar de que el propósito general que puede obtenerse mediante programas dispares sea tan obvio y se encuentre presente en cualquier aproximación que utilice conceptos como el de información y función. Resulta, en suma, sintomático, que las supuestas metáforas epifenoménicas que deberían ser residuos didácticos terminen ocupando, en algunas disciplinas, la mayor parte de las reflexiones y logros concretos. Esto puede ser síntoma de alguna falla fundamental.

La apuesta del autor se basa en dos pilares: no hay que buscar nuevas leyes físicas para explicar lo que hay, por improbable que resulte, pero sí hay que postular la aparición de formas de causalidad basadas en una restricción de lo posible. La riqueza del mundo y, en particular, de la vida y de ese fenómeno majestuoso que llamamos conciencia (y sin el que no estaríamos discutiendo de nada y yo no escribiría en Jot Down un artículo que con seguridad les está encantando) es producto de una explosión del orden que se origina en una aristocrática menor libertad. Al leer el libro inmediatamente pensé en una desviación de ese principio a algo conocido: las restricciones formales (piensen en las reglas de un soneto o el modelo clásico de desarrollo temático) no obstaculizan la creatividad. Más aún, pese a lo que se haya sostenido en ocasiones, no hay arte informe, sin reglas, sin un canon. Otra cosa es que una obra de arte sea la primera de un canon nuevo, pero nunca se identificará como tal sino por referencia a «algo».

Esto, que parece muy esotérico a primera vista, tiene, sin embargo, como iremos viendo, una plasmación muy concreta (aunque como punto de partida). No obstante, antes de entrar en ella es preciso comprender por qué, para Terrence Deacon, los modelos mecanicistas tradicionales no eluden el «problema del homúnculo». Me explicaré. Tradicionalmente se achacaba a muchas explicaciones del funcionamiento de la mente el que, llegados a un punto determinado, terminaran incluyendo un homúnculo, una especie de hombrecillo o de agente encubierto dentro de nuestra mente que decide y valora nuestras respuestas tras recibir los estímulos del exterior. Naturalmente, que aparezcan homúnculos o fantasmas de homúnculos en muchas explicaciones no es sino un síntoma de que existe algo que tenemos que desentrañar. Lo interesante, sin embargo, es que algunas denuncias del problema lo reproducen a niveles inferiores y solo parecen una solución mientras no se analizan en detalle. En cierto sentido resulta inevitable. La alternativa (por ejemplo, la hipótesis conductista) de convertir la mente en un sencillo mecanismo de entrada y salida, al margen de su simplismo, renunciaba a explicar por qué creemos que existe una conciencia y que actuamos conforme a ella.

Como decía, el homúnculo no es solo una mala solución, es también un síntoma de un problema que debe ser resuelto. Dice Deacon:

Nos han enseñado que Galileo y Newton mataron al homúnculo aristotélico del primer motor, que Darwin mató al homúnculo del relojero divino, que Alan Turing mató al homúnculo del pensamiento incorpóreo y que Watson y Crick mataron al homúnculo del élan vital, la esencia invisible de la vida. Aun así, el espectro de los presupuestos homunculares proyecta su sombra incluso sobre las empresas científicas más sofisticadas tecnológicamente y con un enfoque más materialista. Está esperando en la puerta del «Big Bang» cosmológico. Se esconde tras los conceptos biológicos de información, señal, diseño y función. Y ciega el acceso al funcionamiento de la consciencia.

No se trata de hablar de aquellas versiones, como el diseño inteligente, que se introducen como explicación completa de las preguntas sin respuesta (eso simplemente no es ciencia), sino de considerar aquellas que funcionan como zonas de sombra que dejamos para más tarde, al modo de fortalezas en el camino de una invasión. La cuestión no es si esto es legítimo, que lo es, sino si es admisible cuando las zonas de sombra se refieren a elementos basales de nuestras hipótesis. Estos son los homúnculos peligrosos para la empresa científica y, a veces, pasan inadvertidos. En cuanto a lo que nos ocupa, esto sucede cada vez que se da un salto injustificado de lo entencional a lo no entencional, basado en un reduccionismo y fragmentación que no explican suficientemente dicho salto. O, viéndolo desde el otro lado del espejo, cuando no se explica sino nominativamente, usando el truco de lo que los juristas llamamos predeterminación del fallo, cómo relaciones materiales son capaces de organizarse, ateniéndonos a esas leyes de la física y la química que consideramos el todo de nuestra visión mecanicista del mundo, para producir un sistema dinámico orientado a un fin.

No quiero alargar excesivamente este primer artículo, por lo que no entraré en detalles, pero ejemplos muy agudos de estas explicaciones homunculares son expuestos por Deacon en relación a la idea del ADN como plano o programa (en particular como programa completo), de la gramática universal innata postulada por Chomsky y sus seguidores, o del ejemplo del mentalés propuesto por Pinker en El Instinto del lenguaje. Son formas de confusión del mapa con el territorio, que dejan de lado elementos esenciales en el desarrollo del organismo y del lenguaje, y que exigen, al final del camino, un homúnculo traductor que permita la analogía con el modelo computacional. Por desgracia, ¡sí hay un homúnculo que explica la computación que se produce en un ordenador! Ese homúnculo es el diseñador humano. Pero ¿dónde está el diseñador protohumano dentro de nuestro cerebro o en qué consiste? Esas preguntas han recibido respuestas extravagantes, como las pampsiquistas, que ven en todo retazos de conciencia potencial, y otras que gozan de gran popularidad, como las que, dando la vuelta a los procesos termodinámicos, encontraron medidas objetivas de información que podían servir para convertir configuraciones físicas en una suerte de computadores, del que la mente solo sería un ejemplo especialmente complejo. El problema de estas tesis es que usan términos que tienen un contenido muy específico en su campo científico, pero de forma ambigua. Las configuraciones posibles y sus mediciones estadísticas como forma de calcular la capacidad de transmitir información no explican suficientemente el salto desde la información bruta a su interpretación coherente. Ahí es donde, en una teoría computacional de la mente, aparece nuevamente el insidioso homúnculo. Y lo mismo sucede con las teorías que dividen a nuestro duende en porciones cada vez más pequeñas y simplificadas, en miniprocesos que se concretan en elecciones, produciendo un fenómeno metafóricamente equiparable a lo que sucede con el colapso de la función de onda en el mundo cuántico. Lo que acaece entencionalmente en esos microprocesos realizados, elecciones entre caminos posibles, sería el equivalente del mundo físico clásico y la «tendencia» realizada sería la manifestación mínima (ya no reducible) que explicaría, simplemente por su acumulación organizativa, la capacidad causal de los seres vivos, en particular de los más encefalizados. Esta explicación plantea, sin embargo, problemas muy serios al no distinguir entre el fenómeno de la vida y otras organizaciones (algunas de enorme complejidad) de naturaleza inorgánica a las que ya me referiré en próximos artículos y a los que, incluso potencialmente, resulta muy difícil atribuir cualquier tipo de propósito.

En cualquier caso, ahí se mantiene, incólume, el centro de lo problemático cuando nos referimos a los seres vivos y la mente. Si estamos en lo cierto, hubo un universo en el que cualquier cuestión entencional resultaba superflua y las explicaciones mecanicistas —con los límites que veremos en otros artículos- bastaban. Ahora nos encontramos con actos (nuestros y de todos los seres vivos) que influyen en lo que sucede, basados en fines representados, y esas explicaciones ya no parecen suficientes. Sin embargo, la posición dominante en el mundo científico es que no existe el problema teórico, sino que es la vulgarización de nuestro insuficiente conocimiento. La idea es que una comprensión profunda de la estructura y funcionamiento de nuestro cerebro eliminarán el problema al demostrar que cualquier propósito es simple consecuencia de una compleja computación reducible a una máquina de Turing. El autor recurre metafóricamente al golem del folclore judío y a los zombis, pero lo hace no para dedicarse a la lírica de los seres inanimados (aunque tenga algún arrebato ocasional), sino para plantear el problema en toda su crudeza: ¿por qué hay espejismos y fantasmas de agentes en nuestras mentes si no hay función que los requiera? ¿Por qué el golem evolucionó para convertirse en el Roy de Blade Runner y pelear por vivir más allá de los requerimientos de su programa diseñado por el dios de la biomecánica? Además, la teoría computacional de la mente olvida que, por mucho que deban existir procesos físicos para que una máquina real procese un algoritmo, el algoritmo es «algo» diferente de esos procesos en que se encarna. Y ese algo más está fuera del software y el hardware. Solo el homúnculo sabe que el algoritmo se refiere a algo fuera de su proceso físico, corresponde a algo con un propósito, algo que además no puede expandir su capacidad de conocer más allá de su programa por su propia limitación intrínseca. La tesis del autor es que la expansión solo puede entenderse como consecuencia del cambio evolutivo, que impone desde fuera una solución gordiana al análogo problema de la no detención de las máquinas de Turing. Así, si somos capaces de comprender más porque nuestra maquinaria se transforma, eso quiere decir que la relación de correspondencia con aquello a que se refiere el algoritmo no puede ser un producto de la propia computación, sino algo diferente, que nace desde el ruido y el caos, liberándose del diseñador de la máquina y de su programa.

Por hoy creo que es suficiente. Empezar a vislumbrar en qué consiste ese algo diferente será objeto de próximos artículos.


Tsevan Rabtan: Naturaleza incompleta (I)

A raíz de la publicación en 2012 del libro Naturaleza incompleta. Cómo la mente emergió de la materia, escrito por Terrence W. Deacon, se produjo un espectáculo desagradable del que me enteré al investigar sobre su autor precisamente para escribir una reseña de su obra: fue acusado de plagio. Voy a comenzar esta serie de artículos por esta anécdota porque las cuestiones planteadas y la respuesta que se dio a la acusación son interesantes, sobre todo en esta época de acceso posible a tanta información, y porque el libro en sí y aquello de lo que trata —lo verdaderamente importante— requiere espacio y es mejor solventar las pequeñas miserias antes de entrar en harinas.

La acusación se originó precisamente en la reseña del libro encargada por The New York Review of Books al filósofo Colin McGinn. La reseña es, como pueden ver, muy dura y, en mi opinión, extremadamente superficial. Vamos, que tras leer el libro, pienso que el señor McGinn no se ha enterado de gran cosa (la respuesta que da al propio Deacon me reafirma en esa opinión ). En cualquier caso, esto es lo de menos; lo curioso es que en la reseña se «denunciaba» que en lo fundamental el libro no contenía ideas originales, sino que reproducía otras mejor desarrolladas por, entre otros, dos filósofos: Alicia Juarrero y Evan Thompson. La alusión a esos profesores de filosofía fue la mecha de una denuncia pública por plagio aventada por Michael Lissack, un hombre de negocios y director del Institute for the Study of Coherence and Emergence, un sitio la leche de raruno y del que forma parte destacada Alicia Juarrero, precisamente.

Lo curioso es que el plagio no se basaba en la copia de partes más o menos exactas de las obras de esos filósofos, sino en el uso de sus ideas, que son calificadas como nuevas y originales en su mayor parte. La insistencia pública en que existía el plagio provocó que la Universidad de Berkeley tuviera que realizar una investigación, que no solo exoneró al profesor Deacon, sino que dio lugar a un texto bastante divertido, considerando su origen académico.

El informe es absolutamente demoledor. Deacon alegó que no solo ignoraba la obra de Juarrero (y otros autores supuestamente plagiados), sino que llevaba décadas trabajando en las ideas que había plasmado en su obra y en artículos escritos antes y después. Añadió, además, que muchos de los conceptos tampoco eran originales, sino que habían sido creados y perfilados por otros autores previamente y, finalmente, que las similitudes se basaban en la profunda incomprensión de sus tesis por parte de los denunciantes. Juarrero, para fundamentar sus acusaciones, envió a uno de los responsables de la investigación una hoja de cálculo en la que dejaba constancia de doscientas aparentes concordancias. La cuestión, sin embargo, era más espinosa: no bastaba con presentar esa lista, sino que, al tratarse de un plagio de ideas, era preciso demostrar que su uso por parte de Juarrero era «único» y, por tanto, manifiestamente original. Más aún, los denunciantes desarrollaron un concepto francamente graciosísimo: el plagio imprudente. Se basa en la idea de que, en esta época en la que es muy sencillo buscar referencias a temas concretos en internet, todo autor está obligado a por lo menos citar a aquellos que han escrito sobre aquello que se trata en una obra, para no incurrir en una conducta deshonesta.

La respuesta a las concretas acusaciones es una perfecta muestra de la locura a que puede llevar una expansión desmesurada del concepto de plagio (y de un exceso de autovaloración). Así, no solamente quedaba claro que, con independencia de las similitudes superficiales surgidas del hecho de que se trata de personas que tienen interés en similares campos de estudio, las diferencias de tratamiento eran muy importantes, sino que resultaba acreditado que el plagio era imposible porque una de las supuestas obras plagiadas se había publicado después de que Deacon hubiese escrito la obra que contenía la falsa copia. Y, finalmente, supuestas menciones que para los denunciantes eran inexplicables de no ser producto del plagio, constaban en obras anteriores que los denunciantes tampoco citaban, y una de ellas ¡era precisamente del propio Deacon! Es decir, como con gran sorna se dice en el informe:

Like the allegation discussed immediately above, this allegation is demonstrably false. For as the investigation committee found, «Lissack does not seem to be aware that the Deacon chapter is a lightly edited reprint of Deacon’s “Editorial: Memes as Signs”, published in 1999», four years before the appearance of Lissack’s «Redefinition of Memes» article. In other words, Deacon’s article was published first, so the ideas in it could not have been plagiarized from an article published years later. If one were to apply Lissack’s logic that conceptual similarity is evidence of plagiarism, then one would have to conclude that it was Lissack, not Deacon, who committed plagiarism. (The University does not contend that Lissack plagiarized Deacon, but it believes that this example highlights the absurdity of the plagiarism claims against Deacon).

El informe concluye con un excelente bazzinga:

To adopt this novel standard for defining plagiarism would create some «interesting» situations. Take, for example, the intellectual arena of human thermodynamics, a topic that both Deacon and Juarrero address in their respective books. Hmolpedia: An Encyclopedia of Human Thermodynamics, Human Chemistry and Human Physics maintains a webpage, HT pioneers, which lists scientists and writers who over the years have contributed theory and logic to the understanding of the thermodynamics of human existence. At the moment the page lists some 505 individuals. How many of these authors would Deacon and Juarrero have to cite to avoid a charge of plagiarism under Lissack’s novel definition? Note that this list does not include either Juarrero or Deacon, both of whom have written on the thermodynamics of human existence. So even the encyclopedic Encyclopedia of Human Thermodynamics may not meet Lissack’s standards of complete citation.

Me ha pasado a menudo que, a raíz de alguna de mis opiniones, alguien me diga «cómo se nota que has leído a» tal o cual autor. Es algo que me divierte, porque casi nunca aciertan los que me atribuyen más lecturas de las reales. Hay que prevenirse contra esta idea de que eso que se nos ocurre, «tan» importante y original, no se le haya ocurrido antes a alguien. Es poco probable. También, en consecuencia, hay que prevenirse contra las acusaciones de plagio; qué pocas veces algo es verdaderamente original. Mi hija suele recordarme una frase que le dije en el MOMA mientras mirábamos una de esas obras maestras que se reproducen inadvertidamente en tantas casas: «el primero al que se le ocurre es un genio, el segundo un imbécil». Supongo que esta frase se la habré copiado a alguien.