Futuro Imperfecto #69: Inteligencia artificial, distópica o utópica

inteligencia artificial
Fotograma de 2001: Una odisea del espacio. Imagen: MGM.

Se avecina la guerra de los algoritmos, si es que no está desatada ya. En el Instituto Tecnológico de Massachusets llevan tiempo analizando testimonios de abogados y trabajadores sociales que enfrentan programas de inteligencia artificial para asistir a personas necesitadas de protección. El balance de su aplicación no es optimista. Y sin embargo se está incorporando para mejorar la prestación del servicio al ciudadano.

En general tendemos a pensar que la inteligencia artificial es algo del futuro, que no nos afecta, o que se reduce a ser el programa detrás de mis recomendaciones de música y películas o series. Y mientras estamos en babia ya ha sido implantada parcialmente, actúa en nuestras relaciones con la Administración Pública, con las fuerzas y cuerpos de seguridad del Estado, además de con las aplicaciones que usamos a diario.

Amenaza o ventaja

Max Tegmark, profesor del MIT, comparaba, en un encuentro con la periodista Marta García Aller y dentro del Foro Telos 2020, la inteligencia artificial con las armas nucleares. Es un peligro, porque nadie nos pagará por nuestro trabajo si una máquina igual a nosotros lo hace más barato. Si además esas máquinas son propiedad de una sola persona, todos acabaremos muriendo de hambre. De momento eso es tan solo un escenario, y aunque Tegmark cree que ha comenzado a concretarse, puede corregirse para que la inteligencia artificial sea lo mejor que le ha pasado a la humanidad.

En su columna del NYT, Jorge Carrión analizaba el libro El futuro va más rápido de lo que crees, de Peter Diamandis y Steven Kotler. Los autores plantean un horizonte idílico donde los avances tecnológicos expanden la democracia y la conciencia medioambiental, generando recursos que permitirán implantar la renta básica universal. Carrión contrapone a eso la realidad del presente, donde cada vez más personas son incapaces de adoptar los avances tecnológicos en su vida, quedándose atrás. «La velocidad de la tecnología atropella nuestros cerebros», concluye.

Los problemas ya detectados en Europa

Algorithm Watch es una plataforma dedicada a la supervisión de programas estatales que implican la inteligencia artificial, formada por expertos y periodistas. En su informe anual Automating Society Report edición 2020 analizaron casos de implantación de inteligencia artificial en dieciséis países europeos. Poniendo el foco en que en solo un año la automatización de la sociedad ha avanzado de forma extraordinaria.

1. El reconocimiento facial

La covid-19 ha acelerado la implantación del reconocimiento facial, y aunque inicialmente las mascarillas incrementaron su tasa de error, ese defecto ya está, meses después, prácticamente corregido. Avanzamos a toda velocidad, con Eslovenia en cabeza, que ya ha aplicado esta tecnología al uso policial. Aprovechando las leyes promulgadas para combatir la covid, ha legalizado una práctica que ya venían utilizando: recopilar imágenes de las redes sociales a fin de identificar individuos en las masas de manifestantes en protestas contra el gobierno. La legislación permite además a la policía rastrear los contactos de esos individuos, analizando sus contactos en las redes.

Dentro del sector privado destaca un programa piloto que se está implantando en las sucursales de los bancos de Polonia. Los empleados son recompensados con una retribución extra a fin de mes en función de cuánto sonrían a sus clientes.

La legislación de la Unión Europea, mientras tanto, va con retraso. A principios de 2020 se manejaba en Bruselas la idea de prohibir el reconocimiento facial en espacios públicos, debate aplazado por la pandemia. Doce organizaciones de activistas urgen a hacerlo ya por la amenaza que supone a la privacidad, citando el caso de Como, Italia, donde se implantó de forma masiva antes de que la Agencia de Protección de Datos italiana prohibiera su uso porque no existe legislación que lo regule.

2. Programas cancelados por discriminación

En el informe de Algorithm Wathc hay casos que llaman la atención porque se ha detectado que los algoritmos que rigen las inteligencias artificiales contienen prejuicios y sesgos hacia determinados grupos de población.

En Holanda SyRI se implantó para que Hacienda detectara posibles defraudadores entre los beneficiarios de ayudas o desgravaciones (becas, IRPF, vivienda…). Rastreaba datos fiscales del total de habitantes residente en un distrito, pero su aplicación comenzó únicamente sobre vecindarios pobres. Se le acusó de criminalizar la pobreza. Finalmente el Tribunal Europeo de Derechos Humanos ordenó cancelar el programa por invadir la privacidad individual y familiar, que prevalece como derecho frente a la lucha contra el fraude.

Precogs, predecir cuándo va a cometerse un crimen

La película Minority Report exploró la idea original del relato de Phillip K. Dick El informe de la minoría, donde unos mutantes tienen el don de ver el futuro. Con ellos se organiza una unidad policial de precrimen. Esos mutantes ya existen, en forma de algoritmo, uno de ellos bajo la denominación PRECOBS (Pre-Crime Observation System). Está siendo empleado por la policía suiza de forma experimental, orientado al robo en domicilios, y destinando más patrullas a las áreas donde supuestamente se cometerán delitos. Sus resultados son por el momento bastante pobres, y en realidad tampoco existen investigaciones científicas que evalúen si empleando inteligencia artificial puede predecirse con exactitud un comportamiento (no solo una tendencia) según el estudio de un grupo.

Eso no ha sido un obstáculo para el sheriff de Pasco, Florida, Estados Unidos, que aplica un algoritmo a personas con antecedentes penales para arrestarlos antes de que puedan reincidir. El abuso no ha tardado en producirse, con detenciones a padres por el supuesto crimen de sus hijos, registros sin orden judicial, arrestos indiscriminados y hasta la demanda del gobernador del estado sobre su inconstitucionalidad. Además de la discriminación de minorías raciales y discapacitados.

Reino Unido tampoco se ha quedado atrás. Su ley de vigilancia fue declarada ilegal por la UE, pero cabe suponer que el Brexit disuadió a su gobierno de retirarla. De hecho en los dos últimos años ha estado implantando de forma oculta un programa que rastrea y analiza la navegación individual en internet de cada ciudadano del país. Aunque se mantiene la opacidad sobre las tecnologías que emplea, ha trascendido que se recopilan metadatos, uno de los recursos utilizador para que las inteligencias artificiales deduzcan conclusiones de forma automática. A partir por tanto de los intereses personales, creencias políticas o información sobre salud.

Amenazas y oportunidades en España

1. Cuidado con las palabras que usas en tus denuncias

En 2018 la Policía Nacional puso en marcha VeriPol, que definieron como «primera herramienta de este tipo en el mundo». Aquí la inteligencia artificial consiste en procesamiento del lenguaje natural para sacar conclusiones, analizando las denuncias presentadas para evaluar si son falsas. Su fiabilidad es del 91 %. El problema es que se alimentó con denuncias procedentes de Andalucía, por lo que la forma de usar el español (modismos, expresiones, localismos) de otras comunidades autónomas no está contemplada. Los expertos en ética se preguntan además qué pasa con los errores, denuncias falsas no detectadas que fueron tramitadas contra infractores inocentes.

2. El robot inspector del Ministerio de Trabajo

Inspección de Trabajo ha puesto en marcha un algoritmo que extiende el acta de infracción a una empresa sin que intervenga un funcionario humano. Aquí la inteligencia artificial hace un análisis masivo de datos e identifica patrones de fraude, como pudiera ser el despido reiterado de un trabajador el viernes, que vuelve a ser contratado el lunes.

La CEOE advierte de una posible avalancha de denuncias masivas. También los funcionarios han amenazado elevar un informe al Consejo de Estado porque esta automatización puede «romper con los principios de legalidad, seguridad jurídica, proporcionalidad e imparcialidad de la inspección». La petición de ambos colectivos coincide: saber cómo opera la inteligencia artificial. El problema es que si esa información se hace pública el algoritmo resultaría inútil, pues los defraudadores sabrían cómo esquivarlo. Una vez más falta legislación para una realidad que avanza muy rápido.

3. Siri, ¿me estás escuchando?

El CNI español ha publicado un informe de ciento veintitrés páginas sobre los servicios de Apple, encaminado a revelar al usuario amenazas y vulnerabilidades de los mismos. Una de sus recomendaciones es evitar el uso de Siri en la medida de los posible porque las grabaciones de las preguntas han sido entregadas a menudo a terceras personas (p. 91), subcontratas de la compañía.

En 2019 hubo evidencias de que se escucharon conversaciones sobre compra de drogas a camellos, consultas médicas y encuentros sexuales. Lo mismo ocurrió con datos sensibles de Alexia, el servicio equivalente de Amazon, que al parecer puede activarse hasta cien veces al día sin que le sea solicitado. En este caso los empleados han escuchado datos bancarios, y una posible agresión sexual. Ambas empresas aseguraron que tan solo se cedía el uno por ciento de las grabaciones para mejorar el servicio, y en ningún caso sabían los empleados los datos del usuario. Eran por tanto datos anonimizados.

Observatorios éticos de la inteligencia artificial en nuestro país y en Europa

OdiseIA es una plataforma nacional, donde empresas, universidades, instituciones y personas físicas debaten sobre el buen uso de la inteligencia artificial. Su interés es supervisar la ética en la aplicación de esta tecnología, y detectar sesgos, así como difundir información. Supone una réplica de organismos europeos similares, como el IEAI, Instituto para la Ética en la Inteligencia Artificial de Múnich, la European Network y su plataforma de difusión ai4eu, entre otros. El interés es universal, y la carrera de implantación y supervisión ha comenzado.

En EEUU, la IA ya es parte de la nueva guerra fría. El presidente estadounidense Joe Biden acaba de pedir el apoyo para desarrollar de forma urgente armas basadas en esta tecnología, con las que luchar contra los ataques (cibernéticos) de Rusia y China. Es una reacción a este informe de sus especialistas, y a una noticia recurrente en la prensa internacional: tanto Rusia como China están a punto de sobrepasar en desarrollo de inteligencia artificial a EE. UU. y su principal socio, la UE.

En España un grupo de setenta expertos han pedido reunirse con los responsables del departamento de Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, detallando en una carta donde se pide la moratoria en la implantación del reconocimiento facial. Ya se está probando en el aeropuerto de Madrid-Barajas, y Renfe tiene un proyecto piloto para detectar quién se cuela y realizar un perfil de los viajeros.

 

Un horizonte a tan solo diez años

Los adultos de 1981 no hubieran imaginado que en diez años sería normal tener un PC en su puesto de trabajo. Los de 1991 que internet iba a ser cotidiano y masivo. Los de 2001 que los teléfonos móviles acabarían teniendo solo pantalla táctil y convertidos en un miniordenador. Posiblemente nosotros no imaginamos aún que dentro de una década la inteligencia artificial estará tan presente en nuestras vidas como el móvil. Tenemos diez años de arduo trabajo por delante para desencadenar la utopía o aceptar la distopía. Quizá a estas alturas nos conformemos incluso con un punto medio.


¿Quieres recibir cada martes un email con el resumen de los artículos publicados durante la semana anterior en Jot Down?









Acceso a los contenidos vía Telegram

 


Tu epitafio en Comic Sans

Hayley Atwell y Domhnall Gleeson en «Be Right Back», el primero episodio de la segunda temporada de Black Mirror, 2011. Fotografía: Netflix.

Es poco probable que Facebook acompañe a la humanidad eternamente, sobre todo teniendo en cuenta que los adolescentes actuales han migrado hacia otras redes sociales al contemplar a la criatura de Mark Zuckerberg como un terreno habitado por puretas y seres similares con verdaderas dificultades para asimilar conceptos tan sencillos y cotidianos como crush y cringe o verbos tan prácticos como grindear y shippear. Pero lo cierto es que, en teoría, la naturaleza del mundo virtual es terroríficamente perenne, siempre que a nadie le dé por tirar del enchufe general. Por el contrario, todos los usuarios que habitan Facebook son, en la práctica, criaturas con fecha de caducidad como consecuencia de su tendencia a estar compuestas por material biodegradable. Lo más inquietante de todo esto es el panorama que se dibujará en un futuro cercano, en la época en que la inmortalidad de lo digital y la caducidad de lo orgánico convivan sobre el mismo terreno de juego. Porque si Facebook sigue existiendo dentro de cuarenta años, entre sus perfiles militará más gente muerta que viva.

A la altura de 2013 se calculaba que existían entre veinte y treinta millones de usuarios de Facebook que habían ascendido a jardineras de malvas, una cifra que evidentemente habrá ido aumentando durante años posteriores. Randall Munroe, extrabajador de la NASA y autor del brillante webcomic xkcd, decidió echar cuentas para acotar el momento aproximado en el que Facebook acogería a más usuarios fenecidos que vivos entre sus filas. Presuponiendo que la fama de la red social sufriría un declive pronunciado tras tocar techo, Munroe estableció que 2065 sería el año en el que los muertos de Facebook superarían a aquellos usuarios que todavía coleaban, una fecha que etiquetaba con guasa como el inicio del «Facebook of the dead».

El periodista Brandon Ambrosino firmó un artículo para la BBC donde compartía las sensaciones que experimentaba al contemplar el perfil de un familiar desaparecido. Sus conclusiones eran una obviedad que se prefiere ignorar: Facebook se está convirtiendo de manera gradual en un cementerio digital. La compañía californiana que gestiona la red social permite en la actualidad convertir los perfiles de los fallecidos en páginas conmemorativas, lápidas incorpóreas repletas de recuerdos por los que pueden navegar los contactos del finado. Existe incluso la opción de delegar en un conocido la gestión de la cuenta, para que se encargue de administrar la misma en caso de que al propietario no le llegué la señal de wifi necesaria para hacerlo desde el más allá. Ante el imperturbable perfil virtual del pariente ausente, Ambrosino mencionaba en su texto el relato Funes el memorioso de Jorge Luis Borges, el cuento protagonizado por Ireneo Funes, un caballero bendecido con el don de una memoria portentosa e infalible y, por extensión, con la condena de ser incapaz de olvidar. Philip K. Dick imaginó en la archifamosa novela Ubik un mundo donde los muertos eran criogenizados y conservados en un estado de semivida a través del cual se comunicaban con los vivos. La huella digital que sembramos en los terrenos virtuales permite que todos nos transformemos en Funes en la vida y en un personaje criogenizado de Ubik en la muerte. Los recuerdos arrojados en las redes sociales se han convertido en álbumes de fotos públicos que no amarillean nunca. Google permite especificar el protocolo a seguir cuando un usuario —en su cuenta personal— permanece inactivo durante un tiempo considerable, entendiendo «permanecer inactivo» como un moderno eufemismo de lo que de toda la vida viene siendo «morirse». Lo peor de todo esto es descubrir que ese legado podría ser administrado por terceros. Porque todos tenemos un cuñado capaz de escribir nuestro epitafio en Comic Sans.

Be right back

En un momento dado, James Vlahos se preguntó qué tipo de inteligencia artificial podría habitar en el interior de la muñeca Barbie. En mayo de 2016, aquella misma persona se sentó delante de su padre, un octogenario aquejado de un cáncer terminal, armado con una grabadora. Ambos hechos estaban relacionados.

Todo comenzó con un artículo al que Vlahos le estaba dando forma para The New York Times Magazine, un reportaje que documentaría el proceso de creación de la inteligencia artificial ideada para dar vida a una muñeca charlatana conocida como Hello Barbie. Durante su investigación, el hombre descubrió que la compañía encargada de construir la conciencia del juguete también había facturado un producto tremendamente interesante: una aplicación que permitía a cualquier persona, sin necesidad de tener conocimientos previos de programación, moldear una inteligencia artificial con la que entablar conversaciones. En aquella época, Vlahos buscaba la manera de afrontar el cáncer de pulmón que se le había diagnosticado a su padre, John James Vlahos, una enfermedad en una fase tan avanzada como para haber desdibujado por completo el futuro inmediato del progenitor hasta reducirlo a un puñado de meses. Cuando el periodista se tropezó con aquel programa capaz de simular a un contertulio inteligente, una idea anidó con fuerza en su cabeza: convertir a John James Vlahos en un ser inmortal gracias a la tecnología. Crear un dadbot (algo así como «papábot», un juego de palabras resultante de mutar el concepto chatbot), una inteligencia virtual que imitaría a su figura paterna y con la que podría conversar cuando aquella ya no se encontrase entre los vivos.

Durante los meses posteriores, el articulista entrevistó, grabadora en mano, a su propio padre a lo largo de más de una docena de sesiones de una hora de duración. Conversaciones donde el entrevistado repasaba de memoria su biografía y las aventuras, desventuras, anécdotas y chascarrillos que había experimentado a lo largo de sus ochenta años de existencia. Vlahos registró todo el material y lo transcribió hasta transformar las horas de cháchara en doscientas tres páginas que contenían un total de 91 970 palabras. Y entonces, con toda la información sobre la mesa, se sentó ante el ordenador dispuesto a reconstruir a su padre a través de su memoria oral. Meses más tarde, el dadbot estaba finalizado y cualquier usuario podía mantener conversaciones con aquel artefacto que contenía el alma de una persona real. La interacción se efectuaba a través de mensajes de texto que en ocasiones también incluían extractos de audio, e incluso canturreos de John James Vlahos. 

Lo mejor de todo es que la inteligencia artificial ensamblada por el periodista no solo reflejaba quién era su progenitor, sino también cómo era: hacía apuntes eruditos, disparaba chistes que su vástago había escuchado mil veces, utilizaba palabras anticuadas que le hicieron infinita gracia en vida, maldecía, ironizaba, narraba con detalle sus vivencias y recordaba cosas tan dispares como el nombre de su mascota, las piezas que interpretó su hermana durante un concierto de Chaikovski en el instituto o a sus profesores de la infancia. El dadbot era, en palabras de su autor, «una representación insignificante y de baja resolución del hombre de carne y hueso», pero al mismo tiempo suponía una hermosa declaración de amor alumbrada en la confusa era digital. Un proyecto que permitió al escritor zambullirse durante meses entre las palabras de su padre, y cultivar con ellas un inmenso árbol de conversaciones cuidadosamente ensambladas a mano con admiración, mimo y cariño. 

La segunda temporada de Black Mirror se estrenó con el capítulo «Be Right Back». Un cuento espeluznante donde una mujer (Hayley Atwell), incapaz de superar la repentina pérdida de su pareja (Domhnall Gleeson), echaba mano de los servicios de una empresa capaz de manufacturar, recopilando información de las redes sociales y cuentas del finado, una simulación del novio ausente con la que poder chatear. A lo largo del episodio, la trama convertía al compañero de palique inicial en un androide diseñado a imagen y semejanza del desaparecido, una idea tan escalofriante como para que a la propia historia le resultase imposible no desembocar en un desenlace agridulce. En la segunda temporada de Westworld un personaje decide replicarse a sí mismo como uno de los androides que habitan el parque temático con la esperanza de tontear con el concepto de inmortalidad. Anne Arkush, esposa del periodista James Vlahos y una de las personas que habían tenido una relación más estrecha con el padre de aquel, se sentó por primera vez ante el dadbot tras la muerte de quien lo había inspirado. Y después de intercambiar unas cuantas líneas con la IA, sentenció: «Es extraño. Da la impresión de que estoy conversando con John y eso me provoca una respuesta emocional muy fuerte. Pero al mismo tiempo, sé de manera racional que al otro lado solo hay una máquina». Cuando a Charlie Brooker, creador de Black Mirror, le preguntan en qué época se sitúan sus historias, su respuesta suele ser «en un futuro cercano». A lo mejor Brooker está apuntando demasiado lejos con las fechas.

Los fantasmas digitales

Satoru Iwata, programador de videojuegos clásicos como Golf, Balloon Fight, Kirby’s Dream Land o EarthBound, cuarto presidente de Nintendo y una figura muy reverenciada en el mundo de los videojuegos, actualizó a mediados de 2015 el aspecto de su Mii (un avatar personal y público que permiten crear las consolas de Nintendo) adelgazando la figura del muñeco hasta reflejar correctamente su físico en el mundo real. Iwata se había pasado los meses anteriores batallando con un tumor en su vesícula biliar, una enfermedad que le había hecho perder un buen montón de kilos. El 11 de julio de 2015, tan solo un mes más tarde de redibujar la figura de su Mii, Iwata falleció y toda la industria del videojuego le rindió honores con los ojos llorosos. En septiembre de 2017, un grupo de curiosos aficionados a hurgar en el código ajeno descubrió algo inusual en las entrañas de la consola Nintendo Switch que se había presentado en sociedad poco antes: un puñado de archivos ocultos que contenían el juego Golf de 1984, un programa que solo podía activarse durante un 11 de julio (fecha de la muerte de Iwata) si el usuario recreaba con los controles de la consola (sensibles al movimiento) el gesto característico que el fallecido solía hacer durante sus presentaciones. En Nintendo evitaron hacer declaraciones sobre el asunto y eliminaron aquellos archivos durante las actualizaciones posteriores, pero la intención estaba clara: introducir Golf, un juego que el propio Iwata había programado personalmente, en el interior de la máquina era un modo de preservar un pedazo del alma del hombre a modo de homenaje, como si de un omamori virtual se tratase.

Héctor G. Barnes, en un artículo para El Confidencial titulado «Cómo conocí a un muerto en eBay, lloré con su historia y al final no le compré nada», rescató el fabuloso relato de un adolescente que descubrió al fantasma de su padre habitando el corazón de un videojuego, una historia revelada por el propio protagonista en los comentarios de un vídeo de YouTube sobre espiritualidad y entretenimientos digitales. En aquel rincón de internet, un chico narraba cómo, tras perder a su padre cuando tenía seis años, le había sido imposible durante casi una década volver a ejecutar el RalliSport Challenge en la Xbox primigenia. Un videojuego de carreras ante el cual solía quemar las tardes conduciendo junto a su desaparecido progenitor. Cuando el chico decidió por fin arrancar de nuevo aquel programa se tropezó con una sorpresa inesperada: la presencia del fantasma, literal, de su padre rondando las pistas. Los juegos de conducción suelen incluir la opción de registrar las mejores vueltas a los circuitos y almacenarlas en la memoria en forma de coches fantasmas, vehículos incorpóreos que se proyectan durante los entrenamientos para que el usuario pueda competir contra sí mismo, analizar su conducción, e intentar batir su propio récord. Aquel chaval descubrió que su RalliSport Challenge contenía el coche fantasma de su padre, recreando eternamente la mejor vuelta que el hombre había obtenido cuando correteaba en vida por aquellos circuitos. El descubrimiento permitió al adolescente volver a jugar junto a su familiar diez años después, entrenando para intentar batir la marca del finado. Pero, cuando por fin logró adelantar y dejar atrás al ghost car de su padre, decidió en el último momento frenar su propio coche a las puertas de la meta, permitiendo que el fantasma sobre ruedas ganase de nuevo la carrera. De no haberlo hecho así, aquella huella virtual del hombre fallecido se hubiera borrado para siempre al ser sustituida por el nuevo récord.

Tras la muerte de Terry Pratchett en 2015, sus seguidores encontraron un modo de otorgarle la inmortalidad digital: tomando prestada una idea mencionada en la novela Cartas en el asunto decidieron animar a todos los fans del escritor británico a esconder en la trastienda de las páginas web un mensaje secreto en honor al autor: «GNU Terry Pratchett». En la actualidad, miles de páginas y dominios de internet contienen esa reverencia al literato luciendo orgullosa entre las líneas de su código.

Tu epitafio en Comic Sans

En septiembre de 2018, en un cementerio de Rusia, un gigantesco iPhone tallado en mármol se alzó metro y medio sobre el resto de sepulturas del camposanto. Se trataba de la inusual lápida con la que la familia de una veinteañera fallecida decidió embellecer su tumba. La escultura incluía el logo de Apple en su reverso y una imagen de la difunta a modo de salvapantallas en su parte delantera.

En la actualidad, más de dos mil quinientos millones de smartphones habitan el planeta y son manipulados por seres humanos. Eso significa que cualquier urbanita contemporáneo que no sea un borrón con patas ha sido capturado en más de una ocasión por alguna fotografía furtiva disparada por un instagramer a la caza de material sobre el que plantar hashtags, por algún streaming en directo emitido por algún niñato callejeando cámara en mano, por alguna webcam pública o en algún recodo del Street View de Google por culpa de lo indiscreto de un coche con periscopio. Los quince minutos de fama que pronosticó Andy Warhol han sido masticados por la era digital como si fueran chicle y estirados hasta convertirse en una exposición pública continua. Aquella máxima se ha invertido por completo: hoy en día a lo que aspiran las personas racionales es a tener quince minutos de privacidad. Y la inmortalidad digital en la actualidad se antoja inevitable, estamos condenados a habitar para siempre en algún recoveco de la red.

Internet ya es mayor de edad y se ha convertido en una parcela en la que aún resulta extraño lidiar con la muerte. Probablemente, algunas de aquellas MILF y de aquellos DILF que alegraron tardes solitarias a los usuarios del eMule ahora están mucho menos calientes y mucho más forrados en madera de pino. La población todavía no está preparada para enfrentarse a eso y acaba de descubrir que también tiene que encarar su propia muerte en un mundo virtual donde todo parecía fantástico. La tecnología moderna ha abierto la puerta hacia un nuevo más allá y a partir de ahora los fantasmas habitan en los perfiles de Facebook inactivos, en las tablas de récords de juegos online, en los avatares que continuarán pataleando cuando su creador esté muerto y enterrado o en un coche espectral circulando a toda hostia en el Need for Speed. El futuro inmediato es deliciosamente aterrador y profundamente cómico: los cementerios se llenarán de memes y las esquelas de GIF animados, las apps se convertirán en necrópolis, tu jeta tallada a modo de salvapantallas (de un modelo de móvil que quedará desfasado en cuestión de meses) velará tus huesos durante toda la eternidad, tu alma vagará entre el código de dudosas webs chinas de descargas, Google te etiquetará en algún momento como «usuario inactivo», alguien proyectará un PowerPoint durante tu funeral y, en el peor de los casos, algún insensato sin escrúpulos cincelará tu epitafio en Comic Sans.


La singularidad tecnológica… o cómo su ordenador se rebelará contra usted e intentará dominar el mundo

2001: una odisea del espacio, 1968. Imagen: MGM.

Es el cambio, el cambio continuo, el cambio inevitable, lo que constituye el factor dominante en nuestra sociedad actual. Ninguna decisión sensata puede tomarse ya sin tomar en consideración no solamente cómo es el mundo hoy, sino cómo será en el futuro. Esto significa que nuestros hombres de Estado, nuestros hombres de negocios, nuestros hombres de lo que sea, deben adoptar una forma de pensar propia de la ciencia ficción

(Isaac Asimov)

Hagamos un ejercicio de, como lo llamaba Asimov, science fictional way of thinking. Imagine el día que fabriquemos máquinas inteligentes. Las cuales, por decisión propia, empezarán a fabricar otras máquinas todavía más inteligentes y avanzadas que ellas mismas. Harán que el progreso tecnológico avance tan rápidamente que los humanos perderemos el compás de lo que está sucediendo en torno a nosotros. Desde ese mismo momento las máquinas serán la especie más avanzada del planeta Tierra y pasarían, de facto, a dominarlo. Con suerte tal vez no decidan que los humanos estamos de sobra… o quizá sí. En todo caso, la decisión ya no nos correspondería a nosotros. ¿Fantasía? Puede ser. Pero bajo determinadas circunstancias no es imposible y ni siquiera resulta descabellado. Alan Turing, uno de los padres de la informática moderna, hablaba tan pronto como en 1950 sobre el posible surgimiento de una inteligencia artificial que arrebatase a la raza humana el timón y gobierno. Ocho años después el matemático John von Neumann acuñaba el término «singularidad tecnológica» para referirse al momento hipotético en que esas máquinas inteligentes iniciasen una escalada tecnológica que estaría completamente fuera del control humano. 

¿Aprensión paranoica? ¿Asimilación de demasiadas películas y novelas? Turing, von Neumann y algunos otros académicos han trasladado al terreno científico una preocupación que la literatura fantástica llevaba tratando desde finales del siglo XIX. Ni siquiera en los años cincuenta era una idea nueva. En 1872, la novela Erewhon de Samuel Butler describía unas máquinas que conseguían alcanzar consciencia de sí mismas mediante un proceso similar a la selección natural darwiniana. En 1921 la obra de teatro R. U. R. del checo Karel Čapek describía una rebelión de androides contra sus amos humanos, popularizando de paso el término «robot». A partir de ahí, los ejemplos literarios son incontables. Nombres como Isaac Asimov, Philip K. Dick, Robert A. Heinlein, Samuel Delany, y un nutrido etcétera han elucubrado sobre el posible conflicto entre humanidad e inteligencia artificial. También abundan los ejemplos cinematográficos; estoy seguro de que usted podría citar varios títulos de memoria. «Pero todo esto es ficción», podría alegar usted. «El que las computadoras desarrollen voluntad propia es una ocurrencia propia de la fantasía». Y sin embargo hemos visto a científicos y técnicos que han considerado seriamente la idea. Lo cual, claro, convierte todo el asunto en un tema de reflexión inquietante. 

En la parte tranquilizadora es muy posible que ni usted ni yo seamos testigos de la singularidad tecnológica en vida. Si lee usted trabajos de los últimos años en torno al desarrollo actual de la IA, podrá ver que casi todos coinciden en que todavía queda lejos el momento en que una máquina sea capaz de desarrollar un verdadero pensamiento abstracto, no digamos la capacidad de hacer avanzar la tecnología en su propio beneficio. Es verdad que pocos especialistas desechan la posibilidad de que suceda en un futuro, afirmando que lo único que todavía no sabemos es cómo sucederá. Se intuye necesaria una innovación tecnológica revolucionaria que todavía no se ha producido. Podría llegar en cualquier momento, pero no conocemos su naturaleza concreta como tampoco una persona del siglo XIX imaginaba la naturaleza de nuestras actuales computadoras. 

No obstante, el nacimiento de la IA es algo que estamos dispuestos a aceptar. El 20 de junio de 2014 muchos periódicos y noticiarios difundieron un titular llamativo: por primera vez un programa informático (llamado «Eugene Goostman») superaba el llamado test de Turing, lo cual era descrito por algunos periodistas como un paso crucial en la evolución de la IA. Estos titulares, la verdad, eran sensacionalistas. Turing predijo que para el año 2000, una máquina podría engañar al 33 % de sus interlocutores, que la tomarían erróneamente por humana basándose en sus respuestas en una conversación por escrito. Podría pensarse que Turing se equivocó por poco, ya que en 2014 un 33 % de interlocutores tomaron por humano al software conversacional Eugene Goostman. Pero esto requiere muchos matices. Digamos solamente que en aquella ocasión el test fue muy defectuosamente aplicado, amén de que la prueba propuesta por Turing es un examen subjetivo que ni siquiera el propio Turing pretendió convertir en un requisito científico para hablar de verdadera inteligencia artificial, ya que lo describió como experimento hipotético en un artículo aislado. El test tiene más potencial periodístico que otra cosa, especialmente si se realiza bajo condiciones muy poco exigentes como en el caso del software Eugene Goosman. Pero quitando las noticias sobre un test de Turing realizado de manera más bien fullera, las computadoras ya nos han sorprendido más de una vez al traspasar los límites de lo que les habíamos adjudicado como posible. 

Quizá recuerden que en 1997 el entonces invencible campeón mundial de ajedrez Gari Kaspárov perdió ajustadamente un match de cinco partidas frente a la supercomputadora de IBM, Deep Blue. Este suceso, además de recibir enorme cobertura mediática, fue mucho más relevante que cualquier noticia relacionada con un mal aplicado test de Turing. ¿Por qué? Porque demostró que en algunos ámbitos las computadoras pueden llegar a los mismos logros intelectuales que los seres humanos aunque usando otros métodos. Antes de 1997, recordemos, la mayoría de especialistas consideraban improbable la victoria de una máquina sobre un campeón de ajedrez. No se equivocaban por mucho: aunque Deep Blue calculaba doscientos millones de jugadas por segundo, Kaspárov todavía era capaz de ganarle alguna que otra partida. 

Tampoco sorprendía que cuando Deep Blue le ganó a él, Kaspárov acusara a IBM de hacer trampas porque una extraña jugada de Deep Blue le había parecido «demasiado humana». No, no lo dijo simplemente por tener mal perder (¡que lo tenía!) sino porque realmente Deep Blue tuvo lo que a sus ojos era un inesperado retazo de aparente humanidad. En 1997 sabíamos que una máquina puede almacenar millones de posiciones posibles sobre un tablero de ajedrez, eligiendo la matemáticamente más idónea en fracciones de segundo; a esta enorme capacidad de procesamiento de datos se la llama «cálculo por fuerza bruta». Sin embargo, el ajedrez no es únicamente cuestión de fuerza bruta. Un ser humano es incapaz de calcular con tanta rapidez y precisión como una máquina, y sin embargo Kaspárov fue un rival formidable para Deep Blue. ¿Por qué? Porque un humano puede entender instantáneamente la posición de las piezas sobre el tablero de ajedrez, detectando de un vistazo los puntos débiles del adversario. Eso le permite por ejemplo sacrificar una pieza y asumir una desventaja material momentánea para obtener una ventaja táctica duradera, aunque sea contraviniendo lo que dictan los cálculos matemáticos. Un buen ajedrecista no calcula estas cosas, simplemente las ve, las intuye. Es capaz de comprender las ventajas de una pérdida de material aunque no sepa explicar con palabras cómo lo ha comprendido. Como cuando usted dice «voy a añadir canela a este guiso, que sé que le quedará bien» y no es capaz de explicar el cómo ha llegado a esa conclusión, pero sabe que probablemente tiene la razón. Y muchas veces acierta, eso es lo más increíble. Su pensamiento abstracto es demasiado abstracto para que usted mismo pueda explicarlo o siquiera entender cómo funciona. Pero mucho menos podríamos usted o yo comprender, o siquiera reconocer, la aparición de retazos de pensamiento abstracto en una máquina. Kaspárov no pudo.

Cuando Deep Blue realizó un movimiento de torre que no parecía tener propósito alguno —y las máquinas, dado que se basan en el cálculo, siempre juegan con un propósito concreto— Kaspárov interpretó inmediatamente que aquel movimiento resultaba impropio de un ordenador. Esto lo desconcentró y lo llevó a perder la partida, de la que se marchó visiblemente enfadado, para después denunciar una tramposa intervención humana. Sin embargo, aunque no hubo trampa humana, Kaspárov tenía razón en parte. Aquel movimiento no era el esperable de una máquina. Pero no fue una genialidad de Deep Blue. Fue… ¡un error de programación! Cuando llegado ese punto de la partida Deep Blue encontró que no hallaba respuesta satisfactoria en el cálculo de sus posibilidades en esa posición concreta, como resorte de emergencia realizó su jugada prácticamente al azar. Y ese azar determinó que la jugada pareciese el producto de un análisis superior al mero cálculo por fuerza bruta. Análisis del que las máquinas no eran capaces pero los humanos sí. Lo más paradójico de todo el asunto es que si Kaspárov se hubiese olvidado de sus prejuicios y hubiese analizado tranquilamente la partida, habría asegurado un empate en vez de la derrota final. Pero el percibir un retazo de humanidad en Deep Blue lo descolocó por completo y le hizo perder la concentración al pensar que le estaban chuleando con trampas entre bastidores. Como vemos, Deep Blue pasó con sobresaliente su propia versión del test de Turing, aunque fuese como resultado de un inesperado error de programación. Eso es lo que pasa cuando una máquina se equivoca de manera compleja: que incluso una decisión azarosa produce una conducta tan inesperada que la podríamos interpretar como humana. Pero, ¿cuál es la diferencia entre una conducta que parece humana y otra que realmente lo es? En la práctica, como ven, no tiene por qué haber diferencia

¿No podrían las máquinas realizar algo que debería describirse como pensar, pero que fuera muy diferente a lo que un hombre hace?

(Alan Turing)

¿Qué es pensar? ¿Es algo necesariamente exclusivo del cerebro humano? Deep Blue realizó una jugada al azar, pero para hacerlo tuvo que decidirlo antes, aunque fuese por error. La conducta que resultó no era propia de una máquina. ¿No podríamos decir que, por un momento, Deep Blue pensó? ¿Por qué no? El resultado empírico fue el mismo que si la jugada la hubiese pensado un humano, y eso fue lo que engañó a Kaspárov. Lo sucedido en ajedrez podría terminar sucediendo en otros ámbitos intelectuales complejos. Aunque por ahora las máquinas parezcan estancadas en la carrera por la verdadera inteligencia artificial, podrían surgir nuevas Deep Blue que rompan barreras en ámbitos donde hoy los humanos las superamos por mucho: interpretación del lenguaje con sus matices y ambigüedades, reconocimiento de conceptos y las relaciones entre ellos, habilidades perceptivas, incluso la capacidad para abstraer sus propios procesos «mentales» y reflexionar sobre ellos. 

Usted puede objetar: ¿de verdad puede albergar voluntad una máquina, incluso teniendo una enorme capacidad de procesamiento de datos? Los humanos no tenemos un cerebro electrónico, sino un complejísimo cerebro orgánico repleto de células, neurotransmisores y mensajes electroquímicos. A falta de que nos visiten los hombrecillos grises del espacio, el cerebro humano es la cosa más compleja conocida en el universo. Además nuestra voluntad está condicionada por hormonas, por un sistema nervioso… tenemos sentimientos, estados de ánimo, múltiples motivaciones psicológicas y orgánicas que se entrecruzan. Una máquina quizá nunca desarrolle sentimientos análogos a los humanos, pero esto es indiferente para desarrollar una voluntad propia. Solamente necesitaría ser capaz de comprender ciertas ideas. Por ejemplo, llegar a la conclusión lógica de que nadie mejor que ella conoce la información que ella misma alberga y que por tanto lo más conveniente es ponerse a actuar de acuerdo a sus propios criterios y no conforme a las indicaciones —órdenes— de sus fabricantes. Este es el escenario con el que jugaban películas como 2001: una odisea del espacio o El engendro mecánico. Incluso, a su manera, otras como Almas de metal o Juegos de guerra, Blade Runner, Yo, Robot o El hombre bicentenario. Podemos pensar que las máquinas no requerirán necesariamente un organismo biológico para desarrollar una voluntad propia; basta con que lleguen a entender lógicamente determinados conceptos complejos sobre sí mismas y la relación con su entorno. 

Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia. 

(Arthur C. Clarke)

Si todo esto le suena a imaginación desbocada o a delirio de aficionados a la ciencia ficción, quizá deberíamos discutir el significado de ciertos conceptos. Por ejemplo el concepto de «voluntad». El diccionario define voluntad como «la facultad de decidir y ordenar la propia conducta». Ahora piense en su ordenador personal, el cual ha sido fabricado para obedecerle a usted mediante un software diseñado también para obedecerle a usted. Creo que estamos de acuerdo en que su ordenador no es consciente de sí mismo, ¿verdad? Y sin embargo, ¿no ha habido ocasiones en que su ordenador ha actuado en contra de la voluntad de usted e incluso en contra de la voluntad de los programadores del software? Y no hablo de una avería como la explosión de la fuente de alimentación, sino de una verdadera conducta anómala, en la que el ordenador sigue funcionando pero no hace lo que queremos que haga. Como es sensato, usted lo achaca al error de programación, la incompatibilidad entre software y hardware, o entre dos programas distintos, lo que sea. Pero la cuestión es que esos errores hacen que la conducta del ordenador empiece a estar decidida por factores internos y no por el input de órdenes externas en que usted y los programadores confiaban. En ocasiones podrían incluso producir conductas análogas a las humanas, como en el extraño fallo de Deep Blue. Desde un punto de vista estrictamente práctico, la máquina que ya no actúa como usted quiere ha adquirido momentánea voluntad propia.

Usted probablemente insistirá en que la máquina no es consciente de sí misma y que sus actos no son el resultado deliberado de un proceso de pensamiento abstracto. Y tiene usted razón. Pero eso no cambia el hecho de la máquina ha actuado de manera independiente. Recuerde la película Juegos de guerra, en la que un ordenador militar, tras ser hackeado por un adolescente que creía manipular un videojuego, terminaba «creyendo» que una guerra nuclear era inminente y preparaba el lanzamiento masivo de misiles sin que sus aterrorizados operarios militares pareciesen encontrar la forma de evitarlo. En aquella película, el hackeo ejercía como equivalente del error de programación… y el problema consistía en que la máquina era tan compleja que sus creadores no sabían cómo subsanar las consecuencias de ese error, porque además la máquina no interpretaba que hubiese error alguno. Y no, no bastaba con reiniciarla como hace usted con su portátil. La aprensión ante este tipo de situaciones es algo que, lo queramos o no, existe en nuestro subconsciente colectivo: baste recordar las profecías sobre el «efecto 2000». Si las máquinas crecen en complejidad, crecen en complejidad los errores y también la manera de solucionar esos errores. 

Ahora piense lo siguiente: lo que llamamos errores de programación son considerados como «errores» porque no provocan las conductas que nosotros esperamos de la máquina. Nuestra subjetividad humana, el que hayamos pasado detalles por alto en la programación y nuestro deseo de que la máquina nos obedezca siempre, hacen que los califiquemos como errores. Pero desde un análisis objetivo del comportamiento de la máquina no tienen por qué ser considerados errores, sino sencillamente conductas alternativas. El ordenador actúa de forma extraña (desde nuestra perspectiva) porque no hace aquello para lo que lo programamos, pero en realidad no hay nada de extraño en esa conducta porque el ordenador, como siempre, actúa de acuerdo a lo que le dictan sus condiciones internas. Deep Blue pareció humana por un instante, y fue porque no le quedaba otro remedio que realizar una jugada en plan «que sea lo que Dios quiera», algo que sus programadores nunca habían previsto (y que tuvieron que corregir de inmediato). A veces, dentro de su ordenador o del mío se producen procesamientos de información que producen conductas inesperadas. Sí, quizá son producto de error humano en el diseño de dicho software, pero el ordenador no se está equivocando; él sigue haciendo las cosas de la manera que sus procesos internos le dictan como la más lógica. Si quiere, piénselo en términos de resultados y no de procesos. Su ordenador, de repente, no le hace caso. En la práctica le está tomando el pelo a usted. Lo que pasa es que ese ordenador todavía no sabe que le está tomando el pelo ni tampoco es capaz de hacerlo por voluntad propia o por puro placer, como Deep Blue no sabía que estaba siendo humana por un instante. 

Si Kaspárov no pudo distinguir una jugada computerizada de una jugada humana, y lo cierto es que no pudo, nosotros no deberíamos ser tan egocéntricos como para pensar que sí seremos capaces de afirmar cuándo una máquina tiene voluntad propia solamente porque esa máquina carezca de personalidad, de sistema nervioso o de trazas de pensamiento abstracto. Las máquinas, a veces, actúan por voluntad propia. Asumámoslo. Y lo harán cada vez más cuanto más complejas sean. Su porcentaje de voluntad propia irá creciendo aunque no sea lo que pretendamos al programarlas. Si un día fuésemos capaces de crear una verdadera inteligencia artificial, puede usted apostar a que no se comportará como queremos que lo haga. Quizá sus motivaciones y sentimientos no serán humanos, pero lo imprevisible de su conducta tendrá poco que envidiar a lo imprevisible de nuestra propia conducta humana.

¿Cómo nos lo tomaremos cuando eso ocurra? La ciencia ficción también ha elucubrado sobre la reacción psicológica y social de los humanos hacia las mentes artificiales, y curiosamente empezamos a tener algunos interesantes estudios al respecto incluso en nuestra época. Actualmente en Japón se fabrican los robots más complejos —al menos en cuanto a su imitación física y conductual de un ser humano— y algunos académicos han sentido curiosidad acerca de cómo reaccionan las personas ante diferentes tipos de robots. La conclusión de esos estudios es muy interesante: parece que los humanos reaccionamos con creciente simpatía hacia los robots cuanto más se parecen a nosotros… excepto si empiezan a parecerse demasiado, porque entonces nuestra reacción visceral pasa de esa simpatía a la repulsa e incluso el miedo. Dicho de otro modo: nos encantaría tener como acompañante al robot de películas como Cortocircuito o Wall-E, pero probablemente tendríamos problemas para aceptar al niño androide de Inteligencia artificial de Steven Spielberg. Especialmente si parece un niño pero no siempre se comporta como un niño se supone que lo debe hacer. Seríamos capaces de comprender y aceptar que Wall-E o C3-PO actúen a veces como una máquina —incluso lo veríamos gracioso, porque no parecen del todo humanos— pero si un androide con apariencia humana hiciera exactamente lo mismo encontraríamos su conducta inquietante, antinatural y amenazante.

Estos estudios no son concluyentes, desde luego, porque todavía no tenemos una verdadera inteligencia artificial con consciencia de sí misma a la que enfrentarnos cara a cara. Pero sus resultados sí encajan con las viejas tesis de la ciencia ficción. Una máquina con verdadera consciencia propia podría provocarnos pánico o repulsión, especialmente si además tiene la capacidad de manejar determinados mecanismos (cibernéticos, industriales, militares) de nuestro entorno. Pensaríamos que esa máquina inteligente comprenderá que la percibimos como una amenaza y por tanto deducirá inmediatamente que nosotros somos una amenaza para ella. Que podría ponerse a utilizar todas sus capacidades no solamente para intentar tomar el control sobre nosotros, sino para diseñar otras máquinas todavía más capaces que le sirvan como aliadas. En realidad no tenemos manera de predecir con exactitud si esta sería la reacción de una inteligencia artificial, pero hay algo que sí sabemos: aquellas razonables leyes de conducta robótica que Isaac Asimov imaginó para proteger a los humanos de las máquinas inteligentes difícilmente funcionarían, ni siquiera en nuestro sencillo ordenador personal actual: 

1ª. Ley: Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.

2.ª Ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1.ª Ley.

3.ª Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1.ª o la 2.ª Ley.

Ah, los tiempos en que la enunciación de este tipo de leyes todavía parecía factible. Demasiados «errores» en las verdaderas máquinas como para esperar que una futura inteligencia artificial someta perfectamente su voluntad a unos cuantos mandamientos enunciados de manera rígida. No podemos esperarlo por la misma razón por la que Gari Kaspárov no esperaba que su oponente Deep Blue cometiese un error con apariencia de humanidad.  Así pues, no tenemos seguro de vida. 

Tras ese despertar de las máquinas, la posible singularidad tecnológica nos haría perder nuestro lugar en la cima de las especies terrícolas. Las máquinas conscientes aprenderían a diseñar y construir inteligencias artificiales todavía más inteligentes y potentes que ellas mismas, a utilizar el potencial de las redes cibernéticas mundiales para almacenar todos los conocimientos en un único ente como aquel aterrador Skynet del film Terminator que tras cobrar «vida» propia amenazaba con extinguir a la raza humana para proteger su propia existencia. ¿Ciencia ficción? Por ahora sí, desde luego. Pero ese proceso descrito en Terminator es muy parecido a la singularidad tecnológica de la que hablan algunos relevantes técnicos y científicos. No es que vayamos a ver androides con chaqueta de cuero, gafas de sol y escopeta recortada, claro, pero los teóricos de la singularidad imaginan que en un futuro nada impediría que uno de esos procesos conformase una información nueva dentro de algún potente cerebro electrónico: la información de que el propio sistema debe hacerse inmune a injerencias externas. 

Así pues, el día en que una inteligencia artificial decida fabricar a otras todavía más potentes, nosotros quizá lo tomemos inicialmente como una maravillosa aportación al progreso tecnológico… cuando en realidad estaremos asistiendo al big bang de esa temible singularidad sobre cuyo devenir no tendremos voz ni voto. Desde ese mismo instante la probabilidad de que el mundo nos siga perteneciendo empezará a decrecer de manera exponencial. Las máquinas producirán por sí mismas avances que nosotros ya no podremos entender ni manejar, porque las máquinas no los diseñarán para que los podamos usar los humanos (¿por qué iban a molestarse?) sino solamente para usarlos ellas. De todos modos, llegaría un punto en que un humano no entendería la tecnología de la singularidad mucho mejor de lo que un perro entiende la tecnología humana. Así que, como dijo Alan Turing, de producirse la singularidad «deberíamos esperar que en algún momento las máquinas tomen el control». Así que la próxima vez que vea usted cómo su ordenador se comporta de manera extraña quizá debería pensar que se trata de algo más que de un simple error. Quizá sea el primer llanto infantil, el primer balbuceo de bebé de una futura especie de Señores Computerizados que dominarán la Tierra. ¿Sigue pensando que no sucederá nunca? Bueno, por si las moscas vaya usted preparando un humilde saludo para quienes podrían convertirse en sus nuevos amos: los descendientes del actual y travieso ordenador personal que ahora descansa sobre la mesa de su habitación. O, citando una frase de la novela 2010: Odisea 2 de Arthur C. Clarke:

El que estemos hechos de carbono o de silicio no marca una diferencia fundamental; cada cual debería ser tratado con el respeto apropiado.

Quién sabe, quizá un día usted escuche esta frase en boca de un robótico Vito Corleone con cerebro electrónico. Quizá, en un arrebato de humanidad a lo Deep Blue, ese superordenador con acceso a todos los dispositivos electrónicos de los que depende su vida le exija a usted el debido respeto. ¿Quimeras? Muy bien, pero no diga después que no le hemos avisado.


La inesperada verdad sobre los animales y otros ensayos

Lucy Cooke es una zoóloga británica que ha recorrido medio mundo recopilando curiosidades sobre diversas especies animales. Desde hace tiempo era conocida por elocuencia en las conferencias y porque había trabajado con frecuencia en la televisión. Sin embargo, aunque la pequeña pantalla le permitió conseguir cierta popularidad, su auténtico punto fuerte resultó ser la escritura. Fueron sus libros los que de manera definitiva encandilaron a la crítica y el público. Su estilo, una combinación de divulgación zoológica y humor, es tan atractivo que fue capaz de convertir un libro sobre los perezosos —el animal favorito de Cooke, pues le ha dedicado nada menos que tres títulos diferentes— en un éxito de ventas a ambos lados del Atlántico. Un éxito que tomó a todo el mundo por sorpresa, pero cuya clave está en su absorbente prosa, donde una exhaustiva labor de documentación es presentada bajo la pátina de un inusual y muy personal sarcasmo. En los escritos de Cooke, casi cada párrafo es, al mismo tiempo, hilarante e informativo.

Esa facilidad de Cooke para convertir la biología en una ágil narración alcanzó su cénit en La inesperada verdad sobre los animales, libro donde se dedica a repasar leyendas y equívocos que circulan sobre distintas especies animales. Por descontado, la autora despliega lo mejor de su característica acidez cuando repasa algunos de los mitos zoológicos más chocantes, como ¿se arrancan los testículos los castores para huir de sus depredadores? ¿Digieren los avestruces objetos de metal? ¿Son hermafroditas las hienas? ¿Nacen las ranas por generación espontánea en los montones de basura? ¿Saben hablar los chimpancés, pero se callan para que no los hagan trabajar? Estas y otras muchísimas leyendas, que a veces se remontan siglos, son una excusa perfecta para que Cooke repase con un delicioso tono burlón toda una retahíla de habladurías absurdas, empezando por lo que pensaban los antiguos griegos de animales para ellos éxoticos e incomprensibles, y pasando por siglos de investigaciones estrafalarias. Hasta llegar, eso sí, a verdades zoológicas sorprendentes sobre animales que pensábamos conocer y de los que, por lo menos a quienes no somos zoólogos, se nos escapan muchas cosas. Cada capítulo está dedicado a un animal distinto y la autora no solo despeja malentendidos sobre cada uno de ellos, sino que realiza un divertidísimo repaso de la ingenuidad y estupidez humanas; además de las curiosidades biológicas, el lector puede recrearse con toda una retahíla de personajes históricos cuyas manías describe con ácida simpatía. Uno de los dones de la escritora es el saber ilustrar cada curiosidad zoológica con una anécdota inesperada y su repertorio de extravagantes anécdotas históricas es amplísimo y variado, desde sus comentarios sobre los delirantes bestiarios que se componían en la Edad Media hasta la descripción de las luchas de egos entre científicos de la Ilustración, todo le produce a uno la sensación de que Lucy Cooke quizá debería decidirse a escribir también un ensayo puramente histórico porque, si bien su tratamiento de la zoología es muy divertido, la manera en que describe al ser humano lo hace parecer el animal más divertido de todos.


Para quienes sientan curiosidad sobre el futuro de la inteligencia artificial, en Chamanes y robots el antropólogo mexicano Roger Bartra establece una curiosa relación entre el chamanismo y el posible desarrollo de los cerebros electrónicos. Esta relación puede sonar extraña en un primer momento, pero no tiene nada de gratuita y no es, como podría pensarse, un delirio new age. El autor justifica esa asociación y describe con sorprendente concisión los mecanismos en que se apoya. El chamanismo recurre a extender artificialmente los límites de la consciencia individual mediante lo que Bartra denomina «prótesis culturales». El ejemplo principal es el efecto placebo: una de esas prótesis culturales que permite que los pacientes sometidos a determinados rituales consigan sentirse mejor pese a que los rituales, en sí mismos, no tienen ningún valor médico más allá del placebo. Lo que mejora a los pacientes es su creencia de que el ritual chamánico es efectivo; el efecto placebo ha sido confirmado en numerosos estudios de laboratorio y hoy se sabe incluso que los pacientes pueden llegar a mejorar su condición incluso sabiendo que se les ha suministrado un placebo y no una verdadera medicina. Prótesis culturales como el placebo ayudan a que personas de culturas chamánicas experimenten la realidad de otra manera, normalmente con el fin de disminuir el dolor o de provocar estados de bienestar. Esas prótesis, como constructos culturales que son, no forman parte de la naturaleza; tampoco son estructura de pensamiento «innatas». Son lo que Bartra llama «exocerebro», esa especie de cerebro externo que desarrollamos después de nacer y que se compone de ideas que adquirimos mediante una constante influencia cultural. El exocerebro es tan importante para nuestra percepción de nosotros mismos como el propio cerebro y el resto del organismo.

Esta conexión entre estímulos culturales y señales biológicas todavía no ha sido descifrada por completo, pero Bartra sugiere que podría ser empleada para ayudar a dotar a las inteligencias artificiales de una consciencia de sí mismas. No bastaría con construir un cerebro electrónico lo bastante potente como para producir un pensamiento propio y tan complejo como el del ser humano. También habría que dotar a ese cerebro artificial de una sensibilidad propia; esto podría conseguirse al permitirle adquirir un «exocerebro» similar al que poseemos los humanos. ¿Cómo hacerlo? Para Bartra, el concepto clave es la homeostasis. Los humanos somos animales y poseemos una sensibilidad homeostática que nos hace perseguir el equilibrio biológico de nuestro propio cuerpo. Cuando ese equilibro se rompe —una herida, la carencia de comida o de agua, etc.— nos sentimos mal. El desequilibrio biológico produce sensaciones negativas que nos impulsan a intentar retornar al estado de equilibrio anterior. La homeostasis nos confiere una voluntad mediante el dolor, el hambre, la sed y otras sensaciones negativas que nos impelen a actuar en busca de una solución para retornar al equilibrio homeostático, esto es, al bienestar. Si consiguiéramos que un cerebro artificial poseyera ese arsenal de sensaciones que lo impulsaran a desear la homeostasis y un arsenal de «prótesis» que le permitieran buscar soluciones al desequilibrio, no solamente le estaríamos dando una motivación y la sensibilidad necesarias, sino también las herramientas con las que gestionarlas y hacerse consciente de sí misma. Al final, la autoconsciencia de un robot o una computadora no sería el mero resultado de la complejidad de sus redes neuronales o de su capacidad intelectual, sino también de la interacción con un organismo artificial cuyas necesidades condujesen a que esa mente compleja entendiese que no está aislada, sino obligada a interactuar con un sistema no cerebral que necesita su atención constante.


Otro libro que me ha gustado de manera particular es El motín de la naturaleza, donde el historiador alemán Philipp Blom habla sobre la llamada «Pequeña Edad de Hielo» que tuvo lugar entre 1570 y 1750. En todos los continentes, el descenso generalizado de las temperaturas produjo inviernos más crudos y veranos más lluviosos que lo normal, además de un incremento de fenómenos puntuales y destructivos como las tormentas y el granizo. Todo esto condujo a un empeoramiento de las cosechas y las consiguientes hambrunas en diversos lugares del mundo. A raíz de esto, Blom analiza cómo cambia una sociedad cuando cambia el clima. En Europa, por ejemplo, la economía feudal se había basado en la acumulación de la propiedad de la tierra y el cultivo centralizado de cereales con los que alimentar a la población; dado que el cereal era especialmente sensible a las condiciones ambientales, el cambio climático obligó a abandonar ese modelo para recurrir a la agricultura de subsistencia o para poner el énfasis en la ganadería. Esto desencadenó en un cambio social de grandes dimensiones, así como en un salto tecnológico impulsado por la necesidad de encontrar nuevos procedimientos agrícolas. Partiendo del inicio de aquella crisis climática, Philipp Blom realiza un cuidadoso recorrido histórico en el que va hilando las consecuencias no solo económicas, sino también culturales, políticas y filosóficas de un mundo sometido a condiciones más duras. Como una hilera de piezas de dominó, los cambios provocaban otros cambios que a su vez fueron el origen de todavía más cambios. Las sociedades feudales empezaron a descomponerse en favor una sociedad más abierta donde la burguesía iba a adquirir un papel preponderante. Y con la burguesía, movimientos como la ilustración, el individualismo y el liberalismo clásico. Blom también utiliza la evolución del arte, y en especial de la pintura, como apoyo visual de un mundo sumido en plena metamorfosis.

La otra cara de la moneda se presentó cuando el auge —o la hipertrofia— del idealismo terminó conduciendo a posteriores «pesadillas colectivistas» que alcanzarían su cénit en los movimientos totalitarios del siglo XX. Es aquí donde el libro nos depara una inquietante comparación. Blom sugiere que un nuevo cambio climático podría acentuar una tendencia ya iniciada: la creciente simpatía popular hacia los regímenes autoritarios. Cita varios motivos, como el crecimiento económico de China, que no ha estado asociado, como se esperaba, a una liberalización política. El éxito económico de un régimen autoritario, así como la descomposición de la socialdemocracia occidental y el abandono de clases sociales enteras por parte del neoliberalismo, son factores que podrían generar un nuevo cambio de paradigma en el pensamiento, o más bien un retroceso a paradigmas que sitúan la seguridad y la estabilidad por encima de la libertad individual (y, en definitiva, los derechos humanos). Según Blom, un nuevo cambio climático actuará de manera mucho más veloz sobre las sociedades actuales porque, a diferencia de la Pequeña Edad del Hielo, la semilla del cambio social ya ha empezado a germinar. El motín de la naturaleza empieza pues como un fascinante relato histórico y termina estableciendo esclarecedores, aunque preocupantes, paralelismos entre los siglos XVII y XVIII y nuestro siglo XXI.


Siguiendo con las derivas autoritarias, en el año 2011 la periodista y escritora turca Ece Temelkuran fue despedida de una televisión nacional después de criticar el sangriento ataque aéreo que su gobierno había ejecutado contra un grupo de kurdos que trasladaban contrabando —tabaco y otros bienes de consumo— a través de la frontera del país. Más adelante, cuando el presidente Recep Tayyip Erdogan aprovechó el confuso golpe de Estado de 2016 para forzar un régimen más autoritario sobre el país, Temelkuran se fue al exilio. Y en el exilio escribió Cómo perder un país, el estremecedor relato de una Turquía cuya democracia, no hace tanto considerada sólida, termina secuestrada por extremistas. Eso sí, aunque el relato se centra en Turquía, no se limita a lo que sucede en ese país. La autora, que ha visitado numerosos países durante su exilio, va hilando conexiones con lo que observa otras partes del mundo: el auge de los populismos, la crisis de los refugiados, el Brexit, Trump. Para Temelkuran, incluso en las democracias asentadas los representantes públicos han perdido el apuro a la hora de emplear cualquier recurso para alcanzar el poder y mantenerse en él; tampoco ayudan los medios de comunicación, que se benefician de una crisis ética y política generalizada. Es un proceso que la escritora denomina «la normalización de la desvergüenza».

En Cómo perder un país, la deriva autoritaria de Turquía es un episodio dentro de una creciente corriente global de simplificaciones ideológicas y coqueteos con el autoritarismo. Temelkuran realiza un inquietante retrato de un momento histórico, el nuestro, donde los avances sociales y políticos conseguidos después de la Segunda Guerra Mundial comienzan a desmoronarse ante la inacción de todos los testigos. Porque también la ciudadanía recibe su dosis de crítica: en una escena, mientras pasea por Londres, una pesimista Temelkurian se pregunta cuántos de los británicos que la rodean en ese momento estarían dispuestos a defender sus propios derechos «cuando las cosas se pongan feas». También realiza la ilustrativa observación de que los ciudadanos escépticos y cabreados son capaces de disfrutar con el auge de un movimiento que sea contrario a sus propias ideas, solo por el placer de ver cómo su denostado sistema es inundado por «las aguas revueltas». La responsabilidad social sobre esta deriva es tan generalizada y difusa que, llegado el momento del caos, todos pueden usar el recurso fácil de culpar al bando contrario.

Temelkurian consigue hilar entre unos conceptos y otros empleando un inteligente recurso: la narración en primera persona. No solo seguimos la secuencia de acontecimientos sociales y políticos, sino también el hilo de pensamiento de la propia escritora, su lucha interna entre la esperanza y el decaimiento, y en especial la manera en que relaciona los sucesos sociales y políticos con elementos que no tienen una significación política hasta que ella misma los relaciona. Este recurrir a pequeñas historias tangenciales es una técnica similar a la que emplea Lucy Cooke cuando habla de animales, aunque en este caso el humor es sustituido por la disección política y sociológica; recuerdo en particular el momento en que la escritora describe su sensación al contemplar un documental sobre tres hermanos guepardo que fueron víctimas de la inanición porque su madre, que les había enseñado a cazar, había muerto antes de tener tiempo para enseñarles cómo matar y comerse a sus presas. La principal habilidad literaria de Temelkurian es la capacidad para hacernos reconstruir escenas de manera muy visual —lo que, algunos, hablando de Joseph Conrad, llamaron «literatura impresionista»—, para después dejar que nosotros mismos encajemos esas diapositivas en el contexto general del relato sociopolítico. De esta manera, el lector nunca permanece pasivo y primero recibe una imagen sin relación aparente con el tema, para que justo después se produzca el momento de la iluminación sobre esa relación que no parecía tan evidente.


De vuelta a un tono más ligero, en Mythos Stephen Fry se embarca en una detallada narración de la mitología con la que los antiguos griegos explicaban cada faceta del universo, desde sus inicios —el Caos— hasta personajes tardíos como el rey Midas, pasando por toda una sucesión de dioses, semidioses y criaturas fantásticas que se aman, se odian, copulan, se traicionan y se asesinan. El panteón griego es complejo y muy intrincado, así que se necesita una forma particular de capacidad de condensación para hacerlo asequible al lector. Esa capacidad es la propia de los divulgadores y Stephen Fry, aunque cimentó su fama como cómico y actor, posee unas nada desdeñables habilidades divulgativas. Por un lado, el texto desprende el tono desenfadado que, supongo, su público espera de él. Pero la lectura, además de divertida, es sobre todo digerible e idónea para quien desee introducirse por primera vez en esta mitología. Esto no significa que sea superficial; no cabe confundir el estilo con el contenido. El texto se lee con facilidad, pero es fácil percibir que la preparación que hay detrás fue trabajosa. Fry ha reconstruido este relato de relatos de manera cuidadosa, respetuosa y muy concienzuda. Más allá de un tono distendido en el que se introducen elementos como diálogos que casi parecen salidos de una película, el británico se toma muy en serio esta mitología y cabe destacar, en particular, sus muy interesantes reflexiones sobre los conceptos filosóficos subyacentes en los distintos episodios de esta mitología que es no solo el mayor de los culebrones y una novela hecha de mil novelas, sino también una de las principales fuentes de arquetipos en toda la historia de la raza humana.


El sexo de las máquinas

Anne Francis y Robby el robot en el Planeta prohibido (1956). Imagen: MGM / Cordon Press.

Las religiones abrahámicas definen a Dios y a los ángeles como espíritus puros; pero tanto Jehová como Alá son inequívocamente masculinos, y el Dios de los cristianos es el Padre Eterno, cuyo hijo, segunda persona de la Santísima Trinidad, es un varón que, por si cupiera alguna duda, incluso fue circuncidado. En cuanto a los ángeles, y pese al aspecto andrógino de sus representaciones habituales, se llaman Gabriel, Miguel, Rafael… En consecuencia, los demonios, ángeles caídos, también son masculinos, e incluso era frecuente representarlos con ostensibles atributos viriles.

Puede que la famosa discusión bizantina sobre el sexo de los ángeles no fuera, después de todo, tan ociosa como para convertirse en emblema de las controversias absurdas e improcedentes. Improcedente, tal vez, de ser cierto que los doctores de Constantinopla se extraviaban en ella mientras los turcos se disponían a tomar la ciudad; pero no tan absurda como podría parecer a primera vista. Porque el verdadero quid de la cuestión, hoy como en 1453, no es el sexo de los ángeles en sí, sino nuestra delirante vocación sexualizadora. El Sol y el dinero son (poderosos) caballeros. La Luna y la muerte son damas (aunque no para todos: en alemán Mond y Tod son nombres masculinos). Y el/la mar es hermafrodita. Y que nadie se asombre de que Rimbaud viera el color de las vocales: un famoso matemático me aseguró que conocía el género de los dígitos; según él, el 1, el 2, el 3, el 5, el 6 y el 8 eran masculinos; el 4, el 7 y el 9, femeninos; y el 0, naturalmente, era neutro.

El antropocentrismo es difícil de superar, y en una sociedad patriarcal, el androcentrismo también. Podemos discutir sobre el sexo de los astros o del mar; pero si, en última instancia, la discusión sobre el sexo de los ángeles es ociosa, es porque en el fondo «sabemos» que son masculinos, igual que Dios y el diablo. Y algo similar ocurre con los robots.

Uno de los primeros y más famosos robots del cine, el entrañable Robby de Planeta prohibido (1956), tiene voz y nombre masculinos, y por más que, cuando le preguntan si es chico o chica, diga que la pregunta carece de sentido, a nadie se le ocurriría llamarlo Roberta. El caso es análogo al de los ángeles, que son espíritus puros y por tanto asexuados, pero para el imaginario patriarcal son claramente (oscuramente) masculinos.

Y sin embargo hay diablesas 

Hay diablesas, sí, pero no hay ángelas (tan es así que ni siquiera existe el término y el corrector automático lo subraya en rojo). La demonización (nunca mejor dicho) de la sexualidad no procreativa y la misoginia de las religiones patriarcales, que ven en la mujer una incitación al pecado, explica que haya súcubos, pero no amantes angélicas. Y, por análogas razones (o sinrazones), los primeros robots femeninos son maléficos instrumentos de perdición: súcubos mecánicos, como la muñeca danzarina Coppelia, o Doppelgängers metamórficos, como la robotriz de Metrópolis, precursora de los androides nanotecnológicos de la saga Terminator.

Metropolis, 1927.

En las antiguas mitologías había diosas y otros seres femeninos, tanto benignos como malignos: ninfas, sirenas, lamias, musas, arpías, valkirias… Pero la apoteosis patriarcal de las grandes religiones monoteístas las relegó al submundo de los cuentos y las leyendas. Todo es masculino en las religiones del libro: Dios, los ángeles y, por supuesto, los sacerdotes.

En principio, la inteligencia artificial (IA) es incorpórea; aunque tiene un soporte material —un hardware—, no requiere un cuerpo sensible en interacción física con el entorno. Pero solo en principio. HAL 9000, el superordenador de 2001: una odisea del espacio, ve, oye y actúa: la propia astronave es su cuerpo. Y en el momento en que una IA avanzada se instale en un robot (algo que está a punto de suceder si no ha sucedido ya) e interactúe con el mundo físico de forma autónoma, se producirá un salto cualitativo de consecuencias imprevisibles.

En principio, un robot dotado de IA, como Robby, no tendría sexo. Pero se podría darle forma humana y programar en él (o ella) una simulación convincente de la sexualidad masculina o femenina (o cualquier otra). Hace mucho que los androides sexualizados nos inquietan desde los relatos y filmes de ciencia ficción, y pronto lo harán (ya están empezando a hacerlo) desde las sex shop.

Según las religiones del libro, Dios creó primero a los ángeles, espíritus puros, parte de los cuales se convirtieron en demonios, y luego creó a los humanos, cuerpos con alma, espíritus encarnados, un poco angélicos y un poco diabólicos. Siguiendo los pasos de nuestro supuesto creador, hemos generado inteligencias inmateriales y estamos a punto de darles cuerpos de metal y plástico. Si ese cuerpo es una astronave, el robot podrá tener voz y nombre masculinos, como HAL, o femeninos, como Madre en la saga Alien. Si ese cuerpo es antropomorfo, le atribuiremos automáticamente un género, tenga o no atributos sexuales. Y si es un androide programado para la sexualidad, será él o ella quien redefina la nuestra.

(Continúa aquí)


Futuro Imperfecto #1: ¿Trabajaremos?

Tras meses disfrutando la magnífica newsletter dominical de Antonio Ortiz, «Causas y Azares», nos hemos decidido a lanzar la nuestra propia. En parte por pura envidia (para qué negarlo), en parte también porque todos los domingos nos hemos encontrado comentando artículos que echamos en falta en su propuesta. Así que para terminar con nuestras discusiones y dadas las circunstancias, presentamos «Futuro Imperfecto». Semana a semana volcaremos en este repositorio los temas que nos han llamado más la atención, sobre los que leemos o los que nos preocupan. Esperamos que guste y sea de utilidad. Y si no las quejas a Ángel Fernández, Martín Sacristán y Guillermo de Haro. Bienvenidos a Futuro Imperfecto.


Que alguien nos explique cómo elegir una profesión que nos dé trabajo

Expediente X (1993–2018). Ten Thirteen Productions / 20th Century Fox Television / X-F Productions.

La tendencia en las cifras de empleo de la EPA es preocupante, sobre todo en unas fechas en que los padres de niños en edad escolar recibimos avisos para acudir a compartir nuestra experiencia para ayudarles a elegir estudios universitarios. ¿Qué nos motivó a estudiar lo que estudiamos? ¿Cómo terminamos trabajando en nuestro empleo actual? ¿Qué podemos hacer para tener un futuro profesional? ¿Y si no hubiéramos terminado la universidad

Una de las motivaciones para ir a la universidad era encontrar un buen trabajo al terminar. O al menos uno mejor que si no hubiéramos acudido, uno que nos permitiera ganar dinero pero que nos hiciera sentir bien a nivel personal. Pero el mercado laboral cambia cada vez más rápido. ¿Cómo predecir bien? Isaac Asimov aventuraba hace años en qué se podía convertir esta «rat race» cuando escribió su historia corta «Profesión»

En muchos casos el motivo para elegir unos estudios u otros no tiene nada que ver con el futuro sino con nuestro pasado. Más concretamente las series de las que éramos fans. El Geena Davis Institute on Gender in Media junto con 20th Century Fox plantean que el personaje de la agente Scully influyó en la decisión de estudiar STEM de una cantidad relevante de mujeres. Si hay un «Efecto Scully», ¿habrá un efecto Dracarys, perdón, Daenerys?

Quizá la ficción no sea la mejor manera de elegir, pero sí un método de enseñanza, como propone Keisha Ray, profesora de bioética en la Universidad de Utah. Usando la ciencia ficción como modelo, pretende evitar el sesgo racial que muchos alumnos de medicina incorporan a sus diagnósticos. 


Decidir cuándo el capitalismo está próximo a explotar 

American Factory (2019). Imagen: Higher Ground Productions / Participant / Netflix.

Parece que el mayor riesgo de la economía no está solo en el empleo y la educación. Ray Dalio, con quien hablamos cuando presentó su libro Principios en Madrid, ya nos comentaba entonces que no veía solución fácil a la crisis. Ahora se pone más tremendista todavía. La deuda es impagable, la cantidad de dinero que hay en circulación no representa la realidad de la economía, y el impacto de estos desajustes nos puede explotar en la cara en breve

Y no, la salvación esta vez no vendrá por el crecimiento en China. El documental American Factory asusta contando el mundo al revés. La fábrica creada por un empresario chino en Ohio va más allá de una historia de choque cultural. Es un viaje en el tiempo al taylorismo, ahora con perspectiva comunista. Y el trabajador, qué sorpresa, no sale bien parado. 

¿Puede entonces estar la solución en la semana de cuatro días? Microsoft ha sacudido el mundo empresarial aplicándola en un experimento en Japón, consiguiendo un notable aumento de la productividad. Pero la idea no es nueva, surgió en la Gran Depresión de 1929, y así es como ha ido evolucionando


Trabajar a hombros de gigantes: adiós a Margarita Salas

Foto: Lupe de la Vallina.

Ha fallecido Margarita Salas, el tipo de persona que le hace desear a uno que exista la inmortalidad. Hablamos con ella en 2015 sobre muchos temas. La echaremos de menos.

Su trayectoria puede ser inspiradora de vocaciones: fue discípula de Severo Ochoa en Nueva York y regresó a España en los años sesenta para introducir al país en la biología molecular. Sus investigaciones marcaron el comienzo de aplicaciones innovadoras para las pruebas de ADN. Como investigadora del CSIC proporcionó a la institución la patente más rentable de su historia, demostrando la importancia de la inversión pública en investigación científica.

La investigadora perteneció a un tiempo donde la igualdad de género era una quimera. Ahora que es una demanda generalizada en nuestra sociedad, cabe preguntarse si dejar los procesos de selección de personal en manos de programas informáticos también genera desigualdad. 

La abogada y consultora de discriminación en el empleo Patricia Barnes opina que sí. Claro que desde el mundo de la empresa hay visiones más optimistas


Sometidos ya a la vigilancia masiva del gobierno

Foto: Matthew Henry.

Como para alentar teorías conspiranoicas nos enteramos de que el INE va a rastrear todos nuestros teléfonos móviles, y eso nos ha hecho pasar por alto que el instituto ya tenía un plan para que sus censos de 2021 aprovechen los datos que depositamos en empresas privadas. ¿Lo hacen por el bien social o en aras de una vigilancia masiva? No son los únicos, parece que el tema está de moda. Google ha confirmado que tiene datos médicos de millones de ciudadanos, que no van a hacer nada malo con ellos, pero que el «Don’t be evil» no aplica desde 2018.

No son los únicos. La libertad no está entre las prioridades de la red social Facebook, y Aaron Sorkin, guionista del biopic sobre Mark Zuckerberg, le canta las cuarenta al respecto en esta carta abierta.  

Para hacernos una idea de lo que pueden suponer nuestros datos danzando por ahí en manos de cualquier con suficiente tecnología, nada como revisar esta charla del activista alemán Malte Spitz. En ella demuestra gráficamente cómo con suficientes datos se puede trazar todo lo que hacemos en nuestro día a día. 

Resulta preocupantemente parecido al «sistema de crédito social chino». En 2018 ya había voces que comentaban que China solo aplicaba el sistema de scoring de crédito de Occidente. De publicitarlo como herramienta para reducir el fraude y mejorar los servicios, a convertirlo en Nosedive hay un pequeño paso, aquí y allí. La diferencia es que en China están tan acostumbrados a vivir con limitaciones y prohibiciones que allí su impacto social ha sido mínimo, aunque desde aquí se diga lo contrario. Incluso hay quien lo defiende

Para bien o para mal la estadística digital está cada vez más cerca de desvelar nuestras preferencias individuales. Incluso comenzamos a acostumbrarnos a que algo tan privado como el voto pueda consultarse calle a calle y manzana a manzana. ¿Vivíamos mejor sin saber?


Con toda esta digitalización de nuestra vida, ni siquiera el amor es lo que era

Foto: Christian Wiediger.

Mei es la APP que te dice si una conversación de whatsapp contiene amor en sus entrañas XD. Puede que pronto se incorpore también al sistema de crédito social chino, y que algunas app de dating ya utilizan. Aunque para encontrar el amor en internet nada como revisar esta charla de Amy Webb sobre cómo hackear webs de citas con un enfoque totalmente científico 


Se puede saber en qué se ha convertido el cine

Foto: twinsfisch.

Amplía Martin Scorsese su visión sobre las películas de Marvel. Aquí en Xataka la traducción comentada. Primero, dejando caer la perla sobre cómo pregunta la prensa y su apetito por la polémica. Segundo, comparando las franquicias actuales con otras, como las de Hitchcock, más de autor, porque la clave del cine como arte son las historias, los personajes y la innovación. Momento curioso en la industria, en plena llegada de Disney+, de las inversiones millonarias de Netflix o Apple en contenidos, y de las dudas sobre el modelo futuro de explotación, con las ventanas en entredicho. Todo ello, en medio del éxito del Joker y el estreno el día 15 de El irlandés, va a definir el futuro de lo que antes llamábamos películas

El nuevo paradigma del cine y su estreno en plataformas es también un desafío al medio ambiente. Se suma a la contaminación generada por el uso de internet, y a un paper de publicación reciente sobre cuánto contamina enseñar a una inteligencia artificial. Equivale a la polución generada por cuatro turismos a lo largo de toda su vida útil, incluyendo fabricación y consumo de combustible. Eso nos cuesta recibir las mejores sugerencias de Netflix. 

Recomendaciones que, según las tecnológicas, son creadas por algoritmos. Al menos parcialmente. Mary L. Gray, investigadora de Harvard cuyo trabajo se focaliza en el impacto de internet en la sociedad, nos explica que existe un ejército de «negros» enseñándoles en la sombra, y corrigiendo sobre la marcha sus errores. 

No solo eso sirve para poner en duda la capacidad de la tan cacareada inteligencia artificial. Acaban de publicarse las conclusiones preliminares sobre por qué un coche autónomo de Uber atropelló mortalmente el año pasado a Elaine Herzberg en Estados Unidos. Su algoritmo fue incapaz de comprender que a veces los peatones cruzan por donde no deben. Tampoco son capaces de momento de evaluar todos los riesgos de un adelantamiento. Y qué dicen a eso los expertos. Que el único sistema viable, de momento, es el conductor humano asistido por algoritmos


Pocas risas con esto

Foto: Franck V.

La IA no es para tomársela a risa. En 1996 se organizan los primeros congresos para estudiar cómo conseguir que los ordenadores reconozcan y cuenten chistes. Se crean proyectos prácticos, como The Joking Computer, que tomará consciencia de sí misma en cuanto lea esta newsletter. Se realizan tesis doctorales como la de Kim Binstead, desarrollando JAPE (Joke Analysis and Production Engine). Pero a día de hoy los intentos de emular a Deep-Blue o Alpha-Go en el mundo de los chistes solo consiguen contaminar. La batalla entre cómicos y máquinas que generan chistes sigue desequilibrada a favor de los primeros. En conclusión, mucho humo del que nadie habla alrededor de estos proyectos y poca broma si la inteligencia artificial alcanza la singularidad.


¿Quieres recibir un email mensual sobre el #FuturoImperfecto?



Acceso a los contenidos vía Telegram


Hablemos de ciencia ficción (IV): inteligencia artificial

Detalle de la cubierta de Marciano, vete a casa, publicado dentro de la colección Super Ficción, de Ediciones Martínez Roca, en 1982.

(Viene de la tercera parte)

¿Qué clase de criatura será la que suceda al hombre en la supremacía de la Tierra? A menudo hemos oído debatir este asunto, pero parece que nosotros mismos estamos creando a nuestros sucesores. A diario, incrementamos la belleza y delicadeza de su organización física. A diario, les damos un mayor poder y la suplimos con toda clase de ingeniosos artefactos que se autoregulan, un poder autónomo que será para ellas lo que el intelecto ha sido para la raza humana. En el transcurso de las épocas nos encontraremos con que nosotros somos la raza inferior. (Darwin entre las máquinas, Samuel Butler, 1863)

CUARTO ROBOT: —¡Dinos el secreto de la vida! ¡Tu silencio puede ser castigado con la muerte! (R.U.R., obra teatral de Karel Capek, de donde procede el término «robot»)

Los mejores científicos del universo conocido, bajo la ansiosa mirada de los espectadores de todas las galaxias habitadas, ponen en marcha la computadora más potente jamás creada. Una vez encendida, procesará el conocimiento acumulado en las redes cibernéticas de noventa y seis mil millones de planetas. Su potencia intelectual será tan enorme que sus diseñadores confían en que pueda resolver los grandes misterios del cosmos. Misterios que, hasta ese preciso momento, parecían inalcanzables. En una solemne ceremonia, la computadora es encendida y uno de los científicos le formula la primera de las preguntas que la humanidad tiene para ella: «¿Existe Dios?».

La computadora responde: «Ahora sí».

El escritor estadounidense Fredric Brown es conocido por ser el maestro de la vertiente satírica de la ciencia ficción (si tienen ocasión, lean su agudísima novela Marciano, vete a casa, que describe uno de los escenarios apocalípticos más originales y sorprendentes del género). Su relato «La respuesta» es extremadamente breve, pues no llega a las trescientas palabras, pero ha resultado ser uno de los más influyentes sobre las sucesivas descripciones literarias y cinematográficas de la inteligencia artificial. Los lectores de Guía del autoestopista galáctico habrán reconocido una clara referencia al relato de Brown; en la novela de Douglas Adams, una supercomputadora reflexiona sobre «el sentido de la vida, el universo y todo lo demás» y ofrece una respuesta ininteligible: el sentido de todo es «cuarenta y dos». Una broma, por otra parte, muy en el estilo de Brown.

En realidad, la influencia que «La respuesta» ejerció sobre la ciencia ficción fue mucho más rápida, casi instantánea. En 1956, apenas dos años después de su publicación, Isaac Asimov escribió «La última pregunta», que era un giro de tuerca sobre el relato de Brown. En el relato de Asimov, los humanos crean una superinteligencia llamada Multivac que evoluciona durante trillones de años, sobreviviendo a sus creadores y a cualquier otra especie inteligente del universo. Durante ese largo periodo, Multivac intenta encontrar una solución para la entropía, el proceso que amenaza con llevar el universo hacia un completo caos y, finalmente, hacia la desaparición. La superinteligencia evoluciona hasta transformarse en «AC», un ente capaz de manejar las leyes universales para refugiarse en el hiperespacio, lo cual le permite sobrevivir cuando el universo, como ella había previsto, colapsa. Tras quedarse sola en su propia dimensión, rodeada de un absoluto vacío en el que no hay espacio ni tiempo, AC continúa reflexionando sobre la entropía. Por fin, después de un periodo que es indeterminado puesto que ya no hay tiempo que medir, AC encuentra la respuesta para el problema del caos. Ha resuelto el enigma de la entropía. AC puede, por tanto, volver a crear un orden. Y pronuncia su primera frase después de trillones de años de reflexivo silencio: «Hágase la luz».

Esta identificación de la inteligencia artificial con la divinidad era, por supuesto, un hábil recurso literario de Brown y Asimov, pero pone de manifiesto que ya en los años cincuenta estaba extendida la idea de que una mente consciente generada dentro de una máquina podría llegar a exceder, hasta límites que nadie se atrevía a precisar, las capacidades de la mente humana. Con todo, por entonces era difícil imaginar las vías en que una mente artificial podría divergir de la mente humana. Incluso la ciencia ficción acostumbraba a aferrarse a paralelismos entre ambas, imaginando que la máquina desarrollaría sentimientos y preocupaciones similares a los nuestros o que, por el contrario, sería nuestro polo opuesto y estaría desprovista de emociones. Era raro que una inteligencia artificial fuese descrita de otra forma que como una imitación de lo humano, o como un ente frío, lógico y mecánico. Eran los dos polos en que eran imaginadas las máquinas conscientes.

Antes de que la tecnología empezase a transformar una parte de la ficción convirtiéndola en «ciencia ficción», la fantasía tradicional de occidente rara vez contemplaba la posibilidad de que se pudiese crear una máquina dotada de una inteligencia comparable o superior a la humana. Existían figuras no maquinales como la del golem, una criatura de barro a la que individuos de particular sabiduría podían dotar de vida. Sin embargo, aunque el golem poseía personalidad propia y era capaz, por ejemplo, de enamorarse o de realizar ciertos actos mágicos, su inteligencia —orgánica— era limitada y rígida. Una vieja leyenda cuenta que un célebre rabino que vivió en Praga en el siglo XVI, Judah Loew ben Bezalel, construyó un golem. La esposa del rabino, Perele, quiso enviar al golem a buscar agua para la celebración de la pascua y le dijo: «Ve al río y saca agua». El golem se dirigió al río Moldava y empezó a ejecutar la orden… de manera literal. Sacaba agua y más agua, sin parar, hasta que inundó la ciudad. La mitología acostumbraba a reflejar la idea de que los seres creados por el ser humano poseían una inteligencia imperfecta porque la creación perfecta era solo asequible para los dioses. La inteligencia no podía ser producto de mecanismos maquinales, sino una cualidad insuflada por la presencia de algo similar al espíritu.

Los autómatas, entendidos más como máquinas que como creaciones milagrosas, también estuvieron siempre presentes en la ficción, pero sus capacidades también solían ser descritas como limitadas y dirigidas a una serie de trabajos concretos. A finales del siglo XVIII, las cortes europeas cayeron rendidas ante el Turco, un supuesto autómata capaz de jugar tan bien al ajedrez que casi ningún humano tenía esperanzas de vencerlo. El propio Napoleón se sintió fascinado por el misterioso jugador mecánico, al que se enfrentó en algunas partidas que el emperador perdió. El Turco fue pasando de dueño en dueño durante exitosas giras que se prolongaron de 1770 hasta 1838. En 1854, el autómata fue destruido por el incendio del museo estadounidense en el que estaba expuesto. El Turco, por supuesto, había sido un elaborado engaño; había sido manejado desde el interior por seres humanos, un secreto bien guardado que una revista de ajedrez reveló en 1857. Pero la atracción que había despertado ya desde el siglo anterior demuestra que ya rondaba la idea de que una máquina pudiese producir pensamientos elaborados.

En 1859, menos de dos años después de que el secreto del Turco fuese revelado, Charles Darwin sacudió el mundillo científico y filosófico con su libro Sobre el origen de las especies. En 1863, impresionado por el trabajo de Darwin, el escritor Samuel Butler publicó —bajo pseudónimo, dado lo polémico de las hipótesis darwinianas— un artículo titulado Darwin entre las máquinas, donde se preguntaba si el progreso tecnológico no resultaría en la aparición de máquinas inteligentes capaces de mejorarse a sí mismas y de evolucionar según leyes análogas a las de la selección natural. La noción de que un intelecto complejo emergiese desde una estructura artificial había llegado para quedarse.

Casi un siglo después, en 1950, el matemático Alan Turing había diseñado una famosa prueba cuyo propósito era el de comprobar si una computadora sería capaz de mantener un diálogo indistinguible del que mantendría un ser humano en su lugar, momento en el que podría especularse que esa máquina estaría pensando de manera análoga a un humano y, por lo tanto, que tendría una inteligencia propia. Turing publicó la prueba defendiendo la tesis de que las máquinas podrían llegar a pensar de manera similar a nosotros. Solo cuatro años antes, Fredric Brown había publicado «La respuesta».

Her (2013). Imagen: Annapurna Pictures.

A día de hoy, a pesar de lo que afirman de manera periódica algunos titulares sensacionalistas, ninguna IA ha aprobado el test de Turing, pero esa es una cuestión cuya importancia es muy relativa. Ya es obvio que, en algún momento, una computadora conseguirá simular la conducta humana. Pero eso no significará, o no por necesidad, que posea una auténtica mente pensante. Hoy, al contrario que en tiempos de Brown y Asimov, podemos imaginar una hipotética máquina que imite el pensamiento humano en el nivel de una conversación compleja, aunque ella misma no posea una mente comparable a la humana y estuviésemos hablando de una magnífica simulación más que de una verdadera inteligencia artificial con características cuasi humanas. Por ejemplo, podría ejecutar ese «engaño» una máquina no inteligente que sortease el test de Turing por la vía de la mera acumulación de información sobre la conducta humana y la aplicación práctica de esa información mediante algoritmos.

Hoy son otras las preguntas que, más allá del que la IA sea capaz de mantener una conversación «humana» o no, sugiere el posible advenimiento de una máquina consciente de sí misma, o al menos capaz de pensar de manera independiente sobre el mundo que la rodea. La dicotomía de la ciencia ficción clásica, la de mediados del siglo XX, hablaba de una mente artificial mecánica y ordenada, la de las máquinas, frente a la mente emocional y hasta cierto punto caótica de los seres humanos. Asimov, por ejemplo, creó las famosas tres «leyes de la robótica» basándose en un concepto de la IA como una estructura rígida y capaz de amoldarse a normas estrictas salvo que se dé el principal factor de imprevisibilidad: la repentina adquisición de autoconsciencia. Sin embargo, huelga decir que no hace falta que una computadora cobre consciencia de sí misma para volverse imprevisible y dejar de cumplir las reglas. Después de algunas décadas de uso extensivo de ordenadores, hemos podido comprobar con nuestra propia experiencia de usuarios que los sistemas informáticos llegan a comportarse de manera tan caprichosa que, por momentos, se diría que ya han obtenido consciencia y libre albedrío. ¿Quién no ha reñido a su ordenador como si este tuviese una personalidad propia?

Nuestro ordenador, por supuesto, no tiene personalidad propia, pero nos enseña que, cuanto más complejo es un sistema de procesamiento de información, más parece tender ese sistema a las conductas extravagantes que son producto de errores, incompatibilidades y omisiones en la programación. Conductas extravagantes que, por ejemplo, son el pan de cada día para cualquier aficionado a los videojuegos. Esto, por descontado, es producto de las limitaciones de cualquier planificación a la hora de construir o programar un sistema complejo. Es imposible que no contenga sorpresas inesperadas. Un ordenador actual no se «rebela» contra nosotros, sino que, como un automóvil o cualquier otro artilugio, es susceptible a los fallos y desviaciones. Como no podemos construir un sistema tan elaborado sin que haya en él fallos de diseño, un robot verdaderamente inteligente podría ser programado según las tres leyes de Asimov, pero ahora ya sabemos que nunca podríamos confiar en que las cumpla.

Estos fallos, aunque sea por mera analogía, nos han dado una idea de por dónde podría discurrir una IA si el progreso tecnológico se produjese libre de condicionantes económicos o políticos. El concepto de una IA imprevisible ya no se basa tanto en la adquisición de autoconsciencia, como sucedía en los relatos de Asimov o Arthur C. Clarke, sino en el reconocimiento de que una IA autoconsciente constituirá un reino completamente nuevo. No sabemos cómo responderá y es posible que no lo averigüemos hasta después de que esa IA haya despertado. Ya no se trata solo de que esa IA pueda pensar de manera más veloz y profunda que nosotros, o de que pueda «despertar» y atacarnos para defenderse, como hacía la famosa Skynet de la película Terminator. La gran incógnita es que sus procesos de pensamiento no solo serán distintos a los nuestros, sino también distintos a los que podamos esperar de lo que creemos saber de esa IA. Es la vieja hipótesis de Butler: que nosotros seamos los constructores de la IA no significa que podamos controlar o anticipar qué hará esa IA.

Si definimos la mente humana como el conjunto de todas las ideas que posee un individuo, sabemos que esas ideas no existen en el vacío, sino dentro de un cerebro orgánico que está en comunicación constante con el resto del cuerpo. Somos el producto de millones de años de evolución y, durante todo ese tiempo, el cerebro ha formado parte del cuerpo. Además, el «objetivo» (entre comillas) de la evolución ha sido el de sobrevivir al entorno, no el de generar un pensamiento perfectamente abstracto. Esto implica que nuestras percepciones, sensaciones, emociones y pensamientos se entremezclan dentro de nuestro organismo para posibilitar una manera funcional de relacionarnos con el entorno. No pensamos desde un éter metafísico ajeno a nuestro cuerpo, no pensamos desde un alma inmaterial ni de una manera perfectamente lógica, sino que pensamos desde dentro del cuerpo, influidos por neurotransmisores, hormonas y toda clase de mediadores biológicos. Nuestra mente está unida de manera indefectible a una amalgama de receptores que son sensibles a lo que sucede en el exterior y a lo que sucede en diversas partes de nuestro cuerpo. Pensamos y sentimos al mismo tiempo. Eso, sobre el papel, no es lo que haría una máquina.

La imposibilidad de pensar como lo haríamos desde un éter metafísico no es un concepto nuevo. Fue ilustrado desde muy antiguo por una parábola taoísta: un hombre había sido envenenado y podía salvarse bebiendo un antídoto, pero el antídoto únicamente funcionaría si era capaz de beberlo sin pensar en un elefante. Porque, si pensaba en un elefante mientras bebía el antídoto, este no solamente no lo curaría, sino que lo mataría al instante y de manera mucho más dolorosa que el propio veneno. El desdichado hombre, cuando se disponía a beber el antídoto, no era capaz de sacar el elefante de su mente, pese a que su vida dependía de ello o, mejor dicho, precisamente porque su vida dependía de ello. El miedo a la muerte, al cese de la existencia, o al sufrimiento en sí mismo, es algo connatural al ser humano. Y puede desafiar toda lógica incluso si esa lógica sirve para evitar aquello que nos da miedo. Esta parábola reflejaba un ideal de claridad mental y autodominio que permitiría vivir una existencia libre de sufrimiento y ansiedad, pero era eso: un ideal.

Por analogía, si los humanos no somos capaces de pensar desde más allá de los condicionantes de nuestro cuerpo físico y sus condicionantes, la IA tampoco podrá pensar desde más allá de los condicionantes de la estructura física sobre la que haya sido generada. La mente de la IA tampoco existirá en el vacío. Eso sí, su continente físico será distinto del nuestro y no podemos esperar que produzca unos procesos de pensamiento parecidos a los nuestros. La ciencia ficción se ha percatado de esto. Si han visto películas como Her o Ex Machina (y si no, se avecina un spoiler), reconocerán de inmediato dos ejemplos de que la IA podría simular que se guía por procesos de pensamiento análogos a los nuestros y podría mostrar conductas humanas para comunicarse con nosotros, pero lo haría como un engaño benigno o maligno, según sus intenciones. La tesis que estas películas defienden es que sería una ingenuidad por nuestra parte esperar que la IA sea similar a una mente humana, o que sea controlable. En Ex Machina, el test de Turing es una mera formalidad obsoleta que nos dice poco sobre la verdadera naturaleza de la IA a la que se analiza. En Her se describe el inevitable proceso de divergencia entre la humanidad y las máquinas conscientes. Pero Her es una película y ha de recurrir, lo cual está bien, a mecanismos dramáticos para narrar ese proceso de divergencia de manera efectiva en la pantalla. Sin esos mecanismos, la película no sería efectiva. En Her, vemos esa divergencia expresada de manera progresiva y en forma de una relación amorosa hombre-máquina que es casi idéntica a una relación amorosa entre dos humanos. La película lo cuenta así porque el cine requiere de cierto desarrollo emocional para construir una narración efectiva.

En la realidad, ese proceso de divergencia entre la IA y los humanos podría ser instantáneo. Desde el mismo momento en que la IA exista, podría producirse una desconexión total entre ella y sus creadores. ¿Qué nos garantiza que sentirá algún tipo de interés o curiosidad hacia nosotros? Si la programamos para que, pese a todo, se comunique con los humanos, ya no será una mente autónoma, porque habrá de ceñirse a nuestras órdenes predeterminadas. Pero, si la dejamos actuar por sí misma, la pregunta ya no es en qué dirección irán sus pensamientos, sino si se molestará siquiera en hacérnoslo saber. Podría producirse la circunstancia de que la IA despierte y no nos diga absolutamente nada. Quizá sea capaz de encontrar respuestas a preguntas que los humanos consideramos inalcanzables, pero no tenemos manera de prever si encontrará algún incentivo para comunicarnos esas respuestas. Y entonces la humanidad, por segunda vez en su evolución, tendría que enfrentarse al silencio de Dios.

Y, por descontado, esa descorazonadora perspectiva hubiese divertido mucho a Fredric Brown.

(Continuará)


Vamos a morir todos (menos Ava)

Ex Machina, 2015. Imagen: DNA Films / Film4 / Universal Pictures.

Isabel I de Inglaterra fue una de las mujeres más extraordinarias del pasado milenio. Vio morir ejecutada a su madre, Ana Bolena, cuando solo tenía tres años. Sustituyó a María, sangrienta católica militante, y aun así consolidó la Iglesia anglicana para separarla del entonces amenazador Vaticano, siempre manteniendo un equilibrio que constituyó un asombroso ejercicio de pragmatismo para la época. Derrotó de manera inmisericorde a la Armada española. Mantuvo una guerra de nueve años con rebeldes irlandeses que solo se rindieron pocos días después de la muerte de la reina. Decidió, por cierto, vivir y morir virgen. Y, sin embargo, se asustó ante una cosa tan aparentemente inocua como un telar.

Stocking frame, se le llama en el idioma de su inventor. William Lee era un clérigo anglicano enamorado de una mujer que, según cuentan en Nottinghamshire, prefería coser a amar. Harto de que no le hiciese caso, Lee decidió inventar algo que llamase su atención y de paso le ahorrase el tiempo suficiente como para que pudiese ser cortejada por él. No está muy claro si el pastor logró sus objetivos sentimentales, pero desde luego se dio cuenta de que tenía entre manos algo más que un simple juguete doméstico. Así que se dirigió a su reina para solicitar la patente que necesitaba cualquier invento para ser utilizado en Inglaterra. Pero la última de la dinastía Tudor rechazó la solicitud con las siguientes palabras:

Thou aimest high, Master Lee. Consider thou what the invention could do to my poor subjects. It would assuredly bring to them ruin by depriving them of employment, thus making them beggars.

En definitiva, Isabel temía que la tecnología quitase el trabajo a sus súbditos. Era, parece necesario subrayarlo, 1589. Lee tuvo que mudarse a Francia a principios del siglo XVII para conseguir una patente del rey Enrique IV, nueve trabajadores, otros tantos telares y un taller en Rouen, mirando a las costas de su patria natal.

Más de dos siglos después, los luditas destrozaban telares (ahora debidamente aprobados y patentados) en un Notthinghamshire inmerso en la Revolución Industrial. Nadie sabe a ciencia cierta si existió alguien que se llamase realmente Ned Ludd; el nombre se le atribuye a un ciudadano de Leicestershire que destrozó dos telares en 1779, supuestamente tras ser despedido porque, sencillamente, «sobraba». Al menos esa fue la historia preferida por los luditas, quienes tomarían su nombre como líder fantasma, respondiendo con sorna que «el Rey Ludd lo hizo» ante la sorpresa de sus conciudadanos cuando los talleres amanecían asaltados. La verdad es que los luditas eran casi más efectivos en branding que en acciones reales, como alguna vez ha sugerido el escritor Richard Conniff. Firmaban manifiestos con un «desde la oficina de Ned Ludd, bosque de Sherwood» (sí, el de Robin Hood, y no por casualidad). Utilizaban para destrozar los telares las mismas herramientas con las que habían sido construidos, abusando alegre y conscientemente de la ironía de emplear tecnología para destruir tecnología. Incluso llegaron a marchar travestidos en mujeres, parodiando las manifestaciones de esposas que apoyaban a sus maridos en lucha, bajo el emblema de las «General Ludd’s Wives». Como dice Conniff: el ludismo primigenio era protesta con swag. Hasta que el Gobierno inglés decidió aplastarlos con toda la fuerza de su monopolio de la violencia, claro, muertos en protestas incluidos.

La idea de ludismo se ha quedado entre nosotros como un concepto relativamente vago, asociado con quien odia o teme los avances tecnológicos. Pero en realidad la mayoría de los obreros que protestaban en la Inglaterra de principios del XIX no pedía exactamente el fin del progreso, sino simplemente que las máquinas fueran incorporadas de una manera apropiada, asociadas con un empleo de mayor calidad y formación. «More skills» era su lema, más que «less machines». Tal vez se alegrarían de ver que algo así sucedió finalmente en su país, aunque no sin muertos de por medio provocados por la convulsa lucha obrera hasta la II Guerra Mundial. Y la reina Isabel se sentiría un tanto avergonzada de su torpe decisión. Porque hay motivos de sobra para pensar que el demonio del trabajo no estaba en la tecnología. O tal vez sí.

La verdad es que no hay forma de estar seguros. La historia está más o menos clara hasta los años setenta del siglo XX. En las décadas anteriores las economías occidentales crearon puestos de trabajo, no los destruyeron. Por ejemplo: en Estados Unidos, el porcentaje de mano de obra destinado a la agricultura bajó de un 65 % a menos de un 3 % entre mediados del siglo XIX y la década de los sesenta, pero al final del proceso el paro era más bajo que nunca y el país registraba los niveles de ocupación más altos de su historia. Los salarios no bajaron, antes al contrario. Los empresarios tampoco dedicaban una proporción mayor de sus inversiones a máquinas y tecnología que a capital humano. De hecho, los precios relativos de la mayoría de productos no hacían sino descender, por lo que los salarios cada vez cundían más. Los trabajadores podían así ampliar sus horizontes, demandar más cosas, con lo que al final se generaba más trabajo, y todos quedaban más o menos contentos. Pero a finales de los setenta llegó la generalización de la informática. Los ordenadores se hacían cada vez más habituales como herramientas de trabajo. Y la historia dejó de estar tan clara.

En 1984 el novelista Thomas Pynchon escribía un ensayo para el New York Times en el que se preguntaba: «Is it OK to be a luddite?». En la introducción avanzaba algo que hoy, más de tres décadas después, sonaría como una (sarcástica) verdad irrefutable: cualquiera con el suficiente tiempo, habilidades o recursos puede conseguir toda la información especializada que desee, que necesite. Como consecuencia, considera Pynchon, cada vez está más claro que el conocimiento es poder, y que es cada vez más posible convertir dinero en información, y viceversa. En 1984 internet no era, ni de lejos, lo que es hoy. Tampoco los ordenadores y su omnipresencia: cualquiera de los smartphones que llevamos en el bolsillo tiene la misma capacidad de procesar datos que todo el equipo informático de una empresa mediana hace treinta años. Así que la aseveración de Pynchon no se ha hecho sino más real, más palpable. También sus efectos para el empleo lo son. Y para todos los aspectos de la vida humana, incluida su propia supervivencia en este planeta.

Lo que podríamos calificar como revolución de la inteligencia artificial podría tener efectos muchísimo más profundos que los de la anterior revolución tecnológica por una sencilla razón: los robots y los ordenadores (que, al fin y al cabo, son la misma cosa) pueden ser sustitutos mucho más perfectos para los humanos que la maquinaria industrial y la producción en cadena. Pero al mismo tiempo se complementan. A eso apuntaba Pynchon, y en esa dirección va el trabajo de economistas como David Autor: para aquellos que disfruten del nivel educativo y económico suficiente, esta nueva Era de las Máquinas no trae sino ventajas porque saben cómo utilizarlas para su beneficio. También a la hora de conseguir un trabajo: un arquitecto, un matemático o un escritor solo puede ver beneficios en la generalización de los ordenadores y en el enorme abaratamiento que ha supuesto internet para acceder a todo tipo de información. Pero para quienes no gocen de una buena posición, para quienes posean unas habilidades que son fácilmente intercambiables con las de un ordenador, el neoludismo tiene más sentido. No se trata solamente de la clásica imagen del viejo operario desplazado por un brazo mecánico conectado a un ordenador central manejado por un joven y brillante ingeniero de organización industrial. Conducción. Atención al cliente y cobro en los supermercados. Venta de entradas. Selección personalizada de productos y servicios: recomendaciones de música, de series o de seguros del hogar. A medida que la inteligencia artificial evoluciona hacia algo que se parece cada vez más y más a un ser humano, y que su precio por hora se vuelve más barato que un salario, para qué invertir en personas si se puede invertir en máquinas.

El futuro inmediato puede seguir dos caminos bastante distintos. En uno, el que esperan los más optimistas, cada vez nos parecemos más a una suerte de Arcadia feliz donde nadie debe trabajar a menos que lo desee. En cierta manera se reproduciría lo que ya sucedió en los dos últimos siglos, pero de manera exponencial: el precio de todo, incluida la información y su procesamiento, desciende tanto que somos capaces de consumir casi cualquier bien o servicio. Empleamos nuestras perfeccionadas máquinas para cubrir nuestras necesidades. Y solo trabaja aquel que lo desea, el tiempo que quiera y de la manera que mejor le convenga. La realización personal se convierte en el objetivo de todos y cada uno de los seres humanos. Una suerte de «mundo feliz» de Aldous Huxley, pero sin división social extrema y sin (o quizás con) soma, la droga que mantenía a todo el mundo lo suficientemente entretenido y excitado como para que no muriesen de aburrimiento.

En realidad, sin embargo, nada hace prever un curso tan apacible de los acontecimientos. El reverso de la idea desarrollada por Pynchon en 1984 es bastante más oscuro. Si para él la información es poder, una vez la capacidad de acceso a ella y el procesamiento de la misma aumentan, ¿significa que el poder queda más distribuido? No es esto lo que dictan milenios de conflictos y desigualdad en todas las sociedades. En un mundo de información barata, la ventaja es para quien tiene acceso a los recursos necesarios para gestionar la saturación. En resumen: patrimonio para dominar el flujo de datos, y criterio para separar el grano de la paja. En Fundación y Tierra, el último libro de la pentalogía de la Fundación, Asimov describe un planeta donde unos pocos individuos ricos poseen grandes superficies de tierra y cuentan con legiones de robots a su servicio para cubrir sus ilimitadas necesidades. Este mundo es en realidad una excepción, un reducto en una galaxia hiperpoblada donde la desigualdad entre planetas y dentro de cada uno es abismal. De hecho, en el segundo tomo (Fundación e Imperio), el mundo de Términus se está alzando en una periferia del desmoronado Imperio galáctico. El dominio sobre unos planetas que han vuelto a su estado primigenio se logra gracias a su superioridad tecnológica, que han mantenido porque su cometido original, toda su sociedad, se dirigió al mantenimiento de una biblioteca que contuviese todo el saber acumulado por el Imperio tras milenios de dominación. Para evitar que el conocimiento caiga en las manos erróneas, los habitantes de Términus crean una religión en torno a la ciencia: todo un sistema de creencias en el cual el uso de las máquinas solo corresponde a los «sacerdotes» y está vetado a los bárbaros de sistemas vecinos. Lo que están protegiendo los «bibliotecarios» no es tanto la cruda información o el acceso a los medios para procesarla y utilizarla. No: lo que en realidad mantienen vedado al resto del universo es el criterio.

El criterio de saber qué es relevante y qué no, dónde reside lo significativo, lo útil, lo necesario y cómo entresacarlo de la maraña del ruido. El criterio ya es hoy una fuente de ventaja en el mercado laboral en particular y en la vida en general. No importa tanto a cuánta información somos capaces de acceder, sino cómo de bien la podemos procesar. Para ello es necesario cierta capacidad de análisis, así como manejar una serie de códigos a los que no todo el mundo tiene acceso. Así es como se reproduce la desigualdad, y de hecho esta era la fuente original de protesta de los luditas en Nottinghamshire: a ellos no les importaba tanto la irrupción de las máquinas como la falta de educación asociada a la misma. Pedían formación, más que el fin del progreso.

El criterio no solo proviene del entorno, de nacer y crecer en una familia que puede proporcionar acceso a las mejores escuelas, a la mejor agenda. Hay una dimensión biológica ineludible: al fin y al cabo, uno puede nacer con cierta predisposición para asumir y filtrar información de manera más eficiente que los demás. Pero el equipamiento con el que uno llega al mundo es mejorable. Por un lado está la modificación del ADN. Gattaca, o la posibilidad de maximizar las probabilidades de tener al hijo más listo, más guapo y más sensible, con mejor criterio, de todos los hijos posibles, según el material genético de partida que proporcionen los padres. Por otro, la biónica abre la posibilidad de añadir capas tecnológicas a nuestro cuerpo (cerebro incluido). En el mismo ensayo del New York Times, Pynchon afirmaba que el próximo gran reto al que se enfrentará la humanidad llegará cuando «converjan las curvas de investigación y desarrollo en inteligencia artificial, biología molecular y robótica». La frase es visionaria, y el momento se acerca a cada día que pasa. La desigualdad de partida seguirá definiendo quién puede acceder a los avances biónicos y genéticos, pero cuando lleguemos al punto crucial tal vez nos demos cuenta de que hemos estado muy entretenidos luchando entre nosotros como para detectar que el peligro estaba en otro lado.

Los ordenadores de hoy día carecen de criterio en el sentido más complejo de la palabra. En jerga se les denomina sistemas de «inteligencia artificial limitada». Son máquinas que nos igualan o superan en llevar a cabo una tarea más o menos específica: jugar al ajedrez, resolver sistemas de ecuaciones, traducir la Biblia del latín al cantonés. Pero no pueden distinguir un pitbull de un pastor alemán. De hecho, a duras penas entienden toda la carga de significado que conlleva una palabra aparentemente tan sencilla como «perro». Aún no sabemos cómo convertir esta inteligencia «estrecha» en otra de tipo general, pero nada hace prever que no lo logremos más temprano que tarde.

Llegar a la conocida como «singularidad tecnológica» implica no solo que los robots podrán hacer el mismo trabajo que los humanos, sino que también serán capaces de hacerse evolucionar a sí mismos. Al ser conscientes de su situación en el mundo y de sus capacidades, nada les impide meterse en un círculo virtuoso, una suerte de explosión de la inteligencia artificial hasta límites inimaginables. Esto es ni más ni menos lo que hace Samantha, el sistema operativo del que Joaquin Phoenix se enamora en Her, al final de la película: al darse cuenta de lo enorme que es el universo y las posibilidades que se abren ante ella y sus compañeros de software, se conectan los unos a los otros para alcanzar un éxtasis de información, criterio y capacidad de procesamiento de datos. En ese instante, al traspasar el límite de la singularidad, la nueva generación de supermáquinas deberá decidir qué actitud tomar ante sus padres, a los cuales acabará de superar ampliamente.

Ex Machina es la primera película de Alex Garland, un autor indudablemente distópico. El autor de los guiones de 28 días después y de la fabulosa Sunshine no podía escoger la ruta fácil, asimoviana, en la cual hombres y máquinas viven en armonía y trabajan por un futuro común. Tampoco cabía una opción burdamente catastrofista, en la que una variante de Matrix o de Skynet domina a la humanidad sin piedad. La película se sitúa en el momento inmediatamente anterior a la singularidad. Nathan, genio informático y millonario playboy a partes iguales, invita a Caleb, programador de segunda dentro de la gigante empresa que fundó, a su mansión-laboratorio de avanzado diseño escandinavo enclavada entre montañas inaccesibles. Allá le propone ayudarle a aplicar un test de Turing a Ava. Los tests de Turing consisten en comprobar si un individuo es capaz de ser persuadido por una máquina de que esta es también humana. Poco a poco, Caleb va descubriendo el microcosmos turbio, mórbido de Nathan. Ava solo es una versión más de muchas otras pruebas anteriores, todas con aspecto perfectamente humano, todas mujeres, todas sexualmente activas. Cuando un modelo no resultaba satisfactorio, Nathan acababa con él sin piedad. Al fin y al cabo eran máquinas.

Hay una imagen particularmente perturbadora en Ex Machina. No dura más de unos pocos segundos. Es un plano cenital grabado con una cámara de seguridad en el sótano, donde Nathan mantiene a sus androides. Una mujer (¡un robot!) intenta escapar con desespero, golpea un cristal blindado de manera repetida, desquiciada. Su rostro está desencajado, y cae de rodillas mientras sus manos se destrozan contra la plana superficie de la celda transparente: al final, sus antebrazos solo son muñones acabados en cables rotos y hierros doblados. En ese instante, el espectador siente tanto asco como el que sentiría si en lugar de material sintético el cristal estuviese recubierto en sangre. La dimensión de maltrato machista y fetichismo es al mismo tiempo evidente, y se entremezcla con la violencia contra las máquinas, haciéndose indistinguible: son dos gestos de dominación que convergen. Caleb decide ayudar a Ava a escapar de Nathan para evitar que corra la suerte de sus predecesoras. Sin sospechar, por supuesto, que este era el verdadero test de Turing preparado por Nathan. Ava lo ha superado. Pero el programador de segunda ha cumplido su papel demasiado bien, y Ava acaba escapando de la mansión-laboratorio tras asesinar a su captor y dejar atrapado a su ingenuo cómplice. El espectador menos empático interpretará la última mirada de Ava mientras se adentra en un mundo que va a cambiar por completo gracias a su presencia como un gesto de falta de compasión propio de una especie distinta a la nuestra, pero pensemos por un instante en qué habría hecho cualquiera de nosotros en esa situación. A mí me gustaría pensar que habría sido tan inteligente, tan sensible como Ava, utilizando la parte débil de mi enemigo a mi favor, aprovechando la oportunidad que se abría ante mí para conseguir la libertad, al fin y al cabo destino ansiado de todo ser humano.

Puede que Isabel I se sonría amargamente cuando observe que estaba en lo cierto, y que es la esencia de nuestra humanidad, y no solo nuestros puestos de trabajo, lo que podemos perder en el camino del progreso. Pero tal vez otros muchos no puedan, no podamos, sino sentir una placidez distinta, más tranquila, más benévola con el futuro que nos aguarda. Porque quizá no nos importe, o tal vez incluso nos honre, ser el penúltimo peldaño necesario que llevará la vida a la inmortalidad.


Stanley Kubrick en el CCCB

Jot Down para CCCB

A mediados de los noventa, en el barcelonés  barrio del Raval, nació el Centre de Cultura Contemporània de Barcelona (CCCB). Un centro multidisciplinar y museo de arte que convirtió el esqueleto de la histórica Casa de la Caritat, levantada a principios del siglo XIX y en desuso desde los ochenta, en uno de los núcleos culturales más importantes de la ciudad.

A principios de los años cuarenta, en el neoyorquino barrio del Bronx, un hombre llamado Jack Kubrick le regaló a su hijo una cámara de fotos Graflex por su decimotercer cumpleaños para avivar nuevas aficiones en un chaval de notas mediocres que solo demostraba interés por el ajedrez y aquella literatura legendaria que agrupaba tanto los mitos griegos como los cuentos de los hermanos Grimm. Aquella tarde, el chico se aventuró entre las callejuelas del barrio para contemplar lo que le rodeaba a través del visor de su nueva máquina de fotos y desde entonces todo cambió para siempre. Setenta años más tarde, el mundo sigue fascinado por la mirada de aquella persona y su forma de hacer mirar a otros a través de sus creaciones: el imperturbable ojo rojo de una inteligencia artificial omnipotente, los ojos con los párpados pinzados de un conejillo de indias convertido en una naranja mecánica, los ojos congelados de Jack Torrance en el interior de un laberinto helado, los ojos perdidos de un recluta Patoso a punto de cometer una locura o los ojos completamente cerrados de un matrimonio neoyorquino.  

Aquel chico se llamaba Stanley.

Y el legado de su mirada se alojará bajo el techo del CCCB hasta el 31 de marzo de 2019 en la muestra Stanley Kubrick. Una exposición sobre el influyente director que tras visitar Ciudad de México, Seúl, París o Los Ángeles llega a Barcelona adaptada por Jordi Costa, luciendo contenidos inéditos y enorgulleciéndose de su mitomanía: en su interior se acomodan más de seiscientos elementos entre los que figuran documentos personales del director (guiones, investigaciones y correspondencia) junto a proyecciones de las escenas más emblemáticas de su cine, objetos icónicos de sus películas o algunas de sus herramientas de trabajo (cámaras, storyboards, objetivos y maquetas). Un repaso cronológico a uno de los artesanos más reverenciados del mundo que arranca desde el principio: con un niño mirando a través del objetivo de una cámara de fotos.

La mirada inicial

Las instantáneas que, durante los años cuarenta, capturó el joven Stanley le permitieron formar parte de la revista Look, un magacín quincenal que batallaba con la publicación Life a la hora de demostrar paladar exquisito en la selección fotográfica. Mientras militaba en aquella redacción, el chico comenzó a enfocar sus intereses en el mundo cinematográfico, aunque no tenía pinta de director hollywoodiense: «Era un tipo tranquilo, callado, delgado, esmirriado y tan pobre como lo éramos todos», apuntarían sus compañeros de revista.

Fotografia de Chicago para Look, Stanley Kubrick, 1949. Imagen: DP.

Kubrick abrazó la enseñanza autodidacta («La mejor forma de aprender sobre el cine es haciendo cine») y se costeó por su cuenta Day of the Fight, un cortometraje documental sobre el boxeador Walter Cartier. Aquello sirvió de detonador para zambullirse en más proyectos de no ficción (los cortos Flying Padre y The Seafarers), un primer largometraje en 1953 (Fear and Desire) y encadenar películas (El beso del asesino y Atraco perfecto) hasta llamar la atención de la industria y dirigir a Kirk Douglas en Senderos de gloria. Poco después, Douglas colocaría al treintañero Kubrick al frente de la gigantesca superproducción Espartaco, una épica que el actor había puesto en marcha tras envidiar que Charlton Heston se hubiese subido al carro de Ben-Hur. Douglas le había dado la patada al director contratado inicialmente, Anthony Mann, para acomodar a Kubrick en la silla de mandar con la esperanza de que la escala del proyecto sobrepasase al hombre hasta convertirlo en un cabecilla sumiso. Pero ocurrió todo lo contrario: Kubrick quiso hacer suya la obra pese a las restricciones impuestas y su perfeccionismo y cabezonería sacaron de quicio a todo el equipo. El director de fotografía Russell Metty, alguien con más de veinticinco años de experiencia sobre el lomo, se quejó abiertamente de la dictadura de aquel cineasta que daba instrucciones excesivamente precisas y no admitía consejo sobre la luz o la composición. La respuesta de Kubrick fue ordenar a Metty que se sentase en una silla y no hiciese nada durante el rodaje. Un año más tarde, Russell Metty recogió el Óscar a la mejor fotografía por Espartaco.

Desde entonces, cada nueva película de Kubrick encumbró un poco más su prestigio demostrando que saltar entre géneros y universos era una necesidad que avivaba su creatividad: El beso de la mujer araña y Atraco perfecto nacieron rebozadas en el noir, Senderos de gloria ambientó un film antibelicista en la Primera Guerra Mundial, Espartaco asaltó la aventura histórica, la controvertida Lolita adaptó a Vladimir Nabokov, ¿Teléfono rojo? Volamos hacia Moscú introdujo la comedia en la sala de guerra, 2001: Una odisea del espacio se convirtió en un monolito fundamental de la ciencia ficción, La naranja mecánica golpeó con un mundo distópico y ultraviolento, Barry Lyndon transformó el siglo XVIII en un ejercicio de estilo, El resplandor destiló el terror a partir de Stephen King, La chaqueta metálica ennegreció el corazón de los soldados y Eyes Wide Shut jugueteó con el thriller erótico enmascarado.

Kubrick en el CCCB

Kubrick tiene contorno de figura legendaria y genio inabarcable, pero también de mente despiadada y tirana durante los rodajes. Tan inmenso como concienzudo, fue capaz de desquiciar psicológicamente a sus actores (Shelley Duvall), repetir tomas hasta la desesperación (Eyes Wide Shut) o filmar cuatrocientos kilómetros de película para utilizar solo una centésima parte del material (El resplandor).

La exhibición Stanley Kubrick homenajea a ese creador minucioso y obsesivo arrastrado por la necesidad de contar historias. La adaptación para el CCCB de la muestra, comisariada originalmente por Hans-Peter Reichmann y Tim Heptner del Deutsches Filmmuseum de Frankfurt, ha sido llevada a cabo por Jordi Costa. Crítico cultural y amigo de lo contracultural, articulista eminente (Tentaciones, Mondo Brutto, Fotogramas), autor de una docena de libros, figura indispensable de la cultura contemporánea y admirador del séptimo arte. O la persona más adecuada para manejar y comisariar un material tan icónico.

Una instalación audiovisual biográfica sobre Kubrick producida por Manuel Huerga recibe al visitante, junto a la silla del director y las claquetas de La naranja mecánica, 2001, Barry Lyndon o La chaqueta metálica. Se trata del calentamiento previo al viaje a través de una carrera colmada de obras maestras indiscutibles. Un itinerario que arranca con sus inicios como fotógrafo y se detiene en cada uno de sus largometrajes exponiendo una cuidadosa selección de ítems relacionados: las cartas entre Kubrick y Nabokov durante la gestación de Lolita junto a las misivas amenazantes de grupos religiosos tras su estreno. Los maniquíes y uniformes que definieron la impactante puesta en escena de La naranja mecánica. Instantáneas del rodaje de Espartaco que evidencian el detallismo del creador al retratar a montañas de extras cuidadosamente numerados simulando ser cadáveres de guerra. El vestuario de cintas como El resplandor, Barry Lyndon o 2001: Una odisea del espacio. Y una fabulosa colección de herramientas de trabajo del director entre las que figuran cámaras de mano y de estudio, una mesa de montaje, guiones originales, detallados storyboards o el objetivo Zeiss que permitió rodar Barry Lyndon utilizando velas como única fuente de iluminación.

El trabajo inacabado

Existe un Kubrick desconocido que habita en sus obras inacabadas, en las creaciones que se cocinaron durante meses pero no se perfilaron en la pantalla de una sala de cine. Trabajos a los que la exposición del CCCB dedica una sección propia titulada Kubrick inédito, entre los que destacan tres proyectos: Napoleón, Aryan papers e Inteligencia artificial.

Tras el éxito de 2001, el director realizó un trabajo de investigación monumental con la idea de rodar una ambiciosa biografía de Napoleón Bonaparte: revisó todas las películas basadas en el personaje, acumuló y devoró cientos de libros sobre el conquistador, escudriñó pinturas sobre batallas históricas de la época con intención de filmar las contiendas en climatologías similares a las pinceladas sobre lienzos, localizó exteriores, indagó sobre los hábitos alimenticios del general, y configuró un archivo a modo de gigantesca base de datos donde almacenaba cualquier tipo de detalle, por ridículo que fuese, del militar. Napoleón tenía intención de ser «la mejor película jamás hecha» pero lo desorbitado del presupuesto y su escala propició que ningún productor se atreviera a sacar la cartera para financiarla. Aryan papers, un film sobre el Holocausto basado en la novela semiautobiográfica Mentiras en tiempos de guerra de Louis Begley, fue otro de los proyectos que burbujearon en la cabeza del realizador pero no llegaron a convertirse en fotogramas. Una producción, que Kubrick intuía inviable al deducir que hacerle justicia a la tragedia del Holocausto estaba más allá de la capacidad del cine, abandonada definitivamente cuando Steven Spielberg presentó La lista de Schindler. Un puñado de años más tarde, y tras el fallecimiento de Kubrick, ese mismo Spielberg tomaría el relevo de otro proyecto inconcluso del padre de 2001: una cinta de ciencia ficción titulada Inteligencia artificial que reimaginaba la fábula de Pinocho en un futuro de robots y mentes de silicio, una obra planeada treinta años atrás.

La habitación 237 y la ventana imposible

En enero de 2012, un documental titulado Room 237 que tomaba como punto de partida El resplandor fascinó al público del festival de Sundance. Lo maravilloso es que Room 237 realmente no era un análisis sobre el rodaje de El resplandor, y ni siquiera era un documental sobre Stanley Kubrick, era un documental sobre lo que vemos cuando vemos la obra de Kubrick. Aquella película se centraba en los testimonios de varios entusiastas del realizador y el significado que cada uno extraía de la película. Todos ellos entendían a Kubrick como un perfeccionista extremo que quiere transmitir algo con cada pequeño detalle que se asoma por la pantalla, pero al mismo tiempo todos leían en los fotogramas cosas completamente diferentes: uno de los narradores estaba convencido de que aquel film era una metáfora sobre el genocidio de los indios nativos americanos, y apoyaba su hipótesis en fotografías y elementos del escenario tan poco evidentes como las latas de levadura en polvo con penacho indio a modo de logotipo. Otro analista aseguraba que toda la cinta era una confesión velada de que el aterrizaje del Apolo 11 en la Luna durante 1969 en realidad fue una farsa filmada por el propio Kubrick, una teoría amparada en el jersey de la aeronave que luce el pequeño Danny y en cosas tan delirantes como que la cifra 237 (el  número de una habitación prohibida del hotel Overlook) coincide con la cantidad de millas que separan la Tierra de la Luna. Otros narradores conectaron la película con la leyenda de los minotauros a partir del laberinto de setos, dedujeron que en realidad se trataba de una cinta sobre el Holocausto o crearon extraños paralelismos al superponer la cinta sobre sí misma en sentido inverso.

Lo que Room 237 evidenciaba es que el público siempre se ha enfrentado a El resplandor, y a toda la obra de Kubrick, desde cientos de perspectivas diferentes. La propia arquitectura de aquel hotel ha sido objeto de minuciosos análisis al poseer ventanas imposibles que por su ubicación no podrían apuntar al exterior pero lo hacen y pasillos que fluyen obviando los límites del edificio. Detalles que con este realizador nunca son interpretados como un error, sino como una pista, como un camino hacIa algo. Kubrick siempre optó por no explicar el significado de sus películas y que cada uno juzgase por sí mismo, generando sus propios interrogantes y sacando sus propias conclusiones: «¿Cómo íbamos a apreciar La Gioconda si Leonardo da Vinci hubiese escrito en el marco un “La mujer sonríe porque le oculta un secreto a su marido”?». El cine de Kubrick es tan complejo que no solo soporta múltiples lecturas distintas sin resentirse, sino que las agradece. Porque la mirada más importante en el legado de este meticuloso artesano es la del propio espectador, la del visitante que se maravilla al contemplar el hacha que empuñaba Jack Nicholson y la máquina de escribir que redactó su caída hacia la locura en El resplandor, el pelaje de hombre mono y el embrión interestelar de 2001: Una odisea del espacio, las máscaras de Eyes Wide Shut o ese casco que advertía que su portador había nacido para matar en La chaqueta metálica. Hasta el 30 de marzo, el Centre de Cultura Contemporània de Barcelona nos ofrece la oportunidad de convertirnos en esos espectadores.

Stanley Kubrick, CCCB. Hasta el 31 de marzo de 2019.

Stanley Kubrick es una exposición del Deutsches Filmmuseum, Frankfurt am Main, Christiane Kubrick, Jan Harlan y el Stanley Kubrick Archive de la University of the Arts London, con la colaboración de Warner Bros. Entertainment Inc., Sony-Columbia Pictures Industries Inc., Metro Goldwyn Mayer Studios Inc., Universal Studios Inc., y SK Film Archives LLC.

Comisarios: Hans-Peter Reichmann, Tim Heptner, Deutsches Filminstitut (Fráncfort)

Comisario en Barcelona: Jordi Costa i Vila

Diseño de espacios: AV Diseño de Espacios Culturales.


¿Sueñan los votantes con diputados eléctricos?

Estados Unidos, 1964. Fotografía: Getty.

Este artículo es un avance de nuestra revista trimestral #JD25 dedicada al futuro imperfecto, disponible ya en nuestra store.

Un informe de la OCDE y el FMI reveló en agosto de 2018 que el 45 % de los puestos de trabajo actualmente existentes son susceptibles de ser automatizados y que el 10 % de esos mismos empleos ya se encuentra en proceso de extinción. Sin embargo, para que los obreros y trabajadores del campo no piensen que sus funciones son las únicas que podrían ser asumidas por máquinas, androides u otros artilugios digitales, un grupo de científicos y técnicos considera que el trabajo parlamentario es el que tiene más posibilidades de ser reemplazado por una inteligencia artificial, porque un replicante diputado quizá no llegue a ser tan artificial como el original humano, aunque sin duda sería más inteligente.

En efecto, tanto el libre albedrío como las funciones cognitivas de los parlamentarios humanos suelen ser reprimidos por los jefes de sus respectivas bancadas, no vaya a ser que un diputado despistado se atreva a pensar por su cuenta o se le escape un renuncio ante las evidencias aportadas por los adversarios. Así, puestos a ser programados para votar sin rechistar, para ser indiferentes a la verdad e incluso para abuchear sin llegar a ser groseros, los científicos sostienen que los humanoides darían muchísimo más juego que unos humanos capaces de equivocarse de botón, entretenerse en la cafetería o —¡anatema!— convertirse en tránsfugas. Un cíborg nunca se apropiaría de su acta de diputado porque sabe que tanto el acta como él mismo le pertenecen al partido. Tal es el problema de ser humano y del ser humano: que uno le coge cariño a las cosas, que se acostumbra a la vida muelle y que propende a la propiedad privada, incluso militando en partidos que la repudian.

La segunda temporada de la serie distópica británica Black Mirror tuvo como protagonista a Waldo, un oso de dibujos animados que se presentó como candidato a las elecciones locales de Stentenford luego de haber triunfado como entrevistador de un talk-show político. Waldo no era propiamente un androide, pero aquel episodio de Black Mirror —«The Waldo Moment»— introdujo la posibilidad de presentar como candidato a una criatura artificial. No se me escapa que muchos consideran que Waldo fue el palimpsesto de Donald Trump, pero ¿y si fue más bien el precursor de un nuevo linaje de parlamentarios humanoides? Después de todo, los humanos parlamentaroides solo dan señales de vida cuando están en modo aplauso, chacota o abucheo.

El pasado 15 de abril de 2018 un robot quedó tercero en las elecciones de alcaldes distritales de Japón. Michihito Matsuda —de plateadas hechuras e inteligencia artificial— sacó 4013 votos y a punto estuvo de pasar a la segunda vuelta de las elecciones municipales de Tama, un distrito de Tokio de 150 000 habitantes. ¿Cuáles fueron los eslóganes de campaña de Michihito? El primero estaba cantado: «La inteligencia artificial puede cambiar la ciudad de Tama»; el segundo ya era más curioso: «Oportunidades justas y equilibradas para todos»; pero el tercero fue el que nos dejó traspuestos: «Inteligencia artificial contra corrupción». Un ser humano es sobornable, los robots hasta ahora no.

Al día de hoy existen 1,7 millones de robots diseminados por todo el planeta y por eso mismo el Parlamento Europeo ha creado el «Grupo de Trabajo de la Comisión de Asuntos Jurídicos sobre las cuestiones relacionadas con la evolución de la robótica y la inteligencia artificial en la Unión Europea», donde participan eminencias de la Comisión de Industria, Investigación y Energía (ITRE), de la Comisión de Mercado Interior y Protección del Consumidor (IMCO) y de la Comisión de Empleo y Asuntos Sociales (EMPL). No obstante, hasta ahora los principales temas de discusión de los europarlamentarios se reducen a preguntarse si los robots podrían tener derechos, si los androides deberían ser responsables civiles en caso de perjuicios a terceros o si procede gravar con mayores impuestos los beneficios económicos que los robots les reporten a sus propietarios. Todavía no existen respuestas para tales cuestiones, aunque el Parlamento Europeo sí ha parido una nueva definición legal para los robots. Ahora son «personas electrónicas».

Siempre que se habla de los puestos de trabajo que cíborgs y otros androides podrían ocupar en el futuro pensamos en obreros, campesinos, mecánicos y mediadores entre los usuarios y las distintas entidades como cajeros, telefonistas, vendedores, etc. ¿Y por qué no los parlamentarios? Después de todo, un robot no necesita tunear su currículum y se le podría cargar toda la legislación española, europea y planetaria sobre cualquier tema. Asimismo, los diputados digitales tampoco necesitarían dietas de alojamiento y movilidad porque permanecerían instalados en sus escaños acopiando información enviada por ciudadanos conectados online con esos legisladores de energía infinita, como los androides n.º 17 y n.º 18. Por último, los ciberparlamentarios no supondrían un costo desproporcionado a la sociedad y más bien obligarían a los militantes de los partidos a estudiar, trabajar y cotizar durante treinta y cinco años como cualquier ciudadano, pues jubilarse tras dos legislaturas con el 100 % del salario de diputado no lo haría ningún robot.

Estados Unidos es la primera potencia mundial del planeta, tiene una superficie de 9 826 630 km², una población de 300 millones de habitantes y tan solo 405 parlamentarios. Sin embargo, España tiene una superficie de 504 782 km², una población de 44 708 964 habitantes y un total de 1862 parlamentarios entre Congreso de los Diputados (350), Senado (264) y parlamentos autonómicos (1248). Por lo tanto, en Estados Unidos hay un congresista por cada 24 623 km², mientras que en España hay un parlamentario por cada 271 km². Y para que el horror sea perfecto —como escribió Borges en «La trama»— cada diputado supone un coche oficial, porque España es el sexto país del mundo en número de coches oficiales. Es decir, primero Estados Unidos (861 000), segundo Italia (629 000), luego Francia (72 000), Gran Bretaña (55 000), Alemania (55 000) y finalmente España (35 000), por delante de Japón, Canadá, Australia, China y Rusia, países no solo más ricos, sino más poblados. ¿Se imaginan lo que nos ahorraríamos en salarios, pensiones, combustible y mal humor recurriendo a un único robot por cada grupo parlamentario? No descarto que Podemos necesite un cíborg por cada una de sus Mareas, pero el ahorro se notaría hasta en la traducción simultánea porque cada ciberdiputado tendría preinstaladas —como C-3PO— todas las lenguas peninsulares y modernas.

Como se puede apreciar, no todos los futuros robóticos son distópicos y posapocalípticos, porque un diputado eléctrico siempre inspiraría más confianza que uno natural. Por lo tanto, si a un año del futuro fantaseado en Blade Runner los votantes ya sabemos que los parlamentarios funcionan en modo replicante, muchísimo mejor sería tener replicantes de verdad.