Ficción virtual

Matrix (1999). Imagen: Warner Sogefilms.

El ser humano siempre se ha cuestionado los límites de la realidad. Es una cuestión tan natural que es imposible no planteársela algún día. ¿Cómo puedo saber si lo que ven mis ojos, o lo que percibo con mis otros sentidos, es real? Todos hemos sido alguna vez engañados e incluso hemos confundido los sueños con la realidad. ¿Cómo puedo saber entonces si estoy dormido o despierto? Incluso el más racionalista habrá dudado en algún momento. Filósofos, místicos y científicos han dedicado toneladas de papel a este tema. Si el mundo, o parte de él, no es real, ¿qué pasa con nosotros? Esta pregunta se ramifica dando lugar a una miríada de nuevas preguntas de difícil respuesta. «¿Quién, cómo y por qué?» son sin duda las más obvias. Las implicaciones son complejas, tanto a nivel colectivo como individual. No es fácil seguir con tu vida cuando sabes que tu pareja es producto de la imaginación de alguien, o un sueño, o una simulación realizada por una cultura superior.

Muchos creadores han tomado varias de estas preguntas como punto de partida para sus historias. Así nos encontramos con Bastian leyendo la Historia interminable (Die unendliche Geschichtesin saber que se vería dentro de la misma. Alicia y Dorothy tampoco tenían nada claro si lo que les ocurría era real o producto de su imaginación. Ni siquiera el lector, habitualmente más conocedor de lo que sucede que los personajes, podía apostar con seguridad.

Por supuesto, en esto hay niveles, como en todo en la vida. No es lo mismo estar parcialmente engañado a que toda tu vida sea una farsa. Tampoco es lo mismo si el engaño se basa en la realidad a si es algo totalmente fantástico.

Muchos son los ejemplos de realidades ficticias (o ficciones reales) que nos podemos encontrar. Veamos algunos.

1. El mundo real

Empecemos por el contraejemplo que nos sirve para comenzar a construir nuestra jerarquía. En el nivel cero se encuentra el mundo real, suponiendo que sea como pensamos que es.

Casi todas las obras de ficción tratan de gente viviendo en un mundo que de una manera u otra conocen. Por supuesto, hay que aceptar un cierto nivel de engaño dado que eso ocurre en el mundo real. Madame Bovary no es considerada una novela sobre los límites del conocimiento a pesar de que el pobre Charles no sepa que su mujer anda de picos pardos. También se incluyen aquí las novelas de espías, que suelen estar basadas en el engaño. Incluso podemos contar la ficción fantástica como El señor de los anillos (The Lord of the Rings), o la ciencia ficción, siempre que los protagonistas de las mismas sean conscientes del mundo en el que viven.

A partir de aquí comienza la irrealidad.

2. El engaño

En la primera planta de nuestro edificio nos encontramos la ficción donde los protagonistas, o incluso todo el mundo, viven en un engaño. Por supuesto, el engaño debe ser suficiente como para hacernos dudar de la realidad en sí. No basta para entrar en este nivel con un engaño puntual, o con las fake news que nos dicen que nos podemos curar el cáncer oliendo un limón.

La idea de la manipulación masiva es casi tan antigua como la prensa. En 1949 el autor inglés George Orwell publicó la novela  distópica 1984. En ella el protagonista, Winston Smith, trabaja en el Ministerio de la Verdad y su labor es precisamente modificar los periódicos pasados para adaptarlos al momento. El cambio de la historia permite al Gobierno, representado en el omnipresente Gran Hermano, modificar la realidad para perpetuarse en el poder. Se podría alegar que esto ocurre en la realidad, y que estamos todos manipulados, pero es difícil pensar que tanto nivel de manipulación sea realizable con los medios actuales.

En otras obras, la manipulación se da a un nivel más íntimo. Menos global. No es necesario que todo el mundo viva engañado para que una obra trate principalmente sobre el engaño. El ejemplo más popular es sin duda la película El show de Truman (The Truman Show). En este caso se trata de un personaje que vive fuera de la realidad. Todos los que le rodean no solo no viven engañados, sino que participan activamente de la trama. El resto del mundo sabe bien la verdad, ya que la vida de Truman constituye el programa de televisión más popular del mundo. Sin embargo, para Truman todo es engaño, por lo que vive una vida muy diferente a la real. El comportamiento de sus amigos, sus padres, o su pareja; lo que ve por televisión o el periódico que lee; incluso el clima, todo está calculado para subir audiencias.

Un ejemplo menos popular es el cortometraje Te lo mereces, dirigido por Felipe Jiménez Luna. Es un corto muy similar a El show de Truman, pero estrenado dos años antes.

Si la película se inspiró en el cortometraje es algo que me temo que nunca sabremos.

3. Alucinaciones

Continuando en la línea de lo que es factible nos encontramos con la idea de un desequilibrio mental, antes llamado locura, que nos haga creer como ciertas cosas que no lo son. La esquizofrenia es una enfermedad que afecta en torno al 1% de la población americana, con porcentajes algo menores en otros países del primer mundo. Otras enfermedades mentales, como la bipolaridad, también pueden causar alucinaciones.

Esta es la idea central de la obra maestra de la literatura española. Hablamos, claro está, de El ingenioso hidalgo don Quijote de la Mancha. La escena más popular de esta obra es sin duda la de los molinos de viento, que es un buen ejemplo del nivel de desapego de la realidad que tiene el protagonista.

En esto descubrieron treinta o cuarenta molinos de viento que hay en aquel campo, y así como don Quijote los vió, dijo a su escudero:

—La ventura va guiando nuestras cosas mejor de lo que acertáramos a desear; porque ves allí, amigo Sancho Panza, donde se descubren treinta o poco más desaforados gigantes con quien pienso hacer batalla, y quitarles a todos las vidas, con cuyos despojos comenzaremos a enriquecer: que esta es buena guerra, y es gran servicio de Dios quitar tan mala simiente de sobre la faz de la tierra.

—¿Qué gigantes? —dijo Sancho Panza.

—Aquellos que allí ves —respondió su amo— de los brazos largos, que los suelen tener algunos de casi dos leguas.

—Mire vuestra merced —respondió Sancho—, que aquellos que allí se parecen no son gigantes, sino molinos de viento, y lo que en ellos parecen brazos son las aspas, que volteadas del viento hacen andar la piedra del molino.

—Bien parece —respondió don Quijote— que no estás cursado en esto de las aventuras; ellos son gigantes, y si tienes miedo quítate de ahí, y ponte en oración en el espacio que yo voy a entrar con ellos en fiera y desigual batalla.

El coprotagonista, Sancho Panza, hace las veces de ancla que mantiene a don Quijote en el mundo real. A medida que avanza la novela, sobre todo la segunda parte, Panza se va volviendo más idealista, mientras que su amo se va volviendo más realista. Este juego entre la ficción y la realidad de los personajes los mantiene siempre entre dos mundos.

Más desapego respecto a la realidad tenía Trevor Reznik, protagonista de la película El maquinista (The Machinist), interpretado por Christian Bale. Reznik sufre de un permanente insomnio producto de un evento traumático. Esto le provoca, además de una extrema delgadez, una mezcla de recuerdos e imaginaciones que confunde con la realidad. Dado que la película está contada desde el punto de vista del protagonista, es difícil incluso para la audiencia distinguir qué es real y qué no.

Dentro de este campo también hay ficción basada en la realidad como Una mente maravillosa (A Beautiful Mind), que cuenta la vida del matemático esquizofrénico John Nash.

Al igual que en el caso del engaño, aquí nos movemos dentro de lo plausible. Esto es usado como recurso para involucrar a la audiencia en la obra. Tanto Una mente maravillosa como El maquinista formulan muy elegantemente la siguiente pregunta: «¿Cómo podemos estar seguros de que todas nuestras experiencias diarias son reales?».

4. El sueño

La idea de confundir los sueños con la realidad es también muy antigua, y ha sido tratada por numerosos filósofos. Platón conjeturó que el hombre vive en un estado similar al sueño, entre tinieblas que le permiten solo intuir la realidad.

Al ser este tema bastante tópico, hay numerosas obras que lo tratan. En la literatura española el ejemplo arquetípico es La vida es sueño, de Calderón de la Barca. Esta obra se mueve entre este nivel y el primero, ya que gran parte de lo que ocurre se debe al engaño. El rey Basilio, padre de Segismundo, no se fía un pelo de su hijo, al que abandonó. Para ponerlo a prueba decide llevarlo dormido a palacio y ver su comportamiento, pero guardándose la posibilidad de hacerle creer que todo es un sueño. Segismundo, que no es muy avispado, cree que su vida anterior ha sido un sueño y decide comportarse de la manera más despótica posible, asesinato incluido. El rey, al ver su comportamiento, decide hacerle ver que todo ha sido un sueño, y Segismundo se cree la treta, terminando su famoso monólogo de la siguiente manera:

¿Qué es la vida? Un frenesí.

¿Qué es la vida? Una ilusión,
una sombra, una ficción,
y el mayor bien es pequeño;
que toda la vida es sueño,
y los sueños, sueños son.

Hay engaño, eso es cierto, pero el tema principal de la obra es la dificultad de distinguir la realidad de los sueños.

Origen (2010). Imagen: Warner Bros.

Dentro del campo de la ciencia ficción nos encontramos con la película Origen (Inception), dirigida por Christopher Nolan. La mayor parte de la trama no trata sobre este tema. Hay gente que se infiltra en los sueños para robar información, pero ni ellos ni la víctima confunden necesariamente el sueño con la realidad. Sin embargo, hay una trama oculta que poco a poco se le revela al espectador. Antes de comenzar los hechos que narra la película, el protagonista, Dom Cobb, pasa un tiempo psicológicamente extenso en un sueño. Le acompaña su mujer, Mal, interpretada por la brillante Marion Cotillard. El tiempo que pasan en el sueño se les hace tan largo que Dom no tiene más remedio que hacérselo más llevadero a su mujer inoculándole un pensamiento, que ese mundo es real. El problema llega al despertar, cuando la pobre Mal se vuelve incapaz de reconocer el mundo real, y piensa que es entonces cuando sueña.

Volvemos entonces a la pregunta original. Todos hemos vivido sueños tan reales que hemos tardado en recuperarnos de ellos después de despertar. Algunos incluso nos han hecho intentar dormirnos de nuevo con la esperanza de recuperarlos y no tener que enfrentarnos con la realidad.

5. La realidad virtual

En este nivel ya nos salimos de lo que nos podemos encontrar en nuestro mundo actual (si tal cosa es real) y nos metemos de lleno en el mundo de la ciencia ficción. Nos referimos a tecnología que pueda llegar a engañar nuestros sentidos, haciéndonos dudar de lo que vemos, oímos o sentimos.

Para entrar en este nivel necesitamos encontrar obras en las que parte de lo que ocurra sea creado por ordenador, y que se confunda con la realidad. Así que no nos referimos a la realidad virtual que ya existe. Si juegas un rato a matar marcianos con tus gafas 3D, no deberías luego confundirte mientras estés conduciendo. Solo cuando el nivel de realismo llegue a ciertos límites deberíamos preocuparnos, y eso es lo que ha explorado la ciencia ficción.

Una película ya clásica se encuentra entre este nivel y el anterior. Hablamos de Desafío total (Total Recall), película estrenada en 1990 pero que se basa en un relato de Philip K. Dick de 1966 (Podemos recordarlo todo por usted). En esta grandiosa película podemos ver a Arnold Schwarzenegger en el papel de Douglas Quaid, un obrero de la construcción cuyos sueños le animan a ir de turismo a Marte. Como no sabe si sus sueños se basan en algo real volvemos al nivel anterior, los sueños. Como es pobre, y su mujer no le apoya, decide «viajar» con la empresa Memory Call. Esta compañía se dedica a implantar falsos recuerdos para crear la sensación de haber vivido una aventura. La cosa se complica cuando la intervención hace aflorar lo que parecen ser recuerdos reales de una vida pasada. Para más sorpresa, en esa vida el humilde obrero es un espía de élite que colabora con la resistencia marciana. El resto de la película es una apoteosis de violencia gratuita, mutantes con tres pechos, terroristas buenos y complots. Genial. Durante toda la trama la idea de si lo que ocurre no es real está muy presente, de modo que nos encontramos en el camino intermedio entre un mundo virtual y un sueño confundido con la realidad (y viceversa). Incluso durante el desenlace el espectador no tiene del todo claro qué es real y qué no.

Los videojuegos también son un buen caldo de cultivo para explorar la relación entre la realidad virtual y la realidad real. Una no muy conocida película sobre el tema es Juego mortal, viaje interactivo (Brainstorm). Esta película, a pesar de no ser una gran película y de competir por el Óscar a la peor traducción de un título al español, explora de manera entretenida el tema de los videojuegos y la realidad. La idea es sencilla: un estudiante de dieciséis años compra un nuevo videojuego que le permite, por medio de hipnosis, cometer un asesinato. El problema viene al día siguiente cuando descubre que el asesinato ha ocurrido en realidad. Similar trama tiene «Playtest», un reciente capítulo de la serie británica Black Mirror (temporada 3, episodio 2).

Se puede alegar que los videojuegos no entran dentro de esta categoría, ya que uno accede a ellos de manera voluntaria. No obstante, aunque sepas lo que estás haciendo, si la ilusión es suficientemente realista es probable que seas confundido. El saber que en el tren de la bruja no hay monstruos de verdad no te evita el susto.

6. La simulación

Un caso extremo de realidad virtual sería el de la simulación, todo un mundo generado por ordenador en el que vivimos inmersos sin ser conscientes de ello. Pueden habernos borrado nuestra memoria anterior, o podemos vivir en él desde que nacemos, pero no somos conscientes de cómo es el mundo real.

Siguiendo esta idea, en 1999 las hermanas Wachowski estrenaron The Matrix. Nada volvió a ser lo mismo. Los noventa fueron una década de películas de acción, incluyendo al James Bond de Pierce Brosnan saltando de una avioneta montado en una moto. En medio de toda esa ficción basada en violar las leyes de la física, las Wachowski encontraron la excusa perfecta para crear una película de acción donde salirse de la realidad no fuera un problema. El tema central es cómo toda la humanidad vive engañada en un mundo virtual. Solo un selecto grupo de rebeldes conoce el mundo real y trata de salvar a sus congéneres.

El caso de Matrix es más extremo que la simple realidad virtual. En Matrix no entra uno voluntariamente. Directamente desconoces el mundo real. Se podría ir incluso más allá. Matrix es un mundo creado a semejanza al real, pero podría incluso ocurrir que no tuviera nada que ver. Quizás este mundo es una simulación de otro en el que no hay ni seres humanos, ni ordenadores, ni máquinas.

7. El universo parcial

Tomorrowland (2015). Imagen: Walt Disney Pictures.

Puede ocurrir también que lo que veamos sea real, pero solo parcialmente, de modo que vivamos engañados. Por supuesto, no nos referimos al mero hecho de no ser omniscientes. Sin duda hay mucho que desconocemos. Nos referimos más bien a que vivamos en un engaño en cuanto que la realidad que vemos sea solo una pequeña parte de una historia que es controlada o conocida por otros individuos.

De nuevo, esta idea es muy antigua, y podemos retroceder hasta Platón y su mito de la caverna (1). Según el filósofo griego lo que vemos no es la realidad en sí, ya que nuestros sentidos y prejuicios nos lo distorsionan. Es por eso necesario cultivar el uso de la razón y el estudio para poder alcanzar una visión más real de las cosas. La idea de un mundo más extenso al que perciben nuestros sentidos es también algo común a prácticamente todas las religiones.

Esto es un tema muy recurrente en la ficción que trata con temas místicos. Un ejemplo reciente sería la película de Marvel Dr. Strange, así como toda la ficción asociada a este personaje. El Dr. Strange, junto a un grupo de selectos magos, son los únicos que pueden interaccionar con la dimensión astral. Así, nuestro mundo es solo parcialmente real y los fenómenos paranormales forman parte natural de esa realidad extendida.

Dejando el misticismo a un lado, también puede ocurrir que nos oculten la realidad. La idea de un complot multinacional para mantenernos engañados no es nueva, y tampoco tiene por qué ser falsa. Un ejemplo es el mundo de Tomorrowland, una película entretenida, con una fotografía preciosa, pero con un guion lioso y sin mucho fundamento. En ella podemos ver un mundo alternativo en que los mayores avances tecnológicos de la humanidad son negados a la mayoría y confinados a una ciudad secreta. Otro ejemplo sería la divertida Men in Black, y con ella casi todas las películas sobre extraterrestres en las que se decide ocultar la presencia de estos a la población. Parece que los guionistas y cineastas no tienen mucha confianza en nuestra capacidad para convivir con seres de otros planetas. Estos ejemplos entrarían también dentro de la categoría del engaño masivo, pero su principal característica es la existencia de una sociedad paralela que prefiere mantenerse en el anonimato.

8. El multiverso

¿Y si el universo es el que es, pero existen otros? Esta es una idea que, aunque parece un poco loca, los científicos serios se han planteado (2). Volvemos de nuevo a movernos entre distintos niveles, ya que el caso de Dr. Strange podría encuadrarse en este nivel. Sin embargo, aquí vamos a hablar solo de copias, más o menos fieles, de nuestro propio universo. Por supuesto, tiene que haber algún tipo de interacción entre los otros universos y el nuestro, si no, la cosa no daría para mucho.

Los ejemplos que podríamos dar son innumerables, pero nos centraremos en los más recientes. Poco después de que Matrix hiciera historia salió la inefable película El único (The One). Intentando aprovechar la ola de la obra maestra de las Wachowski, James Wong creó una película en la que hay ciento veinticuatro copias de uno mismo, repartidas por distintos multiversos. El policía interdimensional Gabriel Yulaw (Jet Li), en un arranque de egocentrismo multidimensional, se dedica a matar a sus copias para absorber así su energía vital. Eso da pie a vibrantes escenas de acción, pero la historia en sí carece de credibilidad.

Más reciente (y mejor) es la serie Rick and Morti, nuevo objeto de culto de los frikis del mundo. En esta, un abuelo científico, Rick, y su nieto no muy brillante, Morti, viajan por un infinito multiverso. Se encuentran con sus alter egos en numerosas ocasiones, y llegan incluso a sustituirlos o matarlos cuando las cosas se complican. A pesar de un humor soez, se trata de una serie con un contenido en ciencia ficción muy profundo, y con la que pensar sobre el significado mismo de la realidad.

____________________________________________________________________________

(1) Que en realidad no es un mito, más bien una metáfora o alegoría.

(2) Para quien quiera leer un poco de la ciencia detrás de este tema hay un artículo antiguo pero muy bueno, «¿Existe el Multiverso?»Investigación y Ciencia, octubre 2011, página 421.


La carrera por el ordenador cuántico

Richard Feynman, 1964. Foto: United States Department of Energy (DP).

En 1982 el físico Richard Feynman fue invitado a dar un seminario. Tenía muchos temas de los que hablar, pero se decantó por el que el organizador consideraba que nadie iba a escoger, la simulación de sistemas físicos en ordenadores. La clase fue resumida en un artículo que se publicó el mismo año en la revista International Journal of Theoretical Physics, y a día de hoy se considera un clásico de la ciencia (1).

Aunque nadie más quisiera hablar de ese tema, en la década de los ochenta la simulación de sistemas físicos con ordenadores era un tema importante. Durante los años cincuenta, los primeros ordenadores modernos habían revolucionado el mundo de la investigación. Realizar cálculos matemáticos que solo unas décadas antes eran totalmente inaccesibles se había vuelto algo habitual. Además, se crearon los lenguajes de programación de alto nivel, como Fortran o Cobol. Estos lenguajes permitían a los científicos crear sus propios programas sin necesidad de pasar años estudiando ciencias de la computación. Poco después, en la década de los setenta, aparecieron los primeros superordenadores. El famoso modelo Cray-1 (2) fue instalado en el Laboratorio Nacional de Investigación de Los Álamos en 1975, solo siete años antes del artículo de Feynman. El tema de cómo usar ordenadores para estudiar el comportamiento de los sistemas físicos era entonces un campo de investigación abierto y excitante.

Curiosamente, el artículo de Feynman es recordado no tanto por las conclusiones que expone sino por las preguntas que hace. En él se diferencia entre la dificultad de simular un sistema clásico, como un cohete que va a la Luna, y uno cuántico, como un átomo. Feynman identifica que los sistemas cuánticos son mucho más difíciles de simular que los clásicos, ya que los ordenadores funcionan siguiendo leyes clásicas. Como posible solución propone usar sistemas cuánticos para simular sistemas cuánticos. Esa idea se considera hoy en día como la semilla de la que germinó la ciencia de la computación cuántica.

La idea se puede resumir de manera muy concisa: «Los sistemas cuánticos son inherentemente diferentes a los clásicos. Los ordenadores son sistemas clásicos, y por eso simulan los sistemas cuánticos muy mal. Fabriquemos ordenadores que funcionen según la física cuántica y asunto resuelto». Una idea fácil de resumir pero muy difícil de realizar. Basta con decir que entre el artículo de Feynman y la actualidad han pasado ya treinta y cinco años y todavía no tenemos ordenadores cuánticos operativos.

Pero ¿por qué hacen falta ordenadores cuánticos? Como ya intuyó Feynman, el problema de simular sistemas cuánticos con ordenadores clásicos viene del hecho de que la física cuántica y la clásica son muy diferentes. En los sistemas clásicos, como los que tratamos a diario en nuestro mundo macroscópico, los sistemas se definen por magnitudes que están bien definidas. Así podemos dar la posición y la velocidad de un cohete, por ejemplo. La física cuántica es mucho más compleja. El ejemplo más típico es el gato de Schrödinger, que puede estar vivo y muerto al mismo tiempo. A pesar de su popularidad, este ejemplo es bastante desafortunado (3). Un gato es un ser macroscópico, formado por trillones de átomos e interacciona fuertemente con su entorno. Por ese motivo un gato nunca estará en superposición de dos estados. Sin embargo, en el mundo microscópico sí se da este comportamiento, llamado coherencia, y es muy común que los átomos o los electrones estén en varios estados al mismo tiempo. Esto no es solo una curiosidad, también dificulta mucho el realizar cálculos sobre este tipo de sistemas.

Veamos un ejemplo. Si un sistema clásico puede estar en dos estados, para definirlo solo tendremos que dar un valor (‘0’ o ‘1’). Esto es lo que se conoce como un bit. Si un sistema cuántico puede también encontrarse en esos mismos dos estados, la cosa se complica un poco. Puede estar en ‘0’ o en ‘1’, pero también puede estar en una combinación de ambos. Algo como a‘0’+b‘1’ es en este caso totalmente factible. En este ejemplo, a y b son dos números que determinan cuánto se encuentra el sistema en cada estado. Un sistema cuántico de dos niveles como este es lo que se denomina un qubit (quantum bit, o bit cuántico en español). Así que, si queremos definir el estado clásico, solo tenemos que almacenar en nuestro ordenador ‘0’ o ‘1’, y para definir el cuántico tenemos que almacenar dos números, ‘a’ y ‘b’. No parece que la diferencia sea tan radical. Es cierto que dos números ocupan más memoria en la máquina que un solo bit, pero tampoco la diferencia es abismal. El problema real se produce cuando el sistema es más grande. Si en lugar de dos tenemos cuatro estados posibles, el sistema clásico pasa a necesitar dos bits para ser descrito (’00’, ’01’, ’10’ o ’11’). Para este mismo caso el sistema cuántico necesita ahora de cuatro números, uno por cada posibilidad. Dos bits frente a cuatro números. Esta tendencia continúa a medida que el sistema va creciendo. En general, si un estado cuántico requiere de N bits para ser determinado, su equivalente cuántico requerirá 2 elevado a N números. Así, para un sistema totalmente manejable con un ordenador personal, como uno de 100 bits, un ordenador cuántico necesita una cantidad de variables del orden de 1030 (un 1 con 30 ceros detrás). Esto es algo que no solo no pueden manejar los ordenadores actuales, sino que se escapa de cualquier predicción de un futuro próximo por optimista que sea esta. Este problema forma parte de lo que se denomina en ciencias de la computación la maldición de la dimensionalidad (curse of dimensionality).

Por suerte, en el problema se halla la misma solución. Como los mismos sistemas cuánticos pueden estar en superposición es evidente que ellos sí que pueden computar todas estas variables. Así, si tenemos un sistema que controlamos muy bien, podemos usarlo para estudiar otro que se le parezca. Eso es lo que se denomina un simulador cuántico. Si somos más ambiciosos aún, podemos buscar un sistema que controlemos tan bien que podamos usarlo para simular cualquier otro sistema. Eso lo denominamos un ordenador cuántico universal. Este último nos permitiría estudiar infinidad de sistemas, con aplicaciones en el campo de la física de materiales, la medicina, la química y muchas más.

Si la teoría es en principio sencilla, eso no quiere decir que lo sea la realización experimental. Por desgracia, los sistemas cuánticos son muy difíciles de controlar. En general, son sistemas muy pequeños, como átomos o fotones (partículas de luz), y eso los hace difíciles de manipular. Pueden estar en varios estados al mismo tiempo, eso es cierto, pero esa propiedad dura habitualmente una fracción de tiempo demasiado corta como para poder aprovecharla. La interacción con el entorno hace que el mundo se vuelva clásico, y por eso no vemos estos exóticos efectos en nuestro día a día. Por este motivo, para poder utilizar sistemas cuánticos como ordenadores debemos aislarlos y enfriarlos hasta el extremo.

Muy poco después del artículo de Feynman se hicieron avances en el campo de la computación cuántica tanto teóricos como experimentales.

Dermot Turing inspecciona el Pilot ACE, el que fue el computador más rápido del mundo en los años 50, diseñado por Alan Turing. Foto: Cordon.

Desde el punto de vista teórico, a finales de los ochenta y principios de los noventa se establecieron las bases fundamentales de la computación cuántica (4). Este proceso fue una extensión de las bases de la computación clásica, desarrolladas principalmente por Alan Turing, al mundo cuántico. Poco después se encontraron ejemplos de problemas matemáticos que podían ser resueltos por un ordenador cuántico de manera más eficiente que por uno clásico. Con esto comenzó la revolución. Los ordenadores cuánticos ya no eran solamente un instrumento específico de investigación.

En 1996 se publicaron dos artículos que revolucionaron este campo. Lov K. Grover demostró que un ordenador cuántico tenía una capacidad de buscar un elemento en una base de datos de manera más eficiente que uno clásico (5). Para bases de datos pequeñas la mejora sería irrelevante, pero si es una base de datos muy grande (como las búsquedas por internet) los ordenadores cuánticos tardarían mucho menos que los clásicos en realizar la búsqueda.

En ese mismo año Peter W. Shor publicó otro resultado aún más impactante (6). Se trataba del ahora llamado algoritmo de Shor, un algoritmo que permite factorizar un número producto de dos primos con una velocidad mucho mayor que los algoritmos clásicos conocidos. Este problema puede parecer una curiosidad matemática, pero es de vital importancia para todos nosotros. Factorizar el producto de dos primos es un problema fácil de formular, pero muy difícil de resolver. Veamos una sencilla explicación. Si tenemos dos números primos (3 y 5), multiplicarlos es trivial (3×5=15). Ahora, si os doy un número (15) y os digo que es producto de dos primos, averiguar qué primos son no es tan fácil. Puede no ser tan difícil con números pequeños, solo con probar a multiplicar todos los número primos más pequeños nos dará la solución. Sin embargo, si el número es muy grande, el problema se vuelve muy complejo. Como ejemplo, podemos tomar 150.859 e intentar averiguar qué dos números primos al multiplicarlos dan ese resultado (7).

¿Por qué es este un problema importante? Porque en la diferencia de dificultad entre estos dos problemas se basan la mayoría de métodos criptográficos usados actualmente. Resumiendo un tema muy complejo, podemos decir que el número producto sirve para encriptar un mensaje, de modo que no se entienda, y los dos números primos sirven para desencriptarlo. Así, yo puedo crear una clave, 150859, y liberarla para que todo el mundo pueda mandarme mensajes. Todo el mundo podrá escribir mensajes cifrados, pero solo yo, que conozco los dos números primos que dan ese resultado, podré leer esos mensajes. Ahora bien, si alguien da con un método para obtener los números a partir del producto se acabó la comunicación segura. Eso es lo que hizo Shor con su algoritmo, dio un método que podía ser usado para desencriptar gran parte de las comunicaciones actuales. Si alguien tiene acceso a un ordenador cuántico suficientemente grande, podrá leer todas nuestras comunicaciones.

Estos resultados supusieron un salto conceptual. Los ordenadores cuánticos ya no eran un instrumental de laboratorio que los físicos pedían para hacer su vida más fácil. Podían ser usados en tareas mundanas como saber si una persona es cliente de un banco o leer las comunicaciones privadas de los demás. Esto último tenía además potencial militar, por lo que algunos Gobiernos comenzaron a pensar que sería interesante invertir en esta línea de investigación.

Desde entonces han salido a la luz otros algoritmos cuánticos. Las aplicaciones son muchas, como resolver sistemas de ecuaciones (8), mejorar la inteligencia artificial (9) o calcular propiedades de moléculas complejas (10). Todas estas potenciales aplicaciones han motivado la búsqueda del ordenador cuántico operativo.

Desde el punto de vista de la implementación también ha habido grandes avances en las últimas décadas. En esta dirección se han explorado distintos sistemas físicos, con la esperanza de controlarlos y poder usarlos como ordenadores cuánticos. En principio, cualquier sistema cuántico es un potencial ordenador. Esto incluye átomos, moléculas o partículas como el electrón. Sin embargo, por motivos prácticos no todos son iguales. Primero, necesitamos un sistema que sea fácilmente aislable para que mantenga sus propiedades cuánticas durante un tiempo razonable. Segundo, tenemos que tener la capacidad de manipular y observar el sistema para que haga lo que nosotros queramos. Durante las últimas décadas se han estudiado muchos sistemas con este fin como fotones, superconductores, iones, átomos, espines y condensados de Bose-Einstein. Aquí vamos a discutir los dos sistemas más importantes actualmente, los iones atrapados y los superconductores.

En 1952, el físico Erwin Schrödinger, uno de los padres de la física cuántica, realizó la siguiente afirmación: «Nunca experimentamos con solo un electrón o átomo o molécula (pequeña). A veces suponemos que lo hacemos en experimentos pensados, esto invariablemente conlleva consecuencias ridículas» (11). Esa afirmación refleja el sentimiento de la mayoría de los científicos de su época. Sí, existen los átomos, ya no queda duda, pero siempre los encontramos por trillones. La idea de manipular un átomo, un fotón o un electrón era inconcebible. Afortunadamente, esa imposibilidad no duró mucho y en 2012 vimos cómo el Premio Nobel de Física se entregaba a Serge Haroche y David J. Wineland por «la manipulación de sistemas atómicos individuales». Antes incluso, en 1989, Wolfgang Paul recibió el mismo galardón por su diseño de trampa magnética ahora llamada trampa de Paul. Este dispositivo consiste básicamente en un campo eléctrico cambiante que permite atrapar átomos a los que les falta algún electrón (iones). Su primer uso fue el de realizar espectroscopia de masas, pero a medida que se fue perfeccionando el interés se fue enfocando también en la computación.

Además de atrapar y aislar los iones hace falta también manipularlos. En 1995 el español Juan I. Cirac junto con su supervisor Peter Zoller demostró que aplicando pulsos láser a iones atrapados se puede realizar cualquier cómputo cuántico (12). Ese mismo año se demostró que era posible su implementación en el National Institute of Standards and Technology (Estados Unidos). Ese experimento se realizó con un ion de Berilio. A día de hoy, el ordenador cuántico de iones más potente se encuentra en el Instituto de Óptica e Información Cuántica de Innsbruck (Austria) y puede manipular ocho iones. En más de veinte años hemos pasado de uno a ocho átomos, y en la versión de ocho átomos ni siquiera pueden hacerse todos los cómputos posibles. Por ejemplo, el algoritmo de Shor solo se ha podido realizar hasta el momento con cinco iones. El ordenador de iones es actualmente un instrumento útil en investigación, pero no precisamente por su capacidad de cómputo. Eso actualmente, aunque dicen que esa tendencia cambiará pronto.

Otro sistema muy estudiado son los superconductores. Como la superconducción está considerada un fenómeno cuántico macroscópico su uso con este fin parecía bastante obvio. Aquí se ha dado además un caso curioso. Durante bastantes años, los investigadores en superconductores se contentaban con conseguir replicar lo que habían hecho con iones unos años antes. Esto hacía que algunos investigadores de iones se mofaran de sus compañeros investigadores de superconductores en congresos y reuniones. La sorpresa vino cuando en 2011 la empresa D-Wave Systems anunció que sacaba al mercado el ordenador D-Wave One, con 128 qubits superconductores. Esto suponía un avance abismal frente a los 5 qubits del ordenador de iones más potente del momento. Parecía que habían ganado la carrera por el ordenador cuántico, pero en poco tiempo aparecieron muchas cuestiones que resolver antes de otorgarles la medalla. El principal problema es que D-Wave One no es, ni pretende ser, un ordenador cuántico universal. En realidad, en lugar de ser capaz de realizar cualquier tarea realizaba solo una. Este cómputo es lo que se denomina quantum annealing (13). Sus fabricantes defienden que este problema es suficiente para resolver a través de él muchos otros, pero hay un gran debate en torno a esa afirmación. Ni siquiera está claro que D-Wave funcione de manera cuántica, ya que hay ordenadores clásicos capaces de realizar esos mismos cálculos igual o más rápido (14).

Desde 2011 se han realizado numerosas pruebas en D-Wave, y no hay nada concluyente. En 2015 se liberó el D-Wave 2, un nuevo modelo con 512 qubits que fue usado por Google y la NASA para crear su Laboratorio de Inteligencia Artifical Cuántica (QuAIL). Incluso este modelo superior no está demostrado que funcione mejor que un ordenador clásico, ni que realmente haga computación cuántica. Por este motivo las burlas de los investigadores en iones hacia los de superconductores no han desaparecido. Rainer Blatt, el investigador propietario del ordenador de iones de Innsbruck, suele todavía concluir sus charlas con un par de transparencias, comentando por qué D-Wave no es un ordenador cuántico legítimo. Él al mismo tiempo ha comenzado a experimentar con un prototipo de ordenador con 20 iones. Mientras tanto Google ya ha anunciado que para finales de año habrán realizado un cálculo que se encuentra más allá de la capacidad de los ordenadores clásicos. La carrera entre iones y superconductores está en su momento más emocionante.

La última gran noticia que hemos vivido en este campo ha venido de parte de IBM. Esta compañía ha anunciado que antes del fin de 2017 tendrá un servicio de computación cuántica en la nube. De nuevo se trata de tecnología de superconductores, y no pretende ser mejor que un ordenador personal. En principio solo permitirán cómputos de hasta cinco qubits, menos que los ordenadores de iones. Sin embargo, este es un momento importante ya que se tratará del primer ordenador de computación cuántica con acceso remoto. No será necesario comprar un costoso equipo, ni tener un laboratorio. Cualquiera podrá utilizarlo desde su casa. Cualquiera que pague, claro. Lo más revolucionario de esta propuesta es el desarrollo de la infraestructura necesaria para que distintos usuarios puedan acceder al mismo ordenador cuántico. Aunque el ordenador actual sea solo un juguete, toda esta maquinaria pondrá a IBM en un puesto privilegiado en el que esperar a que se puedan hacer mejores ordenadores.

Sin duda estamos viviendo una época interesante. Con los ordenadores cuánticos ocurre un fenómeno similar al que ocurre con la fusión nuclear. Parece que estará al alcance en unos años, pero lo mismo parecía hace un par de décadas. La diferencia es que ahora muchas empresas están empezando a invertir. Si IBM, Google, Intel y Microsoft comienzan a sacar sus proyectos, eso es indicativo de que algo se mueve. Quizás esta vez sí sea cierto y en una década los ordenadores cuánticos sean una realidad.

El IBM Quantum Experience funcionando en una tablet. Foto: IBM Research (CC).

Notas:

(1) R. Feynman. «Simulating Physics with Computers». International Journal of Theoretical Physics 21 (6–7): 467-488 (1982).

(2) El superordenador Cray-1 tenía una potencia de cálculo de 160 MegaFLOPS. Eso quiere decir que podía hacer unos 160 millones de operaciones por segundo. Los superordenadores actuales más potentes pueden tener una potencia de PetaFLOPS (miles de millones de millones de operaciones por segundo).

(3) Con respecto a este tema, Stephen Hawking afirma: «cada vez que alguien me habla del gato de Schrödinger, saco mi pistola».

(4) D. Deutsch. «Quantum Theory, the Church-Turing principle and the universal quantum computer», Proc. Royal Society London A, 400, (1985).

(5) L. K. Grover. «A fast quantum mechanical algorithm for database search». Proceedings, 28th Annual ACM Symposium on the Theory of Computing (STOC), 212, (1996).

(6) P. W. Shor. Polynomial-Time Algorithms for Prime Factorization and Discrete Logarithms on a Quantum Computer. SIAM J. Comput., 26, 1484, (1996).

(7) 587×257=150.859.

(8) A.W. Harrow, A. Hassidim, and S. Lloyd. Quantum Algorithm for Linear Systems of Equations. Phys. Rev. Lett. 103, 150502 (2009).

(9) V. Dunjko, J. M. Taylor, and H. J. Briegel. Quantum-Enhanced Machine Learning. Phys. Rev. Lett. 117, 130501 (2016).

(10) J. Huh, G. G. Guerreschi, B. Peropadre, J. R. McClean, and A. Aspuru-Guzik. Boson sampling for molecular vibronic spectra. Nature Photonics. Nature Photonics 9, 615 (2015).

(11) E. Schrödinger. «Are there quantum jumps?», British Journal for the Philosophy of Science 3, 233 (1952).

(12) J. I. Cirac and P. Zoller. «Quantum Computations with Cold Trapped Ions». Phys. Rev. Lett. 74, 4091 (1995).

(13) No hay una traducción al castellano aceptada para este término. Algunos utilizan temple cuántico o cristalización cuántica, pero el término en inglés es sin duda el más usado incluso en círculos hispanoparlantes.

(14) D. Manzano. Is D-Wave a Quantum Computer? Mapping Ignorance.


El nuevo mundo de la inteligencia artificial

2001: Una odisea del espacio (1968)
Frente a HAL 9000. 2001: Una odisea del espacio, 1968. Imagen: Metro-Goldwyn-Mayer / Stanley Kubrick Productions.

Si hay un campo de investigación en el que nuestras predicciones son siempre demasiado optimistas, ese es el de la inteligencia artificial (o IA). En 1968 la película 2001: Una odisea del espacio nos presentó a HAL 9000, una IA capaz de conversar, jugar al ajedrez, pilotar una nave espacial o decidir sobre la vida o muerte de sus tripulantes. Según la película esta maravilla de la inteligencia artificial empieza a funcionar nada menos que en 1992. En esa fecha en el mundo real estábamos impresionados con el solitario y el buscaminas, los nuevos juegos de Windows 3. Por una fecha similar, en 1997, la red de IA del sistema de defensa de los Estados Unidos, Skynet, toma conciencia de sí misma. Al menos así nos lo explican en Terminator 2: el juicio final (1992). Es cierto que esta optimista previsión contiene una pequeña paradoja. Skynet es creado gracias a un chip encontrado en un Terminator que viene del futuro, diseñado por el propio Skynet. La paradoja se resuelve al destruir el chip, lo que da lugar a una predicción más conservadora sobre el año en el que una IA de estas características es creada. En Terminator 3: la rebelión de las máquinas, la nueva fecha decidida para la creación de Skynet es 2003, esta vez sin ayuda del futuro.

Ya vamos muy tarde. En 2016 todavía no tenemos redes inteligentes que nos intenten liquidar, ni que controlen naves espaciales, ni que tomen conciencia de su propia existencia. Al menos que sepamos. En su lugar tenemos coches que empiezan a conducirse solos, máquinas que nos ganan al ajedrez y al go, y alguna que otra IA que usamos a diario sin ser conscientes. Esto nos lleva a dos preguntas naturales. ¿Por qué la inteligencia artificial está avanzando tan lenta?, y ¿realmente está avanzando tan lenta?

Empecemos por la primera pregunta. Ciertamente, la ciencia ficción suele ser muy optimista con respecto a sus predicciones sobre la IA. Ocurre algo similar con muchos otros campos como la robótica, o la exploración espacial. En general, la ciencia ficción es siempre demasiado optimista. A nadie le gusta escribir sobre un mundo marginalmente más avanzado que el nuestro. La IA es además muy atractiva, ya que tener seres artificiales inteligentes constituye un recurso literario con muchas ramificaciones. Implica cuestiones tecnológicas, éticas, y filosóficas mucho más profundas que las que pueda implicar la mera exploración espacial por ejemplo. También es cierto que los mismos científicos no acertamos a pronosticar qué va a ocurrir, ya que el funcionamiento del cerebro humano es mucho más complejo de lo que podríamos imaginar.

La primera máquina que jugaba al ajedrez fue creada en 1912 por Leonardo Torres Quevedo. Solo jugaba con tres piezas, un rey y una torre contra el otro rey, pero siempre encontraba la combinación de movimientos ganadora. Podría parecer que jugar al ajedrez es un simple problema aritmético que se resolvería fácilmente a medida que los ordenadores aumentaban su potencia. Esto es verdad solo hasta cierto punto. La complejidad del ajedrez es tan grande que hubo que esperar ochenta y cuatro años hasta que el ordenador, Deep Blue, pudo ganar al  campeón del mundo vigente, Gary Kaspárov. Ocurre que el ajedrez es un juego con muchas ramificaciones y es muy difícil predecir qué va a ocurrir si mueves una ficha concreta. Deep Blue atacaba este problema por la fuerza bruta, pensaba en cada movimiento que podía hacer, luego en los movimientos que podría hacer su oponente. Así desarrollaba un árbol de todas las posibilidades. Es evidente que no podía llegar en ese árbol hasta el final de la partida, porque el número de combinaciones crece enormemente, así que exploraba solo los dos o tres siguientes movimientos. Una vez ahí asignaba una puntuación a cada escenario que obtenía, basándose en las piezas que perdía, las que perdía el contrario, el control del centro del tablero y otros factores. El movimiento que le llevaba con una mayor probabilidad a un escenario favorable era el que realizaba. No cabe duda que el cerebro de Kaspárov funcionaba de manera diferente a la máquina, ya que los seres humanos somos incapaces de explorar tantas posibilidades. También es evidente que Kaspárov podía jugar muy bien sin necesidad de explorar todo el árbol de posibilidades. Las maneras de jugar del humano y la máquina son intrínsecamente diferentes.

Ese es el principal problema de la inteligencia artificial. Los ordenadores son muy buenos haciendo ciertas operaciones que nosotros hacemos muy mal, como multiplicar grandes números. También tienen mucha más memoria que nosotros, o al menos pueden acceder a ella de una manera más fiable. Por este motivo, mucha gente pensó que rápidamente comenzarían a hacer lo mismo que hacemos nosotros, pero más eficientemente. Sin embargo, nuestros cerebros son intrínsecamente diferentes, y simularlos con un ordenador es una tarea muy complicada. Este es uno de los motivos que llevaron a la creación del Human Brain Project, un multimillonario proyecto que tiene como objetivo la simulación del funcionamiento del cerebro humano.

La investigación en IA ha tenido siempre el mismo tipo de evolución que encontramos en el caso del ajedrez. Grandes descubrimientos que incitan a pensar que el mundo ha cambiado, seguidos de décadas de silencio. Otro ejemplo, en 1961 se creó el perceptrón, la primera red de neuronas artificial. Podía catalogar imágenes simples y se pensó que sería el comienzo de la identificación de imágenes por ordenador. Aunque el perceptrón ha sido usado con éxito para ciertos problemas, como identificar huellas dactilares, su uso generalizado para identificar imágenes nunca llegó. En 2012 una nueva técnica similar al preceptrón, deep learning, se presentó al Large Scale Visual Recognition Challenge. Este concurso trata de poner a prueba la capacidad de reconocer imágenes de distintos sistemas de IA. La gran noticia fue que la nueva tecnología pudo clasificar las fotografías que le presentaban con «solo» un 37,5% de error en el primer intento. Hemos tardado más de cincuenta años en perfeccionar las redes de neuronas hasta hacerlas útiles para clasificar imágenes, y aun así su eficiencia no es mayor que la de un niño.

Está claro que la IA avanza a un ritmo muy irregular, y por ese motivo intentar predecirla no es una apuesta muy inteligente. Sin embargo, aun a riesgo de que encuentren este texto en cincuenta años y me tachen de «excesivamente optimista», voy a arriesgarme. Apuesto que ahora sí que estamos realmente frente a una verdadera revolución en el campo. Las nuevas técnicas que se han presentado recientemente, incluyendo el deep learning, presentan una ventaja llamada «escalabilidad». Esto significa que si simplemente duplicas la capacidad del ordenador usado mejoras la eficacia del sistema. Puede parecer algo obvio, pero no se presenta en todos los modelos de IA. Por ese motivo numerosas aplicaciones están apareciendo en los últimos años.

A man crosses the street as a prototype of an autonomous electric vehicle stops during its presentation in Buenos Aires, August 19, 2015. The autonomous vehicle, the first of its kind developed in Argentina, is able to fulfill the main functions of mobility of a traditional car but autonomously through the use of artificial intelligence that enables it to detect their surroundings and move without human intervention. REUTERS/Marcos BrindicciCODE: X90087
Prototipo de un coche eléctrico autoconducido. Fotografía: Cordon Press.

Mi optimismo se basa básicamente en el increíble número de nuevas aplicaciones comerciales. Cuando algo se queda en ámbitos científicos puede ser que no dé lugar a nada, pero si las empresas empiezan a invertir hay que sospechar que quizás estemos ante algo gordo. Vamos a ver a modo de ejemplo algunas de estas aplicaciones y su impacto en la sociedad moderna:

Coches autoconducidos:  

Esta es sin duda una de las más conocidas, ya que es de las que tendrán un mayor impacto. Promete ser más segura que la conducción humana y es sin duda más cómodo. Google y Tesla son tal vez las compañías más populares en lo que respecta a coches autónomos, pero prácticamente todos los productores han comenzado sus propios diseños. Además de la comodidad, los coches autónomos prometen nuevos servicios, como recoger a sus dueños o los taxis sin conductor. No hay que tener mucha imaginación para ver que esto supondrá un gran cambio en nuestras vidas y en la economía mundial.

Creación artística:  

Deep Dream es una plataforma de Google diseñada para crear arte usando redes neuronales. En febrero de este mismo año un cuadro realizado con esta herramienta se vendió por ocho mil dólares. Actualmente, Google está creando una nueva herramienta, Magenta, que promete ser mucho más creativa y que esperan que tenga aplicaciones en pintura, arquitectura y composición musical. El factor humano sigue siendo importante, nadie lo duda, pero la creación artística es uno de los campos donde es más difícil introducir un componente artificial. Es uno de los pocos campos que quedan puramente humanos, y parece que no será exclusivamente nuestro por mucho más tiempo.

Aplicaciones médicas:

La medicina suele ser uno de los campos más conservadores a la hora de incorporar nuevas tecnologías. Es obvio, ya que un error puede costar vidas humanas, y a nadie le gusta tener esa responsabilidad. Recientemente un equipo del Computer Science and Artificial Intelligence Laboratory (CSAIL) del Massachusetts Institute of Technology (MIT) ha publicado dos artículos explicando su nueva invención, un robot enfermero. Se trata de un algoritmo de IA que ayuda a un servicio de maternidad a organizar sus servicios. Este aconsejó a médicos y enfermeros sobre cómo organizar las operaciones y el tránsito de enfermos durante una simulación de un hospital. El personal aceptó las recomendaciones del robot en un 90% de los casos. Todavía no ha llegado a los hospitales, pero cuando lo haga será un acontecimiento muy importante.

Traducciones:

Si hay algo en lo que nos ha decepcionado la IA es en el campo de la traducción. Google Translator es la plataforma más usada, y aún dista mucho de ser un buen traductor. Puede ser útil para saber sobre qué trata un texto de un idioma sobre el que no tienes idea, pero poco más. Eso no quita que la cosa pueda cambiar, o que la traducción por IA no sea útil en otros ámbitos. Un ejemplo es Hand Talk, una nueva aplicación creada por Ronaldo Tenório. Esta aplicación es capaz de traducir del portugués al lenguaje de signos. De funcionar bien, la utilidad de la aplicación para gente sorda es indiscutible. Basta con llevar el móvil en el bolsillo y podrá traducir el mensaje de cualquier interlocutor que no hable lengua de signos. Si Siri es capaz de entender que buscas un restaurante por la zona, Hugo podrá entender lo que el camarero del restaurante te quiere decir.

Asistencia a minusválidos:

Siguiendo la misma filosofía que Hand Talk también existe la aplicación DuLight. Esta utiliza la cámara de un smartphone para ayudar a personas con visibilidad reducida. Así puede leer el billete del metro, una carta, la dirección de un buzón o prácticamente cualquier cosa.

Estas son solo algunas de las nuevas aplicaciones basadas en IA. La mayoría de ellas están basadas en deep learning, el nuevo método de moda. Como ya hemos dicho puede ser que esto no signifique nada, y que pronto volvamos a otra época de sequía en el campo. Por el contrario, mucho dinero se está invirtiendo en este campo, y en tan solo unos años han salido más aplicaciones basadas en IA que en las últimas décadas. Esto puede ser solo una moda, pero también puede ser el comienzo de un nuevo mundo. En este mundo podrás usar tu móvil como traductor, ser llevado en un taxi sin conductor o recibir una intervención quirúrgica cuando lo decida un robot. También puede ser que tengas dificultades para encontrar un trabajo, ya que muchos de ellos ya no están desempeñados por seres humanos. En cualquier caso, pronostico que el mundo dentro de una década será muy diferente al de hoy en día.

maxresdefault
DuLight ayuda a personas con visibilidad reducida. Imagen cortesía de DuLight.


Correlación no implica causalidad

Hollywood-Actor-Nicolas-Cage-Wallpaper-07462p
Con Air. Imagen: Touchstone Pictures.

Este artículo ha obtenido el primer premio del concurso DIPC de divulgación del evento Ciencia Jot Down 2016

Hay afirmaciones que no solo son ciertas, sino que además son poderosas. Una de mis favoritas es, sin duda, «correlación no implica causalidad». En el mundo de los debates públicos, de las peleas en Twitter y los flames en Menéame siempre es útil contar con herramientas como esta. La frase en sí viene a significar que el hecho de que dos eventos se den habitualmente de manera consecutiva no implica que uno sea causa del otro. Así, cuando llueve es más probable que truene, pero no es la lluvia la que causa los truenos.

Imagínate que por un giro del destino te ves envuelto en una discusión sobre, por ejemplo, si el modelo de educación finés es el ejemplo a seguir en España. No tienes ni idea de pedagogía, ni del modelo educativo español, ni del finés. Si fuera una discusión en un bar no pasaría nada, podrías decir que no te interesa, pero es en internet y ya se sabe lo que eso implica. En el cibermundo no vas a reconocer que no sabes de un tema. Tienes que discutir y, aún más importante, tienes que ganar. Tu oponente dialéctico está más preparado que tú. Te bombardea con datos y estudios sobre el informe PISA, sobre los distintos métodos pedagógicos y sobre muchas otras cosas que no te interesan. Da igual, porque tú estás curtido en mil ciberbatallas y sabes como contraatacar. Esperas un momento de descuido de tu oponente. Entonces te colocas bien el palillo que sujetas con los dientes y afirmas: «Todo eso está muy bien pero no demuestra nada, porque la correlación no implica causalidad». Ni siquiera importa si estás defendiendo el modelo finés o atacándolo. Cualquier dato que se te haya dado ha quedado refutado. Correlación no implica causalidad. El debate termina y has ganado.

¿Pero tiene realmente este argumento una base sólida? No lo dudes, cualquier persona con conocimientos básicos de estadística te lo podrá confirmar. En cualquier caso vamos a indagar un poco más para que sepas usarlo correctamente. Para eso nada mejor que usar un par de ejemplos.

El ejemplo más clásico es el de los piratas y el calentamiento global. Este se basa en un estudio desarrollado nada menos que por Bobby Henderson, el creador de la Iglesia pastafari. Su intención era combatir los argumentos de los creacionistas, un grupo muy dado a encontrar correlaciones donde no las hay y a concluir que hay una causa detrás. Casualmente la causa que siempre encuentran es la misma, Dios, causa que, de nuevo casualmente, coincide con lo que estaban intentando demostrar a priori. Para ilustrar el hecho de que el que dos fenómenos se den al mismo tiempo no implica que uno cause el otro. Henderson representó la temperatura global de la Tierra en función del número de piratas en el mundo.

1
Imagen: PiratesVsTemp.svg: RedAndr / Osado (CC).

Claramente se aprecia que, a medida que el número de piratas se ha reducido, la temperatura de la atmósfera ha aumentado. Según los argumentos de los creacionistas, y otros grupos favorables a encontrar causas donde no las hay, esto significaría que la escasez de piratas es la verdadera causa del calentamiento global. No hay otra explicación. Por este motivo los seguidores de la religión de Henderson se disfrazan de piratas en el momento del culto, para combatir así el cambio climático.

Veamos otro ejemplo. La página web Spurious Correlations se dedica a buscar en distintas bases de datos correlaciones absurdas entre series de datos. Una de las más populares es la que aparece en la siguiente gráfica, que representa a través de los años tanto el número de ahogamientos en piscina producidos en los Estados Unidos como el número de películas realizadas por Nicolas Cage.

2
Imagen: tylervigen.com

La correlación es clara. Cuantas más películas hace el bueno de Nicolas más gente muere ahogada. Lo mejor será que el pobre se retire y así ahorrará sufrimiento al mundo.

Dado que es difícil de creer que la gente se ahogue por culpa de Nicolas Cage, o que los piratas determinen la temperatura global, podemos concluir que estas correlaciones no implican que una cosa sea la causa de la otra. Veamos entonces la explicación canónica a estas gráficas. Que dos fenómenos se den a la vez, o que uno preceda al otro, no implica que uno sea la causa del otro. Aunque observamos una correlación entre A (películas de Cage) y B (ahogamientos en piscina) eso no significa que las películas de Nicolas Cage provoquen que la gente quiera morir de una manera agónica a la vez que refrescante (1).

¿Y, si no es A la causa de B, por qué se dan los dos fenómenos a la vez de forma repetida? Bueno, en general, si hay una fuerte correlación entre los fenómenos A y B, tenemos cuatro posibilidades:

  • Que A cause B (que los ahogamientos en piscinas hagan que el bueno de Nicolas quiera hacer más cine para animar a las familias).
  • Que B cause A (yo mismo estuve tentado de ahogarme después de ver La búsqueda 2).
  • Que haya un tercer fenómeno, C, que provocara tanto A como B (es complicado imaginar alguno, pero a lo mejor el Orden Mundial conspira para reducir la población humana tanto mediante el ahogamiento como mediante el aburrimiento).
  • Puro y duro azar. Hay muchos datos en el mundo, así que si los comparamos todos más tarde o más temprano encontraremos este tipo de correlaciones que no significan nada.

Este último punto es el más importante de todos, ya que no se puede demostrar que algo no ha ocurrido por azar. Así que por muchos datos que te pongan sobre la mesa tú no lo dudes. Ya tenemos una explicación sencilla y todo encaja. Las correlaciones no tienen implicación ya que todo puede ser debido a la casualidad en lugar de a la causalidad. Así que si alguien nos dice que el sistema educativo finés es el mejor porque puntúan muy alto en PISA, podemos callarlo con un firme y convencido «correlación no implica causalidad».

Ya tenemos un arma dialéctica precisa y afinada, e incluso podemos ir más allá. Si mañana nos levantamos y leemos la siguiente noticia en el periódico, no nos pasará nada.

3

Es evidente que ni las autoridades sanitarias ni el redactor del artículo tienen mucha idea de matemáticas. Nosotros, que estamos armados con un conocimiento todopoderoso, sabemos que no hay de qué preocuparse. La correlación no implica causalidad. Lo mismo son los yogures o lo mismo no lo son. Lo mejor será comprar esa marca aprovechando la bajada de precios. Está claro que tenemos un caso de una fuerte correlación. Todo el mundo que comió tal yogur murió. Mientras tanto, el resto de personas murieron a un ritmo normal. La correlación está fuera de duda.

Si algún alarmista viene a tocarnos las narices podemos usar el mismo argumento que antes. Tenemos correlación entre el comer yogur y el morir, así que tenemos cuatro posibilidades:

  •        Los yogures son los causantes de la muerte de las personas.
  •        La muerte de las personas es causante de que se comiera antes el yogur.
  •        Hay un fenómeno que es causa a la vez de las muertes y de que la gente coma yogures.
  •        Es una simple casualidad. La gente muere, la gente come yogures, ¿qué le vamos a hacer?

La segunda y tercera posibilidad son bastante improbables. Es difícil de creer que las muertes causen la ingesta de yogures o que exista un evento que provoque tanto el consumo de yogures como la muerte de los que los consumen. Sin embargo, demostrar que no es azar es difícil. La correlación es clara, pero nadie ha demostrado aún que los yogures estén envenenados.

A estas alturas el avispado lector (o la avispada lectora) ya habrá intuido que este artículo no es una defensa a ultranza de la frasecita de las narices. Seamos serios. Por mucho que estemos convencidos de que la correlación no implica causalidad, si mañana ocurre algo así no nos lo plantearíamos ni por un instante. Los yogures están envenenados. No hay otra posibilidad. Por supuesto que habrá que analizarlos para ver qué ha ocurrido, pero mientras tanto todos actuaremos guiados por la certeza de que algo ha pasado.

¿Y qué diferencia este caso del caso de los piratas o de las piscinas? Lo primero es el sentido común, que nos dice que es posible que unos yogures se envenenen, pero que es mucho más difícil que el noble oficio de la piratería afecte al clima. Lo segundo es la correlación en sí. Tenemos que tener en cuenta que no todas las correlaciones son iguales y que a partir de ellas podemos sacar muchas conclusiones. La correlación no es una magnitud dicotómica. No es algo que se tiene o no se tiene, es algo que puede ser muy grande o muy pequeño.

Volviendo al escabroso ejemplo de los yogures. Además de saber que hay una correlación, podemos estimar qué probabilidad hay de que ocurra algo así por casualidad. Imaginad que vemos en la noticia que un 0,1% de la población española consumió el citado yogur el día en cuestión. Eso hace unos 460.000 españoles muertos en un día. Este dato contrastaría con la mortalidad en todo el año 2014, que fue de 395.830 personas (según datos del INE). Ya, el que ocurra algo así es absolutamente improbable. De hecho, es lo que se suele denominar, estadísticamente imposible. Calcular la probabilidad de que esto ocurra requiere hacer suposiciones sobre cómo se distribuye la mortalidad entre la población, las edades de los consumidores de yogur y otros parámetros. Una estimación muy conservadora me da el resultado de que la probabilidad es menor que una entre 10^25 (2). Es más probable encontrar algo de principio activo en una disolución homeopática a que ocurra algo semejante por pura casualidad. Por eso podemos concluir que algo ha ocurrido, aunque aún no hayamos analizado los yogures.

¿Y qué ocurre entonces con las piscinas y las películas de Nicolas Cage? Pues ocurre simplemente que ahí la correlación no es tan grande. Ese es el quid de la cuestión y el mensaje que me gustaría que os quedase después de leer este artículo. Correlación no implica causalidad, es cierto, pero hay correlaciones más grandes que otras. Como ya hemos dicho, la correlación no es una magnitud binaria. No es tan simple como que exista o no exista. Hay correlaciones pequeñas como la de las películas de Cage, y hay correlaciones muy grandes como la del macabro ejemplo del yogur. En el ejemplo de las piscinas, la misma web que lo dio a conocer calcula la probabilidad de que sea azar, un 33,4%. Por supuesto ahí también hay suposiciones detrás, pero la manera de calcularlo es bastante estándar. ¿Es un 33,4% una probabilidad muy baja? Pues dependerá de para qué. Si tenemos en cuenta que los autores de la web analizan cientos de miles de cadenas de datos, lo improbable sería que no encontrasen ese tipo de correlaciones espurias. Simplemente analizando el número de cadenas estudiadas y las correlaciones encontradas se puede calcular la probabilidad de que sea puro azar o de que pueda tener una causa más relevante.

A esto precisamente se dedican algunos analistas especializados en big data. Analizan cantidades ingentes de datos y buscan correlaciones que nadie espera. Después, se dedican a analizar la probabilidad de que sea azar o no, y si no parece serlo lo analizan con más profundidad. Puede que dos eventos en apariencia desconectados tengan una relación causal demasiado difícil de apreciar a simple vista. Si encuentras este tipo de correlaciones, puedes llegar a ganar mucho dinero al ser capaz de predecir movimientos de los mercados que nadie más puede ver.

Nadie duda de que la correlación no implica causalidad. Científicos de todos los campos dedican cantidades ingentes de tiempo a repetir experimentos para distinguir correlaciones importantes de correlaciones espurias. Incluso se ha observado que muchos experimentos científicos con grandes correlaciones tienen una probabilidad alta de ser puramente casuales. Eso ocurre porque en el mundo se realizan muchos experimentos continuamente. La probabilidad de que nunca se dé una correlación espuria es realmente baja y son precisamente las correlaciones inesperadas las que más interesan a la comunidad científica. El único remedio para evitar esto es la repetición de los experimentos. Sin embargo, todo esto no quiere decir que las correlaciones no tenga relevancia, o que no sean indicativas de causalidad. Tenemos que saber distinguir entre correlaciones más y menos probables. Tenemos que analizar cada caso cuantitativamente y averiguar cuál es la probabilidad de que un evento sea aleatorio para saber si debemos indagar más o no.

Si nos molestamos en mirar los datos antes de aceptarlos o desecharlos, aumentaremos nuestro conocimiento del mundo. Si nos limitamos a desdeñar los datos que contradigan nuestras ideas preconcebidas con una frase hecha, a lo más que podemos aspirar es a ser el más listo de Menéame. Lo primero es deseable. Lo segundo no es algo que uno deba incluir en su currículum.

Notas:

(1) Antes de que se me acuse de atacar a Nicolas Cage innecesariamente y empecemos una discusión gafapasta sobre Leaving Las Vegas, me gustaría contraargumentar con solo dos palabras: Ghost Rider.

(2) Un uno y veinticinco ceros detrás, o si lo preferís 1000000000000000000000000.