Futuro Imperfecto #58: Nuestra zona catastrófica

Foto: Spinster Cardigan (CC)

Después del 9 de enero, pasado sábado, la búsqueda de la palabra catástrofe se desplomó un 80 %. Ese día, hacia las cinco de la tarde, la gran nevada remitió. Y entonces subió la luz. 

Por qué sube el precio de la electricidad

La ley de la oferta y la demanda no afecta a la electricidad en España porque su tarifa es resultado de muchos factores. Algunos tan opuestos y ajenos a la producción de energía que hay que contemplarlos todos para entender por qué somos el quinto país de la Unión Europea donde la electricidad es más cara desde hace diez años

El precio de la luz se fija cada día en una subasta diaria desde 2013. La producción energética de las renovables baja el precio y la generación mediante gas natural lo sube. Con la nevada no hubo viento ni sol, por lo que fallaron la eólica y la solar. Dependimos en exclusiva del gas para producirla, justo cuando Argelia acababa de reducir su exportación de esta materia prima a través del gasoducto que la conecta con nuestro país. Una escasez de oferta con pico de demanda por el frío, sumada a la cuota de penalización por emisión de CO2, fijada para las energías más contaminantes en la UE, consiguió generar el precio más alto de la última década. Porque el gas natural se quema para producir electricidad, y es bastante ineficiente: se pierde el 60 % de la energía en la conversión. Además en España la red gasística está montada de tal forma que también nos encarece mucho la factura

Hasta aquí la explicación técnica y lógica. Ahora veamos las opiniones de los bandos que se disputan la culpa. 

Endesa culpa de la subida a las energías renovables. Para desarrollar estas energías limpias el gobierno de Zapatero cargó a las eléctricas el coste de implantarlas, que todavía estamos pagando. Pedro Sánchez y sus ministros aprobaron en noviembre el sistema de subastas de renovables, destinado a implantar más aprisa estas opciones de generación energética, porque bajan el precio de la luz. Pero como el coste va con cargo a las eléctricas, seguirá haciendo más caro nuestro recibo hasta que haya mucha más generación renovable que por gas e influya positivamente en la subasta. 

Vamos al otro bando, el judicial. Iberdrola, Endesa, y Naturgy fueron multadas por la CNMC, Comisión Nacional de los Mercados y la Competencia, por haber manipulado los precios de generación energética. Cosa que hicieron en 2013, 2015 y 2019, y por primera vez en 2005, cuando lograron embolsarse 242 millones de euros en sobrecostes. A repartir entre la factura de los consumidores. El exministro José Manuel Soria ha declarado esta semana ante la fiscalía que Iberdrola manipuló el precio de la luz en diciembre de 2013. Recortando la producción hidroeléctrica en sus embalses consiguió que los usuarios pagáramos un 10 % más en el recibo

Por qué tenemos estos problemas de manipulación en un sistema de subastas empleado en más de una veintena de países: porque carecemos de un control gubernamental efectivo. Y podemos atribuir esa carencia a cómo han funcionado las puertas giratorias entre puestos políticos y eléctricas. 

En Endesa han sido contratados: Rodolfo Martín Villa, UCD, vicepresidente primero del gobierno en 1982, fue presidente de la compañía hasta 1997. También en nómina José María Aznar, Luis de Guindos, Manuel Pizarro y Pío Cabanillas, PP, todos antiguos cargos en el gobierno. En esta misma empresa está Elena Salgado, del PSOE. 

En Naturgy Felipe González y Narcís Serra, vicepresidente del gobierno, PSOE. Miguel Boyer, del mismo partido, ministro de Economía y Hacienda en 1985, fue a CLH (relevante porque transporta gas natural). Y a Ángel Acebes, ministro del Interior, PP, lo fichó Iberdrola. 

El ciudadano, ese innoble malpensado, acaba llegando a la conclusión de que los ex altos cargos gubernamentales entran en las eléctricas para asesorarlas… sobre cómo escapar al control gubernamental que ellos conocen tan bien por haberlo ejercido. 

Catástrofe climática o episodio puntual

El mismo fin de semana en que la nieve nos confinaba en España los griegos combatían una ola de calor en su país huyendo a las playas. Sus temperaturas habituales de 15ºC se habían elevado a 25-30ºC en pleno enero. Y no muy lejos de allí, en Turquía, su capital Estambul puede quedarse sin agua dentro de cuarenta y cinco días debido a la sequía más severa de la última década.

Son estos episodios extremos los que caracterizan al cambio climático, todos consecuencia del calentamiento global, hasta el frío y las nevadas. Los científicos lo explican claramente, para quien quiera escucharlos y sepa entenderlos.

Además de la nieve acabamos de detectar otros dos fenómenos atribuidos a este cambio. Uno, que los tiburones se extinguirán porque sus crías nacen ahora demasiado débiles para sobrevivir, debido a las aguas demasiado templadas del océano. Y dos, que dejarán de hacerse guitarras porque los árboles necesarios para producirlas no se reproducen. Faltan fresnos para las Fender y caoba para las Gibson. Lo que le faltaba al rock para estar definitivamente muerto. 

La catástrofe B.1.1.7

B.1.1.7 es la denominación de la nueva variante supercontagiosa de coronavirus aparecida en el Reino Unido. Hubo una razón para que se detectara primero en ese país, y es que tienen implantado un sistema de vigilancia genética considerado el mejor del mundo. Recogen y analizan muestras de pacientes, y luego distribuyen de forma centralizada la información sobre el análisis genético de las cepas del virus que provoca la covid-19. 

¿Y qué pasa con nosotros? Fernando Simón nos tranquilizaba esta semana avisando que la presencia del B.1.1.7 en España sería anecdótica. Enseguida la Junta de Andalucía se apresuraba a anunciar que el 70 % de las cepas allí ya se correspondían a la cepa británica. El horror, otra vez. Pero desde la Junta rectificaron al día siguiente, asegurando que se habían explicado mal.

A ver de quién nos fiamos ahora. ¿De los científicos? Nuestro país tampoco se ha quedado atrás en análisis genómico. Somos segundos en Europa tras Reino Unido, y cuartos del mundo en número de genomas del virus secuenciados. Este consorcio dirigido por Fernando González Candelas, catedrático genetista de la Universidad de Valencia, está tan preparado como el de Reino Unido para rastrear y detectar. Así que si B.1.1.7 estuviera aquí ya lo sabríamos, ¿no?

Pues no. A diferencia de Reino Unido, carecemos de personal dedicado a tiempo completo, como los ingleses, al rastreo genómico, por falta de presupuesto. El último informe sobre variantes del virus en España es del 30 de octubre, y si tenemos mucho o poco B.1.1.7 es algo que sabremos… dentro de unos cuantos meses.

El credo financiero se tambalea

Too Big to Fail, demasiado grande para caer, frase que oímos a menudo antes de 2008, y después, durante la crisis financiera que se desató aquel año. Y título de una miniserie de HBO donde explica cómo una mujer se rebeló contra esta doctrina, y contra el secretario del Tesoro de Estados Unidos. Asegurando que esa frase es un intento de las empresas privadas para que el Estado les reconozca un derecho implícito a ser rescatadas. Tal vez nos suene de Bankia. 

Esa mujer de la serie, que ayuda bastante bien a comprender lo que pasó entonces, existe, se llama Sheila Bair, y en un editorial del Wall Street Journal ha dicho esta semana que «el capitalismo no funciona a menos que el capital tenga un coste, y los mercados no funcionan si no se permite a las compañías crecer y quebrar». 

También avisó en marzo de 2020 de que los bancos debían suspender el reparto de bonus, dividendos y recompra de acciones para respaldar con ese dinero el endeudamiento de empresas afectadas por la pandemia, y para dar crédito a trabajadores que hubieran perdido su trabajo. La FED estadounidense adoptó su propuesta, pronto seguida por el Banco Central de Inglaterra y después por el Banco Central Europeo. 

Es nuestra doctrina de hoy, que también incluye la liquidez infinita inyectada por los bancos centrales. Mohamed El-Erian, que fue asesor económico de Obama y que acuñó el término «nueva normalidad», inaugurado en 2020, nos advierte contra esto. Con esa expresión que luego se aplicó al modo de vivir posconfinamiento, él en realidad se refería a que la cotización de las acciones ha pasado a basarse no en el valor de las compañías sino en los estímulos de los bancos centrales. Una decisión peligrosa que, como explica en esta entrevista, puede llevarnos a un colapso como el de 2008 o mayor.  

Y la generación Z ya no lee la prensa ni las revistas

Los motivos, como explica este informe de la CNN, son muy jugosos. Las noticias del día a día de la prensa no les interesan porque hablan poco de medio ambiente, activismo, LGTBQ+ y de jóvenes como ellos. Además encuentran la información demasiado opinada, interpretada y sesgada ideológicamente, planteada en tono muy serio. Les gustaría algo más informal y que contase los hechos más que interpretarlos. Anda, pero si piden periodismo.

Ibai Llanos, streamer que pertenece a este segmento y que atrajo más audiencia en las campanadas de Nochevieja que las televisiones, lo tiene muy claro. Se trata de comunicar de otra manera, de pagar impuestos en España, y de gestionar un nuevo modelo de negocio. Uno que ya es tan importante en nuestro país como para que la CNMC lo regule. Los streamers tendrán nuevas normas de mercado para subir vídeos y seguro que estarán más estrictamente regulados que el sector eléctrico. Ejem.

Menos mal que nos queda el vino espacial

La NASA siempre ha sabido comunicar sus misiones para enganchar con el interés del público, y ahora ha vuelto a suceder con su experimento de las doce botellas de vino. Fueron llevadas al espacio para saber cómo envejecen sin la presencia de levaduras y bacterias terrestres. Ahora van a volver a la Tierra y serán degustadas en un evento privado en febrero. Habrá que preguntar a los enólogos si esos caldos de Burdeos han cogido retrogusto a Big Bang y tienen aromas de nebulosa.


¿Quieres recibir un email mensual sobre el #FuturoImperfecto?



Acceso a los contenidos vía Telegram


Futuro Imperfecto #57: Los revolucionarios cambian de origen

Foto: Cordon Press.

Un tobogán para bajar de piso, mesas de billar y pinball, personal que viene acompañado por sus niños y mascotas, comedor y gimnasio gratis, sala de descanso, salas donde jugar al Guitar Hero. Todo muy libre, sin horarios ni apenas jerarquía: eran las oficinas de Google descritas en 2008, ocupadas por los cerebros mejor preparados y pagados del mundo. Doce años después, este pasado lunes, se ha anunciado la creación de un sindicato, el Alphabet Workers Union en el paraíso laboral tecnológico. Con un mensaje central que descabala definitivamente la idealización de nuestro propio tiempo: «cada trabajador necesita un sindicato, incluso los trabajadores tecnológicos».

Sindicalistas de alta tecnología

Resulta muy relevante que una de las últimas voces rebeldes en Google (y despedida por ello) fuera precisamente Timnit Gebru, codirectora del equipo de ética en inteligencia artificial. El origen de su despido fue un paper donde explicaba que el reconocimiento facial funcionaba pero con personas de color y mujeres, revelando un sesgo en la programación del algoritmo. No era ético. Google se negó a publicarlo, y ella envió un correo a sus compañeros advirtiéndoles de que era inútil que siguieran investigando y publicando, porque eso en Google no iba a suponer ninguna diferencia. Después de eso fue invitada a marcharse de la compañía. Consiguiendo la protesta de mil doscientos trabajadores de la compañía y el apoyo de mil quinientos académicos externos. 

Google se jugaba mucho aceptando este paper. Aunque se haya justificado explicando que no respetaba las normas de su sistema de publicación, el hallazgo también afecta a una de sus inversiones millonarias, BERT, una IA de reconocimiento lingüístico incorporada a su buscador. Y sobre esto no ha hecho manifestaciones. No es el primer escándalo laboral, se suma al de acoso sexual en 2018, al despido de Meredith Whittaker y Kathryn Spiers por convocar protestas en la sede de Google sobre la discriminación sistemática de la empresa a trabajadores femeninas, y a aquellos que forman parte de minorías raciales. También a los llamados «Thanksgiving Four», grupo de trabajadores de Google despedidos en 2019. A los que este diciembre la NLRB, agencia federal dedicada a defender los derechos de los trabajadores privados, reconoció que lo habían sido por sus intentos de crear un sindicato.

Así que es difícil decir cuál será el futuro de los doscientos veinticinco ingenieros que han formado el nuevo sindicato. A pesar del nombre, ellos reconocen que su objetivo no es pelear derechos laborales, sino mantener el activismo en la compañía sin que haya represalias por ello. No son demasiado representativos, al menos de momento, en una empresa con doscientos sesenta mil trabajadores. Lo más revolucionario es que contradicen lo que siempre se ha afirmado en su sector: que el alto nivel formativo de sus empleados y sus elevados sueldos no les motivaría a sindicarse. La maldad del algoritmo sí. 

Policías que no sabrán si son los buenos

El caso Gebru puede afectarnos más de lo que pensamos, aquí mismo. Este 2021 España instalará un sistema de reconocimiento facial en la frontera de Gibraltar. Recientemente IBM ha cesado en el desarrollo de esta tecnología, mientras que Amazon y Microsoft lo han vendido a la policía. Detrás del movimiento de estas compañías está la polémica de que los sistemas tienen un claro sesgo que discrimina a personas de tez oscura, transgénero, y de género binario. Así que nuestros policías de fronteras emplearán un sistema tecnológico, pero no sabemos si habrá un control oficial del algoritmo que nos asegure a todos los ciudadanos ser tratados como iguales ante la ley. 

La nueva república bananera americana

Es momento de devolver a Estados Unidos el término despectivo inventado por el escritor O. Henry para designar a Honduras y Guatemala (1904) y que Woody Allen recuperó en su segunda película para reírse de la revolución cubana. Y es que el lunes el país americano «went to bananas» (acá «se le fue la pinza). 

Pero si nos quedamos con el asalto al Capitolio y sus locas imágenes de personas vestidas de vikingos, de guerreros sioux, estatuas de la libertad y otros majaderos, perderemos de vista lo que ha ocurrido en aquel país durante los últimos quince días. 

El Partido Republicano y su líder tenían la oportunidad de hacer inefectivo el mandato de Joe Biden, y les bastaba seguir dominando el Senado. Allí se vetaría cualquier intento de iniciativa legislativa del nuevo presidente. Bastaba con que conservaran dos senadores en el estado de Georgia, un referente en los estados del sur, escenario de Lo que el viento se llevó, y desde 1992 bastión republicano. Pero se interpuso en su camino una mujer negra, demócrata y con diez años de trabajo político sostenido a sus espaldas. Stacey Abrams ha logrado reconstruir el Partido Demócrata en Georgia utilizando la organización Fair Faight, convenciendo a tres «minorías», mujeres, negros y latinos, de la importancia de votar. Y ayudándoles también a superar los obstáculos burocráticos para hacerlo. El resultado son dos senadores demócratas en Georgia que sustituyen a los republicanos, dejando el Senado en un empate 50-50 entre ambos partidos que la vicepresidenta Kamala Harris puede resolver con su voto como presidenta del Senado.

A esta victoria contribuyeron, y mucho, los políticos republicanos. Que se negaron, por considerarlo una medida comunista, a que los estadounidenses recibieran un cheque de estímulo de dos mil dólares, rebajando su cuantía a seiscientos. Donald Trump intentó convencerlos, sin éxito, de que lo aumentaran, informado quizá de que el 65 % de los ciudadanos apoyaba la medida.  Así que cuando acudió a su mitin en Georgia para movilizar a sus votantes el único argumento que le quedaba era el que esgrime desde que perdió: nos han robado las elecciones y vamos a hacer una marcha sobre Washington para quejarnos.

Lo ocurrido a continuación es cien por cien bananas. Las fuerzas de seguridad desplegadas eran muy pocas, y dejaron entrar sin casi resistencia a los manifestantes. Seis meses atrás, tras el asesinato de George Floyd, ejército y policía guardaba las mismas escaleras asaltadas esta semana en un despliegue tan impresionante como amenazador

La imprevisión logró que el Capitolio quedara cerrado durante cinco horas, mientras las hordas arrasaban los despachos y menudeaban los disparos, que dejaron cuatro muertos hasta el momento y numerosos heridos. La proclamación de Joe Biden como presidente con los votos del colegio electoral tuvo que esperar a las tres de la mañana del jueves. Hasta Trump acabó llamando a la calma a los suyos diciéndoles, eso sí, que les amaba por lo que estaban haciendo.

El juicio de la prensa estadounidense no alineada con Trump ha sido muy duro, asegurando que la mayoría del partido republicano apoyó la traición a la democracia y de hecho Rudolph Giuliani trabajó hasta el último minuto para retrasar la proclamación.

En cuanto al pensamiento del ciudadano medio, podemos tomar de referencia a la NBA, como líder de opinión sobre una gran parte del país y sobre la minoría negra, cuyos equipos técnicos y jugadores condenaban la acción. En cuanto a los votantes blancos de Trump, los rednecks, siguen viendo en «su presidente», como le llaman, la solución a sus problemas. Quieren la America Great Again, que más allá de la consiga significa recuperar el nivel de vida de la clase media norteamericana, perdido desde la globalización. The Atlantic hizo una fantástica analogía de lo que se ha perdido analizando a Los Simpsons que Hipertextual trasladó a una edición en español. La serie de Matt Groening siempre predice los acontecimientos, y su episodio con Homer saqueando el Capitolio se ha hecho viral esta semana.

No más hackers en el periodismo

Este lunes la justicia británica se negaba a extraditar a Suecia a Julian Assange por motivos de salud, en una sentencia que se considera una victoria parcial para él. Y que nos afecta en parte, pues en una causa separada se investiga el espionaje de una empresa española, vinculada a la CIA, que lo hizo mientras estaba recluido en la embajada ecuatoriana. 

Assange fue en su momento una estrella del periodismo de investigación fuera de los medios oficiales. Un hacker heróico que fundó Wikileaks para que las fuentes del periodismo pudieran hacer filtraciones de forma anónima y segura. Su fama decayó al ser acusado de violación y acoso sexual, y por refugiarse en la embajada de Ecuador en Londres durante siete años para no ser extraditado a Suecia, y juzgado allí por estos delitos. Según su versión, para no acabar extraditado a Estados Unidos, desde Suecia, donde se le juzgaría por alta traición, debido a haber ayudado a la soldado Chelsea Maning a hackear el Pentágono. Con una posible condena a pena de muerte.

A estas alturas es difícil saber si Assange es una víctima del intento por sofocar la libertad de expresión, aunque la denuncia del relator de la ONU sobre cómo sus derechos como preso son violados sistemáticamente nos dan una pista. Está sometido al mismo régimen que presos terroristas, cuando en teoría la acusación que pende sobre él es de violación. 

Lo que sí sabemos es que el mundo es mucho más complejo tecnológicamente que en 2010, momento de las grandes filtraciones de WikiLeaks. La última gran filtración informativa, la de los Panama Papers, no se debió a un hacker. La protagonizó una fuente anónima desde el despacho de abogados Mossack Fonseca en Panamá, decidiendo entregar pruebas y documentos al periódico Süddeutsche Zeitung. Que decidió compartirlo con el consorcio internacional de periodistas de investigación. Y gracias al cual, tras muchas horas de periodismo de datos, publicaron revelaciones a la vez extraídas de esta filtración en medios de todo el mundo. 

El criptodinero ya vale más que el dinero

En esta actualización del bitcoin en escala logarítmica podemos comprobar que en 2020 su cotización ha subido a lo bestia. El precio lo han empujado al alza inversores institucionales, no personas individuales, lo que parece indicar que esta moneda digital se consolida. Aunque muchos sigan diciendo que está sobrevalorada, o que forma parte de una estafa, un esquema Ponzi. Hay que recordar esa frase que es obligatorio poner en informaciones sobre productos financieros, en el menor tamaño posible: «rentabilidades pasadas no garantizan rentabilidades futuras». Pero también que los grandes estados, la UE, EE. UU. y China consolidan posiciones desde sus bancos centrales para crear sus propias monedas digitales. Las criptomonedas se generalizarán muy pronto, como nos explica la empresa valenciana Criptan, que ya permite operar con tres de ellas para nuestros gastos habituales. Sin que dejen de existir las estafas, como esta red española que ha estafado siete millones de euros en criptomonedas, y cuyos miembros fueron detenidos esta semana

Coches autónomos ya no, comer insectos ahora sí

Waymo, principal compañía en coches que se conducen solos, ha decidido abandonar el término «vehículo autónomo». Detrás de la concreción lingüística y las florituras de marketing está la realidad de que no es tecnológicamente posible, legalmente viable ni completamente seguro para el humano. 

Y a la vez que esta posibilidad del coche del futuro desaparece del horizonte, va a crearse en Illinois, EE. UU., la mayor granja de moscas soldado negras. Sus larvas son una gran fuente de proteínas que servirá a los piensos para ganado. Y ya sabemos lo que comen las moscas, así que alimentarlas no será ningún problema. No comeremos hamburguesas de grillo, pero nuestras hamburguesas de vacas tampoco habrán comido trigo y eso, al parecer, es ecológicamente estupendo y económicamente viable.


¿Quieres recibir un email mensual sobre el #FuturoImperfecto?



Acceso a los contenidos vía Telegram


The Google Job Experiment

Vivimos en un momento de cambio tecnológico, pero el futuro está condicionado también por cambios sociales, demográficos, económicos y políticos que hay que conocer. Para entenderlo mejor nada como un ejemplo que ilustra muy bien cómo se ha producido esta transformación. Partiendo de cómo internet nos permite ser más eficientes, podemos ver con claridad gracias a un sencillo caso de estudio el porqué de la mayoría de los cambios que se han producido, y algunos que están por llegar .

En 2010 el creativo Alec Brownstein buscaba trabajo. Como parte del proceso decidió innovar, creando lo que denominó The Google Job Experiment1. Creó un anuncio en Google comprando para ello en las pujas los nombres y apellidos completos de cinco de los principales directores creativos de agencias en Nueva York. De este modo consiguió que, cuando David Droga, Tony Granger, Gerry Graf, Ian Reichenthal y Scott Vitrone se buscaran a sí mismos en Google, el primer resultado de la búsqueda fuera un mensaje personalizado en el que Brownstein les pedía un empleo. Cuatro de los cinco directivos para los que generó anuncios le contactaron proponiendo una entrevista de trabajo con ellos. Dos de los que le entrevistaron le ofrecieron un puesto y finalmente decidió trabajar para la compañía de marketing y comunicación Young & Rubicam. El método tradicional de conseguir trabajo suele ser enviar un currículo impreso al departamento de recursos humanos de una empresa, pero lo que había hecho Alec se alejaba bastante de ese enfoque. ¿Por qué tenía tanto sentido la estrategia de este, hasta entonces anónimo, héroe digital?

En primer lugar, pensemos en el proceso de toma de decisiones. ¿Qué busca un director creativo de una agencia? Básicamente, busca gente que sea capaz de llamar la atención (no de cualquier modo), de un tipo de personas determinado (el público objetivo o «target») con un mensaje enfocado (a sus necesidades, personalidad, valores…) para conseguir que hagan algo (a menudo recordar una marca, pero otras veces pinchar en un enlace, dar datos o comprar… no olvidemos que el objetivo final es vender). En un currículo tradicional detallamos lo que hemos hecho en nuestro pasado; Alec lo que hizo fue demostrar en vivo y en directo a estos directores creativos en particular (su mercado o público objetivo) cómo era capaz de llamar su atención (cuatro de ellos le entrevistaron, por lo que necesariamente vieron el anuncio, y quizá incluso el quinto lo hizo también) por ese creciente canal que era internet, con un mensaje enfocado (llevaba el nombre de cada uno, gracias a la magia de los Adwords) para que hicieran algo (pinchar en el enlace a web con su currículo y usar sus datos de contacto para llamarle y entrevistarle). En el competido mercado actual, lo que hizo Brownstein era perfecto para demostrar en vivo y en directo sus capacidades. Un enfoque mucho mejor que enviar un documento con una historia sobre su pasado o sus intereses futuros. Quizá hacer publicidad en televisión se le daba fatal, pero haciendo campañas en Google Adwords era original y eficaz. Además de eficiente.

En su estrategia online, Alec se gastó apenas seis dólares. Si hiciésemos lo mismo por la vía analógica, o tradicional, deberíamos localizar primero los lugares donde podemos encontrar a estas cinco personas. Quizá dónde viven, para dejar folletos en su casa con nuestro currículum o contratar una valla publicitaria enfrente. O si usamos las direcciones de sus empresas tendremos que asumir el riesgo de que nuestro envío no llegue a sus manos. Después debemos hacer copias en papel de la versión apropiada de nuestro currículum, imprimirlas, enviarlas por correo, confiar en que llegará a sus manos y finalmente esperar que las abra en un momento tal que se muestre receptivo e interesado como para llamarnos a una entrevista. ¿Todo este proceso puede costar apenas seis dólares? En algunos casos complicado por el coste de producción del contenido con el mensaje, y en otros por el coste de utilizar el canal de comunicación. También es complicado garantizarnos llamar su atención. Por ejemplo, podríamos poner un anuncio en un periódico que lean todos los días o una valla publicitaria frente a sus casas. En cualquier caso, esa opción no garantizaría que vean nuestro mensaje y el coste se dispararía. Pero sobre todo no garantiza que cuando reciban nuestro mensaje tengan interés en él. Es decir, pueden tener interés en el tema del que les hablamos, pero quizá no en ese momento preciso. Y aquí viene el tiro de gracia, el elemento clave de todo este proceso, también relacionado con la eficiencia.

Podemos conseguir llamar la atención, puede que nuestro currículo llegue a sus manos, pero quizá el momento no sea el más adecuado. La grandeza del proyecto de Alec Brownstein está muy ligada a lo que ha sido capaz de crear una de las grandes empresas de nuestro tiempo: mandar el mensaje adecuado en el momento adecuado. Pensemos en lo que hace Google con la publicidad contextual, comparado con los anuncios por palabras tradicionales. Un anuncio por palabras llegaba a todo aquel que comprara el periódico y lo leyera, o a cualquiera que lo leyera sin haberlo comprado (si se lo encontraba en un banco del parque, por ejemplo), que pasara por esa página específica, que se parara a leerlo y que además le interesara en ese momento. Sin embargo, el anunciante pagaba principalmente por el espacio o el número de palabras, el mensaje era el mismo para todos los que lo leían (no lo podía personalizar como en el caso del ejemplo de Brownstein) y se pagaba por el potencial de ser leído, sin saber con seguridad quién le leía ni cuándo le leía. En este entorno la aparición de Google, que permite enviar mensajes enfocados (publicidad contextual) a cualquier persona conectada que use el buscador (asociada por tanto a la palabra que uno estaba buscando) y con un coste tal que solo se paga si quien ve la publicidad pincha en ella (tenía interés). Esto ha supuesto una disrupción radical del modelo clásico.

Hay varios motivos para ello. El primero, Google decidió obviar el tradicional modelo publicitario de coste fijo para pasar a uno de costes variables. Solo pagábamos si se producía un éxito. Esto implicó que una gran cantidad de personas que antes no invertían en publicidad comenzara a hacerlo. Como explicaba Eric Schmidt su negocio «es altamente medible. Sabemos que si gastas X dólares en anuncios, obtendrás Y dólares en ingresos». En Google solo se paga si funciona. Google es lo que es porque creó un mercado nuevo desde cero. No solo crecía su mercado cuando nuevos anunciantes invertían en internet, o los anunciantes que ya invertían lo hacían en mayor medida. También crecía su mercado con los nuevos usuarios que se convertían en anunciantes porque con Google les era rentable. La queja de Jeff Zucker en 2008 avisando del peligro de terminar «intercambiando dólares analógicos por centavos digitales» se hacía realidad. Pero al cambio, eran rentables. Hemos pasado de los Mad Men a los Math Men. De John Wanamaker y su sentencia de que «La mitad del dinero que gasto en publicidad se desperdicia; el problema es que no sé qué mitad», a Alec Brownstein.

Otro motivo era el inteligente uso de la relación entre contenido y servicios. Al «ordenar» la información del mundo, Google facilitaba que más y más gente utilizara internet. Esta gente lo primero que hace en Google es contarle sus más oscuros y personales deseos: para que nos pueda ayudar a buscar le tenemos que decir lo que queremos. Con esta información la empresa, como tantas otras a día de hoy, puede perfilar nuestros gustos, pero sobre todo el momento en que un interés está activo. Yo puedo querer aprender alemán, pero no es una necesidad que esté «activa» todo el día. Enviarme el mensaje de que existen cursos de alemán en el momento adecuado incrementa la eficiencia del mismo, la probabilidad de éxito. Si analizamos la evolución de los servicios de Google todo tiene más sentido. Buscar es una actividad esporádica. ¿Cómo conseguir más datos y más tiempo de atención? Correo electrónico. Mientras usábamos Hotmail o Yahoo con un megabyte de capacidad, diez pagando, Gmail aparece en formato beta (no te quejes si va mal), con cien megas gratuitos (poco después un gygabyte) y por invitación. ¿Cuántas horas al día dedicamos al email o lo tenemos abierto? ¿Cuánta información personal sobre gustos y deseos aparece en esos datos? Es un servicio gratuito, parece un trato justo a pesar de las contrapartidas. Sobre todo porque «Don’t be evil», o al menos hasta el 2018 que desapareció del código de conducta.

Las siguientes etapas de la estrategia tenían todo el sentido del mundo. Si la televisión sigue siendo el rey de nuestra atención, Google Videos era un proyecto importante. No pudo mejorar a YouTube, así que nada mejor que comprarlo y convertirlo en otra fuente de datos, interés, atención y negocio. Hoy es el segundo buscador del mundo. Sí, es un buscador, sobre todo. Y como al ver un vídeo no desplazamos hacia abajo la web, la publicidad es más eficaz. ¿Que hay que hacer contenidos seguros para las marcas y por eso la publicidad vale menos en YouTube? Los youtubers hacen vídeos más largos, de más de diez minutos, para incluir más anuncios en medio. ¿Que la gente sale de Google a otras webs tras buscar? Con un navegador propio tenemos las cookies dentro de nuestro dominio. Y las contraseñas, marcadores, etc. ¿Que los móviles son el siguiente campo de batalla y todo el mundo tiene uno? Vamos con Android. Y todo, lo que funciona y lo que no (Google Wave, Google Plus) integrado en la medida de lo posible. Google My Business sigue siendo una buena manera de posicionar en el buscador. Hace años discutía con alumnos sobre invertir en coches autónomos. Si hay regiones de Estados Unidos donde la gente utiliza dos horas al día de media para el commute (con una media nacional de veintisiete minutos por viaje), ya conduzco yo por ti mientras tú haces otra cosa, como buscar, leer el correo, ver vídeos o atender al móvil. Y con todos esos datos puedo ofrecerte mejores servicios y vender mejor publicidad. Con el paso de los años, la eficiencia en tiempo y contenidos multimedia que han supuesto la web y las redes sociales nos ha permitido hacer millones de amigos por todo el mundo. Eso parecía bueno, pero estamos viendo últimamente su otro lado.

¿Cómo la eficiencia ha provocado todo esto? Para entender el porqué y el cómo de su impacto es importante recordar cómo funcionan los mercados. Una manera sencillo de entender los mercados es fijarnos inicialmente solo en los extremos. Los mercados son mecanismos que facilitan el intercambio entre los agentes, que son quienes toman decisiones. Si entendemos cómo funcionan los mercados más extremos, los puntos extremos de los mismos, si sabemos cómo funcionan y qué implicaciones tienen o qué características los definen, entender después el sistema completo es más sencillo. Entender los extremos es más fácil al ser normalmente puntos particulares, lo cual nos permite estudiar el resto de eventos simplemente eliminando esas particularidades que los hacen extremos.

¿Cuáles son los dos tipos de mercados extremos? La teoría económica tradicional dice que en los mercados los agentes buscan maximizar el beneficio. Desde la perspectiva de una empresa esto supone no tener ningún beneficio en un extremo u obtener el máximo beneficio que se puede obtener en un mercado en el otro. Por lo tanto en un extremo tenemos el monopolio. Una única empresa que opera sola en un mercado con un único producto del que no existen sustitutivos, y que lo hace disponible a un precio y en una cantidad que le permita maximizar el beneficio. El otro extremo es la competencia perfecta, situación utópica que no se puede dar en un mercado real como ahora veremos. Es una situación definida de manera teórica para poder entender el otro extremo de un mercado. Para que un mercado esté en competencia perfecta debe cumplir con unas características particulares.

Primero, no deben existir barreras de entrada al mercado, ni de salida. Cualquier empresa que quiera operar en este mercado puede hacerlo, y cualquiera que desee abandonarlo puede hacerlo también, sin coste alguno. En este primer punto ya concluimos que es un mercado irreal, utópico y teórico. Si montamos una tienda de ropa hay una barrera de entrada, que es el coste del local, la inversión inicial. Además, el hecho de que yo tenga un local para mi tienda impide a otros poner un local en ese mismo sitio, lo que supone una barrera que a su vez a mí me da una ventaja competitiva por localización. Segundo y también muy importante, todos los productos son indiferenciados. Es decir, todos los productos son exactamente iguales. De este modo no hay criterio que permita a los consumidores diferenciar entre un producto u otro, porque son todos iguales. El impacto directo de esta característica es que los clientes solo tendrán como criterio para tomar su decisión el precio. Los gustos, deseos, preferencias, dejan de aplicar. En tercer lugar, el mercado debe contar con gran cantidad de empresas de pequeño tamaño. Esta condición en realidad busca definir una situación en que las empresas no pueden tener poder de negociación, capacidad para influir en el precio de los productos por tamaño o cuota de mercado. Se suele decir que las empresas son «precio-aceptantes». Estamos por tanto en el otro extremo, ya que en un monopolio la empresa puede decidir el precio que considera más apropiado para sus productos. Además esto implica que el precio lo determina la demanda, es decir, los clientes, y no la oferta, es decir las empresas. Y la más importante de todas, la transparencia informativa: todo el mundo tiene toda la información disponible en todo momento. Otro factor muy teórico e irrealizable, y al que volveremos después.

Ahora que entendemos más o menos los aspectos principales de los dos extremos de un mercado, vamos a ver sus implicaciones de negocio en general y en nuestro día a día. Empezamos por los objetivos. Los clásicos decían que el objetivo de todas las empresas es maximizar su beneficio. ¿Cómo se hace esto desde el punto de vista operativo en los extremos del mercado? En el monopolio es fácil. La empresa monopolista puede obtener el máximo beneficio que se puede obtener de un mercado. De hecho, se puede demostrar que producirá una cantidad tal que los ingresos menos los costes se maximicen. Primero tenemos que ver lo que cuesta producir el producto. Con la estructura de costes podemos analizar cuál es la cantidad que minimiza el coste medio, es decir, el coste por unidad (costes totales entre número de unidades). A este precio, el del coste más bajo, el mercado estaría dispuesto a comprar una determinada cantidad. Y esto sería lo más eficiente para todos. Sin embargo el monopolista no producirá esta cantidad. Lo que hará es producir menos de lo que el mercado consumiría a un precio igual al coste, y lo hará de manera que la nueva cantidad sea tal que el beneficio se maximice. Al poner menos cantidad en el mercado, el precio será más alto. Un precio generado artificialmente. Es decir, el monopolista vende una cantidad tal que el ingreso marginal (es decir, el ingreso que genera una nueva unidad vendida) es igual al coste marginal (es decir, el coste de fabricar una nueva unidad). Si pusiera en el mercado una cantidad menor el ingreso marginal en ese punto sería mayor que el coste marginal, por lo que todavía podría obtener más valor del mercado. Si pusiera en el mercado una cantidad mayor el ingreso marginal en ese punto sería menor que el coste marginal, por lo que obtendríamos menor valor al tener para esa cantidad un resultado negativo. Pero eso no es necesariamente lo más eficiente para el mercado. Si el mercado está dispuesto a consumir seis unidades producidas a ese coste y pagarlas a un determinado precio, nos da igual. El monopolista producirá cuatro unidades, porque en ese punto el ingreso marginal es igual al coste marginal, provocando que el precio suba. Es decir, producirá menos para maximizar el beneficio, algo que puede hacer porque no hay competencia.

Entendido más o menos cómo funciona el monopolio vamos con la competencia perfecta. Aquí es bastante más sencillo. El beneficio máximo que se puede obtener en un mercado en competencia perfecta es cero. Supongamos que una empresa quiere obtener beneficios en este entorno. El problema es que siempre habrá otra que podrá poner un precio menor e igual al coste de fabricar el producto, por lo que la primera que quería obtener beneficio no venderá nada, no podrá pagar sus costes y a largo plazo cerrará. Además, si los productos no son diferenciados, ¿cómo justificamos diferentes precios? Y al haber transparencia informativa, al existir información perfecta para todos, resulta que todo el mundo sabe lo que cuesta fabricar un producto, con lo que la demanda estará dispuesta a pagar el coste medio mínimo del producto. Si paga menos del coste de fabricación, las empresas perderían dinero y desaparecerían con el tiempo. Pagar más del coste no parece tener sentido ya que las empresas aceptaran nuestro precio, son «precio-aceptantes» como consecuencia de la ausencia de barreras y del número de posibles entrantes a este mercado. Si una empresa quisiera vender por debajo de coste tendría una demanda infinita, y en consecuencia perdería dinero de manera infinita, por lo que terminaría fuera del mercado (no hay barreras de salida). Finalmente, si alguien descubre una nueva manera de producir más barato podría mantener el mismo precio que los demás competidores del mercado pero ganando así un cierto margen de beneficio. Pero en competencia perfecta hay información perfecta, así que todo el mundo sabría de inmediato producir con ese nuevo proceso más barato; es más, los compradores también conocerían este hecho, por lo que ajustarían a la baja el precio que están dispuestos a pagar. Así que definitivamente en competencia perfecta, el cliente pagará un precio igual al coste marginal e igual al coste medio mínimo, en la situación de máxima eficiencia del mercado.

¿Parece un mundo ilógico e imposible? Sí, lo es. ¿Que no tiene sentido porque las empresas y las personas arriesgan, compiten y buscan con ello mayor rentabilidad? Por eso mismo la competencia perfecta es una construcción teórica que usamos para entender los mercados. En concreto para definir y explicar un extremo del mercado donde el beneficio máximo que se puede obtener es cero.

Llegados a este punto, una idea nos ronda la cabeza: si el objetivo de todas las empresas es maximizar el beneficio, podemos concluir que el objetivo de todas las empresas en este modelo es convertirse en monopolios. Pero hemos dicho antes que el monopolio genera una pérdida en los mercados, pérdida irrecuperable además. En general y aunque no lleguen a ser monopolios, los agentes en el mercado buscan maximizar beneficios, para lo cual su objetivo es acercarse a dicho extremo del lo más posible. Es decir, moverse por el eje desde el punto de beneficios cero hacia el máximo positivo de beneficios, que se podía alcanzar en la situación de monopolio. ¿Y cómo se hace para movernos por el eje hacia zonas de mayor beneficio? Eliminando o reduciendo aquellos factores que caracterizan a la competencia perfecta.

Esto implica generar barreras de entrada, algo que hacemos comprando un local (nadie más lo podrá tener), con ventajas competitivas o gracias a la legislación; diferenciar productos, con publicidad, marketing, desarrollo de producto; obtener ventajas por tamaño y/o condiciones de mercado que nos hagan tener poder sobre el precio, es decir con concentración de empresas, asociaciones, crecer por encima de mercado para ser lo bastante grande, fusiones, ventajas legislativas y lobbies; o limitar la transparencia informativa mediante patentes, secretos industriales, ¡y cuanta menos información exista sobre precios, costes y procesos, mejor para poder incluir en el precio y el mercado!

Cuantos más de estos elementos seamos capaces de conseguir a la vez, mayor será la probabilidad de alejarnos de una situación de competencia perfecta y en mayor medida incrementaremos el beneficio que podemos obtener en este mercado. Al eliminar cada uno de los elementos que definen la competencia perfecta, estamos moviéndonos hacia mayores beneficios. Y por hacer esto nos pagan en las empresas un buen dinero.

En un mercado en competencia perfecta el beneficio es cero, porque los clientes solo querrán pagar el coste marginal. Por lo tanto uno de los efectos de internet y de su eficiencia es la caída en los márgenes de las industrias. Estamos en medio de una reconfiguración similar a la que ocurrió con la aparición de otros medios como la televisión en su momento. Estos cambios tienen límites y con el tiempo se estabilizarán. La tasa de penetración de internet entre la población sigue creciendo, pero ya no con los incrementos salvajes que se anunciaban no hace mucho con regularidad. El tiempo que podemos dedicar de atención al día tiene un máximo complicado de superar. Como explica Reed Hastings, los principales competidores de Netflix son Fornite y la necesidad de dormir.

Llegados a este punto, ¿por qué hay quien considera que no todo es bueno en internet? Podemos comprar más barato, hay más información, todo es más eficiente… pero precisamente las reducciones de costes que provoca, la desintermediación, el «todo gratis» y demás situaciones que amenazan a las empresas tradicionales son el resultado de que internet se haya convertido en la fuente más increíble de transparencia informativa de la historia. Tanto como fueron en su momento la ya perdida Biblioteca de Alejandría o la imprenta. La cuestión es que actualmente internet está empujando a los mercados y empresas hacia situaciones de menores beneficios, acercándolos a la competencia perfecta. En parte por aportar información cuasi perfecta, pero también, como vimos en el ejemplo de partida, por su capacidad para ser utilizado con mayor eficiencia. Muchas empresas y personas se resisten a ello, a menudo con leyes y presión mediática. Pero hay aspectos que no se pueden controlar. El resultado más inmediato está siendo la polarización de los mercados. Agentes con costes bajos y márgenes exiguos, freelancers y autónomos, o pequeñas empresas, a menudo innovadoras por un lado. Por otro, empresas cada vez más grandes, fusiones y adquisiciones, buscando economías de escalas y mayor márgenes, acercándose a monolopolios, u oligopolios de facto. ¿Por qué las primeras industrias afectadas fueron las de contenidos? Música, periódicos, contenidos… todo industrias cuyo producto eran los datos, la información, precisamente algo que ha crecido de manera exponencial gracias a (o por culpa de) internet. Unas empresas sufren, otras crecen.

Entre ellas las del mundo digital, que ya está dando cabida a algunas de las empresas más grandes de la historia. Decía Bruce Sterling, creador del término cyberpunk, que a día de hoy tenemos cinco grandes reyes feudales: Google, Amazon, Facebook, Microsoft y Apple. Más del 50% de las búsquedas de compra hoy día se hacen en Amazon; Google y Facebook se reparten ciento setenta mil millones de los doscientos setena y tres mil millones del mercado de la publicidad mundial; Microsoft y Apple pelean por ser la empresa de mayor capitalización bursátil del mundo. En ellas, las mejores mentes del mundo moderno se esfuerzan para que pinchemos en anuncios y compremos productos de diverso tipo y discutible necesidad.

Esta nueva economía tiene múltiples nombres. A menudo conocida como la economía del conocimiento, quizá es más adecuado llamarla economía de la atención, como la definió Matthew Crawford («En las principales corrientes de la investigación psicológica, la atención es un recurso: una persona solo tiene determinada cantidad de ella») Es una economía basada en la tecnología, la gestión de los datos y la innovación, donde el factor limitantes. Una economía que está cambiando radicalmente todas las industrias que conocemos en mayor o menor medida. Y Google ha sido una de las más importantes a este respecto, creando un mercado que no existía antes y cambiando otras que no parecían relacionadas con las búsquedas. Pero todavía nos faltan muchos cambios para que la transformación se estabilice, y los más complicados están siendo los cambios legales, políticos y sociales. No es nuevo. Ocurrió algo parecido con la revolución industrial, entonces no con la información sino con el factor trabajo. El ciclo de mercado cambiará. Ya hemos pasado a pagar por contenidos y abandonado la piratería. Poco a poco se va legislando y controlando más el «salvaje oeste» de internet. Pero falta mucho camino por recorrer y cambios por disfrutar o sufrir. Esperemos que esta vez estemos preparados y sepamos aprovechar para adaptarnos al nuevo entorno de una manera más civilizada que en épocas anteriores. ¿Habremos aprendido la lección por fin, o seguiremos haciendo experimentos?


Artículo extractado y adaptado de El Espectador Económico, libro de Guillermo de Haro y Laura Blanco (Hispalibros, 2016); del capítulo «Entorno competitivo» del libro Millennials: la generación emprendedora (Fundación Telefónica, 2017) y del capítulo «La economía digital» escrito por Guillermo de Haro y publicado en el ebook coordinado por Juan Merodio y titulado 9 factores de la transformación digital de la empresa.

[1] www.thegooglejobexperiment.com, que se puede encontrar aquí subtitulado en castellano.


A la caza del huevo de Pascua II: Videogame Edition

Este texto es una secuela de «A la caza del huevo de Pascua»

1976 era un mal momento para trabajar como programador en Atari si uno no tenía demasiado interés en estudiar la esclavitud desde el punto de vista de quien viste los grilletes. Porque en aquella época Warner Communications acababa de comprar la legendaria compañía a sus fundadores originales y se dedicaba a explotar sin vergüenza a todos aquellos empleados de gafas gruesas que se bronceaban picando código frente a las pantallas de ordenador. A finales de los ochenta, diseñar y programar un videojuego para la novedosa Atari 2600 era una tarea de la que podía encargarse por completo una única persona, pero los mandamases de Warner no estaban dispuestos a permitir que sus empleados cultivasen fama, o que se les ocurriese solicitar royalties por sus creaciones, y prohibieron totalmente a los programadores firmar las aventuras que alumbraban. Como consecuencia de ello, los videojuegos de Atari nunca incluían en el propio programa, ni en los cartuchos, ni en los manuales y ni siquiera en la propia caja, mención alguna a la persona que los había creado, manteniendo a sus papás legítimos en el anonimato absoluto. Hasta que llegó Warren Robinett y puso un huevo.

Adventure de Warren Robinett y su famosa pantalla secreta (abajo a la derecha).

Robinett fue empleado de Atari en aquellos años —«Éramos nerds. Porque tenías que ser un nerd si te dedicabas a escribir código para videojuegos»— y también el único padre de Adventure, un juego parido en 1979 para la consola Atari 2600 cuyo título delata que la competencia por aquel entonces era tan escasa como para que los programadores no tuvieran que calentarse demasiado los sesos a la hora de bautizar a sus criatura. Adventure proponía al jugador visitar castillos y laberintos enfrentándose a bestias mitológicas, algo que a principios de los ochenta significaba que había que echarle imaginación al asunto e interpretar aquel pixelaco cuadrado como un aguerrido caballero, aquellos pobres pasillos angulosos como tenebrosas catacumbas y aquellos garabatos con pinta de patos barrigudos como temibles dragones. Entre tanta aventura aristada a Robinett se le ocurrió deslizar un pequeño secreto a modo de venganza contra las draconianas normas de los jefes de Warner: si el jugador utilizaba cierto objeto en una zona determinada del escenario, donde no existía razón alguna para usarlo, obtenía una minúscula llave que le permitía el acceso a una habitación secreta en la que era posible leer «Creado por Warren Robinett» en letras parpadeantes.

Aquella era la manera que tenía el autor de jugársela a Warner por no dejarle firmar de manera oficial el juego: «No lo hice con la idea de meter un secreto en el juego. Solo pensé “Voy a engañar a esos cabrones y colar mi nombre en el videojuego sin decírselo a nadie. Ellos fabricarán cien mil unidades, las distribuirán por todo el mundo y los niños las desempaquetarán. Y entonces no habrá manera de que en Warner puedan volver atrás». Robinett acertó en casi todo: Adventure en realidad vendió un millón de copias y en la empresa nadie tuvo constancia de aquella estancia secreta hasta que un chaval de quince años, llamado Adam Clayton, la descubrió y remitió una carta a Atari narrando su hallazgo. Como eliminar el mensaje oculto y redistribuir el juego resultaba absurdamente costoso, al director de desarrollo de software de la empresa, Steve Wright, se le ocurrió que no sería mala idea alentar ese tipo de secretos en futuros lanzamientos. Wright bautizó como Easter eggs a ese tipo de misterios ocultos al comparar su búsqueda con la caza de huevos de chocolate durante la Pascua. Desde entonces, el mundo del entretenimiento ha adoptado el término «huevo de Pascua» como aquel secreto simpático que se esconde entre los pliegues de las aventuras pixeladas.

Huevos prehistóricos

Adventure ayudó a acuñar el término «huevo de Pascua» formalmente, pero no fue el primer videojuego en empollar uno. Dos años antes, la setentera y segundona consola Fairchild Channel F acogió un cartucho de demos y un par de juegos (Video Whizball y Alien Invasion) que mediante combinaciones de botones desvelaban en pantalla los nombres de sus programadores. Y la muy vetusta máquina recreativa Starship 1 de Ron Milner ya hospedaba en 1977 un secreto que no se hizo público hasta cuarenta años después de su lanzamiento, y tras una ardua investigación: si se apretaban unos pulsadores determinados mientras se introducía una moneda, el programa daba la bienvenida al usuario con un «¡Hola, Ron!» y le regalaba diez créditos por su cara bonita.

A la caza del huevo de Pascua

Desde entonces, ocultar secretos simpáticos en las tripas de los videojuegos se ha convertido en un entretenimiento divertido para los creadores: El FPS bélico Brother of Arms: Hell’s Highway permite reclutar (entre una lluvia de confeti) a un pequeño ejército de ovejas explosivas si el jugador realiza una serie de acciones específicas. La serie de estrategia en tiempo real Command & Conquer esconde misiones secretas que homenajean a Jurassic Park y al cine de serie B de los cincuenta al obligar a los soldados a batallar contra dinosaurios y hormigas mutantes gigantescas. La franquicia Tony Hawk ubica en lugares recónditos del escenario a secundarios embelesados por los contoneos de sensuales cabras. Y Rise of the Triad (2013) se dedicó a cachondearse de Kim Jong-un escondiendo todo tipo de ofensas hacia el norcoreano en sus mapas.

Rise of the triad. Ahora tendrás que arrancarte los ojos.

En Gears of War 3 es posible invocar a una gallina de oro gigantesca o a la colosal cabeza de un conejo de Pascua, y en Saints Row 2 otro conejillo de proporciones espectaculares se manifiesta en medio del mar. Minecraft utiliza el alfabeto galáctico de Commander Keen a modo de lengua mística. Los responsables de Diablo II incluyeron un nivel secreto donde guerrear contra hordas de vacas belicosas y los diseñadores de Age of Empires permitieron a las catapultas del juego utilizar reses como munición al estilo de Los caballeros de la mesa cuadrada. En el caso de Grand Theft Auto la cantidad de huevos de Pascua que anidan en sus entregas parece inabarcable. La saga de juegos de Rockstar contiene literalmente cientos y cientos de secretos, guiños, cameos, curiosidades ocultas y bromas de todo tipo. Lo mismo ocurre con los Metal Gear paridos por Hideo Kojima, sus huevos de Pascua y ocurrencias son tan numerosos y variados, desde telépatas capaces de leer las partidas salvadas de otros juegos en la tarjeta de memoria hasta villanos que mueren de viejos si cambias la fecha de la consola, que listarlos requiere una Wikipedia dedicada.

Ensalada de cameos ilegítimos

Introducir furtivamente, y sin pedir permiso a sus creadores, cameos de personajes distinguidos de la cultura pop en un videojuego es una de las técnicas más utilizadas a la hora de hornear Easter eggs: aquel Jack Torrance de El resplandor aparece congelado en el interior de un laberinto de setos en Blood, los restos de Luke Skywalker cuelgan del techo de una cueva en Duke Nukem 3D, un clon del Alan Harper de la serie Dos hombres y medio asoma la cabeza por L. A. Noire, Godzilla sale a darse un paseo por el escenario de Hitman (2016) cuando el jugador efectúa una serie de movimientos concretos sobre un tejado, en Metro 2033 es posible localizar la planta en un zapato que cuidaba Wall-E, el músico Deadmau5 aparece ejerciendo de DJ en Goat Simulator durante un fiestorro, Watchdogs 2 permite conducir un Jeep calcado a los de Jurassic Park, la aventura de realidad virtual Lone Echo parafrasea a Rick & Morty y emplaza las tres conchas de Demolition Man en el decorado. Baldur’s Gate tiene un secundario «muy hábil con la espada» bautizado Peter of the North en honor a la estrella porno Peter North, Timón y Pumba corretean junto a Simba por los bosques de Guild Wars 2: Path of Fire, Ark: Ragnarok emplaza la casa de Shrek en uno de sus pantanos, Area 51 contiene una piscina con los «tiburones con láser en la cabeza» que ansiaba el villano de Austin Powers y Far Cry Primal esconde en el fondo de un lago el coche de Los Picapiedra. Los creadores de The Elder Scrolls V: Skyrim aprovecharon para esparcir a lo largo del enorme mundo del juego decenas de guiños a terceros: la espada Excalibur del Rey Arturo, utilería de El señor de los anillos, reinterpretaciones de escenas de 300 o Poltergeist, referencias a The Legend of Zelda o BioShock e incluso un caballo bautizado en honor al poeta Robert Frost.

Entre los homenajes al séptimo arte destacan los dedicados a Indiana Jones, un personaje cuyas aventuras han inspirado cientos de videojuegos: Dying Light oculta en una caverna el esqueleto de un aventurero con fedora y látigo, Duke Nukem 3D exhibe el cadáver empalado del Doctor Jones en una gruta con trampa, Lara Croft no solo tiene el arca de la alianza aparcada en el saloncito de su mansión en el primer Tomb Raider sino que también acostumbra a tropezarse con restos del arqueólogo mientras sortea trampas (en Tomb Raider Anniversary el sombrero y el látigo del personaje aparecen pegados a una bola rodante), Zombie Army Trilogy y Fallout: New Vegas contienen un par de neveras rellenas con los huesos de Indy y sus complementos habituales, en Blood 2 aparece el ídolo de En busca del arca perdida y el videojuego Indiana Jones y la máquina infernal aloja un nivel oculto que permite al arqueólogo volver a Perú para recuperar dicha reliquia, Call of Duty: Ghosts esconde un látigo junto a la gorra de aquel Tapón de El templo maldito, Wolfenstein: The New Blood tiene a dos secundarios nazis hablando sobre el santo grial y Rise of the Tomb Raider replica la estancia que albergaba la copa de un carpintero en La última cruzada.

Es frecuente que las estrellas invitadas provengan de otros videojuegos: Guybrush Threepwood tiene un cameo no oficial en The Witcher 3 y también se asoma por Uncharted 4 retratado en cuadros y tallado en forma de estatua con las pintas que tenía en Monkey Island 2, las estanterías de una tienda en GTA: San Andreas apilan juguetes de Manhunt y GTA: Vice City, un casco típico de Skyrim aparece entre el atrezo de Wolfenstein: The Old Blood y también en el de Doom (2016) junto a un cadáver con una flecha en la rodilla, el juego de X-Men Origins: Wolverine sitúa una espada de World of Warcraft en el escenario, Samus (la heroína de Metroid) echa la siesta en una cama de Super Mario RPG, The Talos Principle planta un Pac-Man a los pies de una palmera mientras Skyrim coloca otro comecocos con forma de queso en una estantería, en Payday 2 es posible encontrar una taquilla que pertenece al Gordon Freeman de Half-Life, una calavera viste el casco de rugby de Commander Keen en el cuarto Doom, y Dying Light recrea el campo de batalla de Plants vs Zombies en versión realista.

Resulta incluso más habitual que los cameos de personajes de otras compañías sean motivo de guasa o sadismo por parte de los programadores: The Witcher 2 muestra al protagonista de Assassin’s Creed convertido en pegatina tras un salto fallido, Final Fantasy sitúa la tumba de Link en un poblado de elfos, The Legend of Spyro: A New Beginning tiene a Crash Bandicoot asándose en una barbacoa, Serious Sam 2 cuelga de un árbol el esqueleto de Duke Nukem (un personaje al que Serious Sam fotocopia sin pudor) con un misil introducido por el tubo de escape, Duke Nukem 3D esconde tras un altar el torso mutilado de un marine de Doom y Duke Nukem Forever  arroja en una caverna el cuerpo decapitado de Isaac Clarke (el protagonista de Dead Space), Blood cuelga bocabajo a un Duke Nukem desmembrado y permite balancearlo mientras comenta con guasa «Shake it, baby!», Shadow Warrior tiene a Lara Croft encadenada en un cuarto oculto y Nathan Drake aparece reseco y ensartado en Lara Croft and the Temple of Osiris.

En 1990, el diseñador Tom Hall garabateó los bocetos de un pez de aspecto bobalicón llamado Dopefish que se convertiría en parte del reparto de Comander Keen: Goodbye Galaxy! y también en un cameo recurrente del mundo del videojuego. Desde entonces, ese Dopefish que su creador define oficialmente como «la segunda criatura más estúpida del universo» se ha paseado jugando al escondite por programas como Wacky Wheels, Rise of the Triad y su remake de 2013, las diversas entregas de Quake, Max Payne, Jazz Jackrabbit 2, Team Fortress, Rage, Deux Ex: Human Revolution, Black Mesa, Pettington Park, Duke Nukem 3D, Daikatana, Anachrox, Hitman 2, SiN episodes, Doom (2016), TAGAP, Alan Wake o la versión de Commander Keen para Game Boy Color, entre muchos otros juegos. En internet, aquel pececillo verde y tontorrón se ha convertido en un meme en sí mismo y en un absurdo objeto de culto.

Dopefish, dopefish everywhere.

El juego dentro del juego

En numerosas ocasiones son los propios juegos los que bromean simulando colarse en otros mundos pixelados: Doom 2 contiene dos niveles secretos que replican los gráficos, texturas y la estructura de dos fases de Wolfenstein 3D (su abuelo espiritual) e incluyen a cuatro Commander Keen ahorcados a modo de piñata. Wolfenstein: The New Order recompensa a los jugadores que se echen una siesta en un colchón del escenario con una pesadilla que también los envía a batallar en un nivel de Wolfenstein 3D. El remake de 2013 de Rise of the Triad esconde, tras una puerta etiquetada como «No es una salida secreta», una fase que simula el aspecto del juego original de 1994. Rage permite acceder a una pixelada habitación del Wolfenstein 3D y pasear por pequeñas réplicas de niveles clásicos de Doom y Quake. Cavar en una zona determinada de Viscera Cleanup Detail abre camino hacia una estancia de Minecraft. En La maldición de Monkey Island existen un par de huevos de Pascua que permiten colarse en los escenarios de la Mêlée Island de la primera entrega. Y The Stanley Parable, un juego que es un huevo de Pascua en sí mismo, contiene estancias que simulan ser parte de Portal o Minecraft.

Lo verdaderamente fabuloso ocurre cuando los videojuegos contienen auténticos juegos completos. La aventura gráfica Day of the Tentacle incluye la versión completa de Maniac Mansion, el juego original del que es secuela, pero lo hace de un modo inusual: lo sitúa dentro de un ordenador ubicado en el propio juego, un aparato que es necesario activar a través de los personajes de la aventura. El asunto no tenía realmente mucho de huevo de Pascua porque venía anunciado en la propia caja del producto, pero su caso era similar al de la saga Yakuza, una serie de juegos sobre gánsteres japoneses donde uno puede pasar por completo de la historia principal y meterse en una sala de recreativas para jugar a réplicas completas y perfectas de clásicos como Out Run, Hang-On, Space Harrier, Fantasy Zone, Virtua Fighter 2, Puyo Puyo, Virtual On: Cyber Troopers, Virtua Fighter 5 e incluso una versión de ToyLets, un videojuego para urinarios que realmente existe en aquellas locas tierras asiáticas. Otros programas jugaban a esconder estos entretenimientos con más estilo: en Call of Duty: Black Ops es posible jugar a la añeja aventura conversacional Zork I desde el ordenador que aparece en el menú principal, Call of Duty: Black Ops II contiene un secreto que permite jugar a clásicos de Atari (Pitfall!, H.E.R.O., Kaboom! y River Dale) en una televisión de uno de sus mapas, una de las expansiones de Lego Dimensions añade al juego más de veinte recreativas clásicas de Midway, el Ninja Gaiden de 2004 incluye cartuchos coleccionables dentro del juego que permiten jugar a la trilogía original de NES,  la versión para Xbox 360 de Ghostbusters coloca una recreativa en las oficinas de los Cazafantasmas desde la que se puede jugar a Q*bert, e Indiana Jones y el cetro de los reyes incluía, como extra desbloqueable en su versión de Wii, la aventura gráfica Indiana Jones and the Fate of Atlantis, un juego que irónicamente es mil veces mejor que aquel que lo contiene.

Wolfenstein II: The New Colossus perpetró uno de los juegos-dentro-de-juego más originales al instalar, en el interior de un submarino nazi repleto de diversiones para la tropa, una recreativa que contiene el Wolfenstein 3D de 1992 al completo, pero en una variante muy cachonda: el juego ha sido retitulado como Wolfstone 3D y reimaginado para que los buenos sean los miembros del ejército alemán y el héroe del juego original sustituya a Hitler como villano principal. Aunque lo mejor de todo es que ese «juego remezclado dentro de otro juego» que es Wolfstone 3D también tiene sus propios Easter eggs.

Otros apostaron por introducir juegos falsos que clonaban a clásicos: un ordenador de Fallout 3 permite jugar a una aventura conversacional ficticia y Fallout 4 alberga una colección de entretenimientos en uno de los accesorios del personaje, No More Heroes ideó minijuegos primos de los 8-bit de Nintendo. Y productos como Everquest, Grand Theft Auto, Ratchet & Clank o Bully incluyen versiones marca blanca de Bejeweled, Defender, Robotron, Tempest y similares clásicos. El caso de Strafe, un FPS moderno que glorifica la estética retro, destaca por el esfuerzo al contener entre sus pasillos un Luftenstein 3D que replicaba a Wolfenstein 3D, una versión en 3D de Enter the Gungeon, un Trappy Mine portátil o un fabuloso Totino’s Quest que rinde tributo a ese perro verde que fue Chex Quest, un juego construido sobre Doom que en América venía de regalo dentro de cajas de cereales.

Más allá del videojuego

El mundo del videojuego no es el único sobre el que llueven los huevos con sorpresa. Microsoft Excel 95 aloja una estancia tridimensional llamada «Hall of Torture Souls» que se puede visitar en primera persona, Excel 97 esconde un parco simulador de vuelo y Excel 2000 un arcade de conducción y tiroteos. Las primeras versiones de Windows 95 reproducían un vídeo del equipo de desarrollo cuando el jugador renombraba tres veces seguidas una carpeta con frases específicas. Durante cierto tiempo YouTube era capaz de bailar a tope al estilo Harlem Shake si se lo ordenábamos y escuchar la banda sonora de Stranger Things en Spotify activaba un vistoso efecto especial que abría la puerta hacia aquel Upside Down donde acampa el Demogorgon . Algunas versiones de Mac OS albergaron un clon del Breakout, el sistema operativo Android acostumbra a esconder jueguecillos y bromas entre sus menús de especificaciones y el programa µTorrent oculta tras un Easter egg su propia versión del Tetris.

En la nevera de Google también se acumula docenas de huevos: teclear en el buscador «do a barrelroll» hace que la pantalla de un giro a lo StarFox, «zerg rush» activa un minijuego donde es necesario defenderse de una invasión de oes que devoran los resultados de la búsqueda, «flip a coin» lanza una moneda, «Google gravity» despieza el escenario si pulsamos el botón «Voy a tener suerte» y  buscar «The answer to life the universe and everything» remite al 42 de Douglas Adams. Los doodles contienen a menudo juegos o secretos como el clásico Pac-Man (al que se puede jugar en pareja si introducimos dos monedas virtuales). También existen versiones de Google en klingon, en lengua pirata e incluso en la jerga que habla Elmer en los Looney Tunes. En el tema playero de iGoogle, Nessy suele asomar la cabeza a las 3:14 de la madrugada, Google Maps sustituye el monigote naranja por pingüinos si uno otea la superficie de la Antártida y un ninja se cuela en la pantalla en Google Reader si el usuario introduce el famoso código Konami.

Spotify como portal al Upside down.

Especialmente simpático es el caso de algunas lavadoras de la marca Fisher & Paykel que vienen de fábrica con un huevo de Pascua oculto: si se presionan los botones de un modo determinado el electrodoméstico se dedica a interpretar varias cancioncillas entre las que figuran el himno de Nueva Zelanda o la música de Superdetective en Hollywood. El pinball The Machine: Bride of Pin-Bot también tiene espíritu de cantante y entona la canción de la granja de MacDonald si uno sabe acariciar sus botones en el orden correcto. Pero en materia de locuras nadie puede superar a los rusos, porque ellos han fabricado un coche, el GAZelle Next, que incluye a modo de Easter egg un Tetris funcional. Junto a un sistema de seguridad que impide que dicho Tetris se ejecute mientras el vehículo está en marcha.

Huevos brillantes

La tercera entrega del complejo y estratégico Europa Universalis arroja un puñado de misiones simpáticas aprovechando los juegos de palabras con la obra de J. R. R. Tolkien: aquellos que se aventuran a gestionar las tierras de Aragón reciben entre sus objetivos la tarea de convertirse en «rey de Gonder» y «derrotar a Saruhan para cumplir su destino» mientras enarbolan entre sus ideales el «Proteger a la gente mediana». El juego de carreras con motos acuáticas Wave Race: Blue Storm permite desbloquear, código mediante, a un comentarista hastiado que se dedica a humillar continuamente al jugador. Eric Idle no solo proporcionó su voz a la aventura gráfica basada en Mundodisco, sino que además infiltró en ella la frase «I want to be the first person in a game to say “fuck”» (una broma a costa de otra frase que John Cleese soltó durante el funeral de Dave Chapman) refugiada tras un Easter egg. Y The Witcher 3 instaló en un cementerio un par de estatuas de ángeles que habían salido del legendario episodio «Blink» de Doctor Who.

Europa universalis 3.

En WarioWare Gold el personaje de Wario se encarga de retratar sobre un lienzo todos los amiibo que el jugador tenga a bien arrimar a la consola. El detallazo simpático del asunto es que el cabrón de Wario siempre dibuja con garabatos chapuceros a todos los personajes de Nintendo, excepto a sí mismo.

Satoru Iwata que estás en los cielos

El once de julio de 2015 falleció Satoru Iwata, cuarto presidente de Nintendo, programador de clásicos como Balloon Fight, Golf o EarthBound y una de las mentes más respetadas de la industria del videojuego, a la que a día de hoy los jugadores y los creadores más reputados del medio siguen rindiendo honores con frecuencia. En septiembre de 2017, aquellos que se dedican a escarbar entre las entrañas del software lúdico descubrieron que la consola Nintendo Switch escondía un secreto: un archivo llamado «flog» que ejecutaba un emulador con el juego Golf de NES. Lo asombroso del hallazgo era la forma oficial de hacer que dicho juego se ejecutase en la consola: sosteniendo los joy-cons (los mandos del aparato sensibles al movimiento) con ambas manos y simulando el gesto que Iwata solía hacer durante las presentaciones de Nintendo. Un movimiento que solo activaba el juego oculto si se realizaba durante un once de julio, la fecha de la muerte de Iwata, y algo difícil de trampear porque la propia consola fija automáticamente la fecha al conectarse a internet e impide que el usuario la modifique en el futuro. Cuando se descubrió el huevo de Pascua, Nintendo evitó toda declaración sobre el asunto y optó por eliminarlo de la máquina en actualizaciones posteriores. Pero antes de eso muchos contemplaron aquel juego escondido como si fuese un omamori virtual, Golf había sido escrito por el propio Iwata y aquello era un homenaje rotundo, uno que pretendía conservar, aunque fuese en forma de código, un pedazo del alma del autor dentro de la máquina.

Trials y el huevo de Pascua definitivo

A la hora de gestar huevos de Pascua los finlandeses de RedLynx no tienen rival, y probablemente siga siendo así durante los próximos cien años. Ellos son los responsables de Trials HD, un juego muy divertido basado en realizar piruetas locas en moto a través de circuitos repletos de trampas y reírse observando cómo el piloto se desnuca durante los aterrizajes fallidos. Los jugadores de Trials HD no tardaron mucho en descubrir que sus escenarios estaban repletos de referencias más o menos ocultas a cosas que se antojaban demasiado eruditas para un juego que basaba parte de su encanto en los hostiazos ridículos: guiños a Fibonacci, Leonardo Da Vinci, Stanley Kubrick, Douglas Adams, Luca Pacioli, Charles Darwin, códigos binarios, matemáticas y frases ocultas. Un inmenso puzle de referencias que en realidad no conducían a ningún sitio concreto sino que homenajeaban a la ciencia, los investigadores y los inventores de la historia. El verdadero desmadre llegó con la secuela, Trials Evolution.

Trials evolution.

Trials Evolution seguía siendo un juego fabuloso para hacer el cabra con la moto, pero en la sección de Easter eggs apostó por epatar a lo bestia. El juego incluía una serie de frases ininteligibles desperdigadas en los rincones de sus decorados, sentencias que los fans ensamblaron para formar una frase más incomprensible aún. Alguien logró descifrar aquel texto y descubrió que eran las instrucciones para realizar una maniobra especial durante el juego que a su vez desbloqueaba una canción secreta de letra misteriosa: en ella una mujer entonaba un «tienes que transformarlo en algo visible». Los jugadores más sagaces agarraron la melodía y tirando de análisis espectral descubrieron que ocultaba un mensaje en código morse donde se deletreaba la dirección de un dominio de internet: una página en la que comenzaron a publicarse gradualmente diversas ilustraciones junto a una pregunta codificada tras aquellos dibujos. Los fans no tardaron en deducir que cada dibujo se correspondía con un científico famoso, cada científico con una letra del abecedario y que la respuesta a la pregunta cifrada era «Big freeze with no complete end», una de las teorías posibles sobre el fin del universo. Tras introducir la solución, la página reveló las pistas y coordenadas de cuatro localizaciones situadas en distintas partes del globo: un agujero en un muro de Sidney en Australia, los alrededores de una tumba en un cementerio del Reino Unido, un montoncito de rocas en San Francisco y una puerta de un edificio de Helsinki en la que era necesario introducir el código «5994» para obtener un mapa con nuevas órdenes. Cuatro personas se atrevieron a darse un paseo hasta las ubicaciones señaladas siguiendo las pistas, y cada una de ellas acabó desenterrando un pequeño cofre que a su vez contenía una llave y una placa de metal. La placa llevaba inscrito un mensaje: «Durante el mediodía del 11 de agosto de 2113 una de las cinco llaves abrirá la caja debajo de la Torre Eiffel».

En RedLynx aseguran que no están de coña y que lo han preparado todo para que durante dicha jornada de 2113 se revele qué oculta el huevo de Pascua más enrevesado de la historia de los videojuegos, y cuál de los herederos de las llaves será el afortunado que se lleve a casa el contenido de la misteriosa caja. Y lo más hermoso de todo es que ninguno de nosotros lo veremos. Aquí os habéis pasado de frenada, RedLynx.


La carrera por el ordenador cuántico

Richard Feynman, 1964. Foto: United States Department of Energy (DP).

En 1982 el físico Richard Feynman fue invitado a dar un seminario. Tenía muchos temas de los que hablar, pero se decantó por el que el organizador consideraba que nadie iba a escoger, la simulación de sistemas físicos en ordenadores. La clase fue resumida en un artículo que se publicó el mismo año en la revista International Journal of Theoretical Physics, y a día de hoy se considera un clásico de la ciencia (1).

Aunque nadie más quisiera hablar de ese tema, en la década de los ochenta la simulación de sistemas físicos con ordenadores era un tema importante. Durante los años cincuenta, los primeros ordenadores modernos habían revolucionado el mundo de la investigación. Realizar cálculos matemáticos que solo unas décadas antes eran totalmente inaccesibles se había vuelto algo habitual. Además, se crearon los lenguajes de programación de alto nivel, como Fortran o Cobol. Estos lenguajes permitían a los científicos crear sus propios programas sin necesidad de pasar años estudiando ciencias de la computación. Poco después, en la década de los setenta, aparecieron los primeros superordenadores. El famoso modelo Cray-1 (2) fue instalado en el Laboratorio Nacional de Investigación de Los Álamos en 1975, solo siete años antes del artículo de Feynman. El tema de cómo usar ordenadores para estudiar el comportamiento de los sistemas físicos era entonces un campo de investigación abierto y excitante.

Curiosamente, el artículo de Feynman es recordado no tanto por las conclusiones que expone sino por las preguntas que hace. En él se diferencia entre la dificultad de simular un sistema clásico, como un cohete que va a la Luna, y uno cuántico, como un átomo. Feynman identifica que los sistemas cuánticos son mucho más difíciles de simular que los clásicos, ya que los ordenadores funcionan siguiendo leyes clásicas. Como posible solución propone usar sistemas cuánticos para simular sistemas cuánticos. Esa idea se considera hoy en día como la semilla de la que germinó la ciencia de la computación cuántica.

La idea se puede resumir de manera muy concisa: «Los sistemas cuánticos son inherentemente diferentes a los clásicos. Los ordenadores son sistemas clásicos, y por eso simulan los sistemas cuánticos muy mal. Fabriquemos ordenadores que funcionen según la física cuántica y asunto resuelto». Una idea fácil de resumir pero muy difícil de realizar. Basta con decir que entre el artículo de Feynman y la actualidad han pasado ya treinta y cinco años y todavía no tenemos ordenadores cuánticos operativos.

Pero ¿por qué hacen falta ordenadores cuánticos? Como ya intuyó Feynman, el problema de simular sistemas cuánticos con ordenadores clásicos viene del hecho de que la física cuántica y la clásica son muy diferentes. En los sistemas clásicos, como los que tratamos a diario en nuestro mundo macroscópico, los sistemas se definen por magnitudes que están bien definidas. Así podemos dar la posición y la velocidad de un cohete, por ejemplo. La física cuántica es mucho más compleja. El ejemplo más típico es el gato de Schrödinger, que puede estar vivo y muerto al mismo tiempo. A pesar de su popularidad, este ejemplo es bastante desafortunado (3). Un gato es un ser macroscópico, formado por trillones de átomos e interacciona fuertemente con su entorno. Por ese motivo un gato nunca estará en superposición de dos estados. Sin embargo, en el mundo microscópico sí se da este comportamiento, llamado coherencia, y es muy común que los átomos o los electrones estén en varios estados al mismo tiempo. Esto no es solo una curiosidad, también dificulta mucho el realizar cálculos sobre este tipo de sistemas.

Veamos un ejemplo. Si un sistema clásico puede estar en dos estados, para definirlo solo tendremos que dar un valor (‘0’ o ‘1’). Esto es lo que se conoce como un bit. Si un sistema cuántico puede también encontrarse en esos mismos dos estados, la cosa se complica un poco. Puede estar en ‘0’ o en ‘1’, pero también puede estar en una combinación de ambos. Algo como a‘0’+b‘1’ es en este caso totalmente factible. En este ejemplo, a y b son dos números que determinan cuánto se encuentra el sistema en cada estado. Un sistema cuántico de dos niveles como este es lo que se denomina un qubit (quantum bit, o bit cuántico en español). Así que, si queremos definir el estado clásico, solo tenemos que almacenar en nuestro ordenador ‘0’ o ‘1’, y para definir el cuántico tenemos que almacenar dos números, ‘a’ y ‘b’. No parece que la diferencia sea tan radical. Es cierto que dos números ocupan más memoria en la máquina que un solo bit, pero tampoco la diferencia es abismal. El problema real se produce cuando el sistema es más grande. Si en lugar de dos tenemos cuatro estados posibles, el sistema clásico pasa a necesitar dos bits para ser descrito (’00’, ’01’, ’10’ o ’11’). Para este mismo caso el sistema cuántico necesita ahora de cuatro números, uno por cada posibilidad. Dos bits frente a cuatro números. Esta tendencia continúa a medida que el sistema va creciendo. En general, si un estado cuántico requiere de N bits para ser determinado, su equivalente cuántico requerirá 2 elevado a N números. Así, para un sistema totalmente manejable con un ordenador personal, como uno de 100 bits, un ordenador cuántico necesita una cantidad de variables del orden de 1030 (un 1 con 30 ceros detrás). Esto es algo que no solo no pueden manejar los ordenadores actuales, sino que se escapa de cualquier predicción de un futuro próximo por optimista que sea esta. Este problema forma parte de lo que se denomina en ciencias de la computación la maldición de la dimensionalidad (curse of dimensionality).

Por suerte, en el problema se halla la misma solución. Como los mismos sistemas cuánticos pueden estar en superposición es evidente que ellos sí que pueden computar todas estas variables. Así, si tenemos un sistema que controlamos muy bien, podemos usarlo para estudiar otro que se le parezca. Eso es lo que se denomina un simulador cuántico. Si somos más ambiciosos aún, podemos buscar un sistema que controlemos tan bien que podamos usarlo para simular cualquier otro sistema. Eso lo denominamos un ordenador cuántico universal. Este último nos permitiría estudiar infinidad de sistemas, con aplicaciones en el campo de la física de materiales, la medicina, la química y muchas más.

Si la teoría es en principio sencilla, eso no quiere decir que lo sea la realización experimental. Por desgracia, los sistemas cuánticos son muy difíciles de controlar. En general, son sistemas muy pequeños, como átomos o fotones (partículas de luz), y eso los hace difíciles de manipular. Pueden estar en varios estados al mismo tiempo, eso es cierto, pero esa propiedad dura habitualmente una fracción de tiempo demasiado corta como para poder aprovecharla. La interacción con el entorno hace que el mundo se vuelva clásico, y por eso no vemos estos exóticos efectos en nuestro día a día. Por este motivo, para poder utilizar sistemas cuánticos como ordenadores debemos aislarlos y enfriarlos hasta el extremo.

Muy poco después del artículo de Feynman se hicieron avances en el campo de la computación cuántica tanto teóricos como experimentales.

Dermot Turing inspecciona el Pilot ACE, el que fue el computador más rápido del mundo en los años 50, diseñado por Alan Turing. Foto: Cordon.

Desde el punto de vista teórico, a finales de los ochenta y principios de los noventa se establecieron las bases fundamentales de la computación cuántica (4). Este proceso fue una extensión de las bases de la computación clásica, desarrolladas principalmente por Alan Turing, al mundo cuántico. Poco después se encontraron ejemplos de problemas matemáticos que podían ser resueltos por un ordenador cuántico de manera más eficiente que por uno clásico. Con esto comenzó la revolución. Los ordenadores cuánticos ya no eran solamente un instrumento específico de investigación.

En 1996 se publicaron dos artículos que revolucionaron este campo. Lov K. Grover demostró que un ordenador cuántico tenía una capacidad de buscar un elemento en una base de datos de manera más eficiente que uno clásico (5). Para bases de datos pequeñas la mejora sería irrelevante, pero si es una base de datos muy grande (como las búsquedas por internet) los ordenadores cuánticos tardarían mucho menos que los clásicos en realizar la búsqueda.

En ese mismo año Peter W. Shor publicó otro resultado aún más impactante (6). Se trataba del ahora llamado algoritmo de Shor, un algoritmo que permite factorizar un número producto de dos primos con una velocidad mucho mayor que los algoritmos clásicos conocidos. Este problema puede parecer una curiosidad matemática, pero es de vital importancia para todos nosotros. Factorizar el producto de dos primos es un problema fácil de formular, pero muy difícil de resolver. Veamos una sencilla explicación. Si tenemos dos números primos (3 y 5), multiplicarlos es trivial (3×5=15). Ahora, si os doy un número (15) y os digo que es producto de dos primos, averiguar qué primos son no es tan fácil. Puede no ser tan difícil con números pequeños, solo con probar a multiplicar todos los número primos más pequeños nos dará la solución. Sin embargo, si el número es muy grande, el problema se vuelve muy complejo. Como ejemplo, podemos tomar 150.859 e intentar averiguar qué dos números primos al multiplicarlos dan ese resultado (7).

¿Por qué es este un problema importante? Porque en la diferencia de dificultad entre estos dos problemas se basan la mayoría de métodos criptográficos usados actualmente. Resumiendo un tema muy complejo, podemos decir que el número producto sirve para encriptar un mensaje, de modo que no se entienda, y los dos números primos sirven para desencriptarlo. Así, yo puedo crear una clave, 150859, y liberarla para que todo el mundo pueda mandarme mensajes. Todo el mundo podrá escribir mensajes cifrados, pero solo yo, que conozco los dos números primos que dan ese resultado, podré leer esos mensajes. Ahora bien, si alguien da con un método para obtener los números a partir del producto se acabó la comunicación segura. Eso es lo que hizo Shor con su algoritmo, dio un método que podía ser usado para desencriptar gran parte de las comunicaciones actuales. Si alguien tiene acceso a un ordenador cuántico suficientemente grande, podrá leer todas nuestras comunicaciones.

Estos resultados supusieron un salto conceptual. Los ordenadores cuánticos ya no eran un instrumental de laboratorio que los físicos pedían para hacer su vida más fácil. Podían ser usados en tareas mundanas como saber si una persona es cliente de un banco o leer las comunicaciones privadas de los demás. Esto último tenía además potencial militar, por lo que algunos Gobiernos comenzaron a pensar que sería interesante invertir en esta línea de investigación.

Desde entonces han salido a la luz otros algoritmos cuánticos. Las aplicaciones son muchas, como resolver sistemas de ecuaciones (8), mejorar la inteligencia artificial (9) o calcular propiedades de moléculas complejas (10). Todas estas potenciales aplicaciones han motivado la búsqueda del ordenador cuántico operativo.

Desde el punto de vista de la implementación también ha habido grandes avances en las últimas décadas. En esta dirección se han explorado distintos sistemas físicos, con la esperanza de controlarlos y poder usarlos como ordenadores cuánticos. En principio, cualquier sistema cuántico es un potencial ordenador. Esto incluye átomos, moléculas o partículas como el electrón. Sin embargo, por motivos prácticos no todos son iguales. Primero, necesitamos un sistema que sea fácilmente aislable para que mantenga sus propiedades cuánticas durante un tiempo razonable. Segundo, tenemos que tener la capacidad de manipular y observar el sistema para que haga lo que nosotros queramos. Durante las últimas décadas se han estudiado muchos sistemas con este fin como fotones, superconductores, iones, átomos, espines y condensados de Bose-Einstein. Aquí vamos a discutir los dos sistemas más importantes actualmente, los iones atrapados y los superconductores.

En 1952, el físico Erwin Schrödinger, uno de los padres de la física cuántica, realizó la siguiente afirmación: «Nunca experimentamos con solo un electrón o átomo o molécula (pequeña). A veces suponemos que lo hacemos en experimentos pensados, esto invariablemente conlleva consecuencias ridículas» (11). Esa afirmación refleja el sentimiento de la mayoría de los científicos de su época. Sí, existen los átomos, ya no queda duda, pero siempre los encontramos por trillones. La idea de manipular un átomo, un fotón o un electrón era inconcebible. Afortunadamente, esa imposibilidad no duró mucho y en 2012 vimos cómo el Premio Nobel de Física se entregaba a Serge Haroche y David J. Wineland por «la manipulación de sistemas atómicos individuales». Antes incluso, en 1989, Wolfgang Paul recibió el mismo galardón por su diseño de trampa magnética ahora llamada trampa de Paul. Este dispositivo consiste básicamente en un campo eléctrico cambiante que permite atrapar átomos a los que les falta algún electrón (iones). Su primer uso fue el de realizar espectroscopia de masas, pero a medida que se fue perfeccionando el interés se fue enfocando también en la computación.

Además de atrapar y aislar los iones hace falta también manipularlos. En 1995 el español Juan I. Cirac junto con su supervisor Peter Zoller demostró que aplicando pulsos láser a iones atrapados se puede realizar cualquier cómputo cuántico (12). Ese mismo año se demostró que era posible su implementación en el National Institute of Standards and Technology (Estados Unidos). Ese experimento se realizó con un ion de Berilio. A día de hoy, el ordenador cuántico de iones más potente se encuentra en el Instituto de Óptica e Información Cuántica de Innsbruck (Austria) y puede manipular ocho iones. En más de veinte años hemos pasado de uno a ocho átomos, y en la versión de ocho átomos ni siquiera pueden hacerse todos los cómputos posibles. Por ejemplo, el algoritmo de Shor solo se ha podido realizar hasta el momento con cinco iones. El ordenador de iones es actualmente un instrumento útil en investigación, pero no precisamente por su capacidad de cómputo. Eso actualmente, aunque dicen que esa tendencia cambiará pronto.

Otro sistema muy estudiado son los superconductores. Como la superconducción está considerada un fenómeno cuántico macroscópico su uso con este fin parecía bastante obvio. Aquí se ha dado además un caso curioso. Durante bastantes años, los investigadores en superconductores se contentaban con conseguir replicar lo que habían hecho con iones unos años antes. Esto hacía que algunos investigadores de iones se mofaran de sus compañeros investigadores de superconductores en congresos y reuniones. La sorpresa vino cuando en 2011 la empresa D-Wave Systems anunció que sacaba al mercado el ordenador D-Wave One, con 128 qubits superconductores. Esto suponía un avance abismal frente a los 5 qubits del ordenador de iones más potente del momento. Parecía que habían ganado la carrera por el ordenador cuántico, pero en poco tiempo aparecieron muchas cuestiones que resolver antes de otorgarles la medalla. El principal problema es que D-Wave One no es, ni pretende ser, un ordenador cuántico universal. En realidad, en lugar de ser capaz de realizar cualquier tarea realizaba solo una. Este cómputo es lo que se denomina quantum annealing (13). Sus fabricantes defienden que este problema es suficiente para resolver a través de él muchos otros, pero hay un gran debate en torno a esa afirmación. Ni siquiera está claro que D-Wave funcione de manera cuántica, ya que hay ordenadores clásicos capaces de realizar esos mismos cálculos igual o más rápido (14).

Desde 2011 se han realizado numerosas pruebas en D-Wave, y no hay nada concluyente. En 2015 se liberó el D-Wave 2, un nuevo modelo con 512 qubits que fue usado por Google y la NASA para crear su Laboratorio de Inteligencia Artifical Cuántica (QuAIL). Incluso este modelo superior no está demostrado que funcione mejor que un ordenador clásico, ni que realmente haga computación cuántica. Por este motivo las burlas de los investigadores en iones hacia los de superconductores no han desaparecido. Rainer Blatt, el investigador propietario del ordenador de iones de Innsbruck, suele todavía concluir sus charlas con un par de transparencias, comentando por qué D-Wave no es un ordenador cuántico legítimo. Él al mismo tiempo ha comenzado a experimentar con un prototipo de ordenador con 20 iones. Mientras tanto Google ya ha anunciado que para finales de año habrán realizado un cálculo que se encuentra más allá de la capacidad de los ordenadores clásicos. La carrera entre iones y superconductores está en su momento más emocionante.

La última gran noticia que hemos vivido en este campo ha venido de parte de IBM. Esta compañía ha anunciado que antes del fin de 2017 tendrá un servicio de computación cuántica en la nube. De nuevo se trata de tecnología de superconductores, y no pretende ser mejor que un ordenador personal. En principio solo permitirán cómputos de hasta cinco qubits, menos que los ordenadores de iones. Sin embargo, este es un momento importante ya que se tratará del primer ordenador de computación cuántica con acceso remoto. No será necesario comprar un costoso equipo, ni tener un laboratorio. Cualquiera podrá utilizarlo desde su casa. Cualquiera que pague, claro. Lo más revolucionario de esta propuesta es el desarrollo de la infraestructura necesaria para que distintos usuarios puedan acceder al mismo ordenador cuántico. Aunque el ordenador actual sea solo un juguete, toda esta maquinaria pondrá a IBM en un puesto privilegiado en el que esperar a que se puedan hacer mejores ordenadores.

Sin duda estamos viviendo una época interesante. Con los ordenadores cuánticos ocurre un fenómeno similar al que ocurre con la fusión nuclear. Parece que estará al alcance en unos años, pero lo mismo parecía hace un par de décadas. La diferencia es que ahora muchas empresas están empezando a invertir. Si IBM, Google, Intel y Microsoft comienzan a sacar sus proyectos, eso es indicativo de que algo se mueve. Quizás esta vez sí sea cierto y en una década los ordenadores cuánticos sean una realidad.

El IBM Quantum Experience funcionando en una tablet. Foto: IBM Research (CC).

Notas:

(1) R. Feynman. «Simulating Physics with Computers». International Journal of Theoretical Physics 21 (6–7): 467-488 (1982).

(2) El superordenador Cray-1 tenía una potencia de cálculo de 160 MegaFLOPS. Eso quiere decir que podía hacer unos 160 millones de operaciones por segundo. Los superordenadores actuales más potentes pueden tener una potencia de PetaFLOPS (miles de millones de millones de operaciones por segundo).

(3) Con respecto a este tema, Stephen Hawking afirma: «cada vez que alguien me habla del gato de Schrödinger, saco mi pistola».

(4) D. Deutsch. «Quantum Theory, the Church-Turing principle and the universal quantum computer», Proc. Royal Society London A, 400, (1985).

(5) L. K. Grover. «A fast quantum mechanical algorithm for database search». Proceedings, 28th Annual ACM Symposium on the Theory of Computing (STOC), 212, (1996).

(6) P. W. Shor. Polynomial-Time Algorithms for Prime Factorization and Discrete Logarithms on a Quantum Computer. SIAM J. Comput., 26, 1484, (1996).

(7) 587×257=150.859.

(8) A.W. Harrow, A. Hassidim, and S. Lloyd. Quantum Algorithm for Linear Systems of Equations. Phys. Rev. Lett. 103, 150502 (2009).

(9) V. Dunjko, J. M. Taylor, and H. J. Briegel. Quantum-Enhanced Machine Learning. Phys. Rev. Lett. 117, 130501 (2016).

(10) J. Huh, G. G. Guerreschi, B. Peropadre, J. R. McClean, and A. Aspuru-Guzik. Boson sampling for molecular vibronic spectra. Nature Photonics. Nature Photonics 9, 615 (2015).

(11) E. Schrödinger. «Are there quantum jumps?», British Journal for the Philosophy of Science 3, 233 (1952).

(12) J. I. Cirac and P. Zoller. «Quantum Computations with Cold Trapped Ions». Phys. Rev. Lett. 74, 4091 (1995).

(13) No hay una traducción al castellano aceptada para este término. Algunos utilizan temple cuántico o cristalización cuántica, pero el término en inglés es sin duda el más usado incluso en círculos hispanoparlantes.

(14) D. Manzano. Is D-Wave a Quantum Computer? Mapping Ignorance.


Del Flower Power al Apple Power

Stev Jobs y John Sculley, 1984. Foto: Cordon.

Steve Jobs, ya saben, el fundador de la empresa que lidera la cotización bursátil mundial, nació en San Francisco en 1955 y fue dado en adopción a una pareja de Mountain View, una localidad situada en el corazón de lo que, gracias a gente como él, se conoce como Silicon Valley: el acelerador de partículas del universo virtual, el lugar con mayor concentración de capital riesgo por metro cuadrado. Lo de Jobs siempre fue pensar a lo grande, hasta convertirse en la piedra filosofal de las dos transformaciones que nos metieron de cabeza en el siglo XXI: 1) Hacer de la computación un asunto doméstico, y 2) encauzar el discurso de los movimientos sociales de los años sesenta hacia una industria, neoliberal en sus principios, que ha ideado una nueva concepción del ser humano, lo que en estas páginas llamaremos el «Hombre Nuevo de Apple» (1) o el  HNA.

Vayamos por partes: en el célebre garaje de los padres de Jobs se reúnen en 1976 dos de las mentes más inquietas del momento en el lugar más estratégico posible. Steve Wozniak es el joven genio de la computación obsesionado con el ensamblaje de circuitos, el nerd bonachón salido de alguna película para adolescentes de Richard Donner. Por su parte, Jobs ejerce de pequeño emprendedor con un cuchillo entre los dientes y una ambición desmedida por despuntar en el mundo empresarial. Entre ambos sacarán a la luz la primera computadora personal, aquel Apple I que venderán entre sus colegas del Homebrew Computer Club de Menlo Park, el conciliábulo de geeks de la computación que pretendía sumar la revolución tecnológica a la revolución social que irradiaba desde la vecina San Francisco. Jobs se ejercita por entonces como hippie de manual: solo come fruta, duerme y se sienta en el suelo, viaja a la India, ama a Bob Dylan por encima de todas las cosas y trabaja algunas temporadas en una comuna de Oregón recolectando manzanas de la variedad Macintosh, la popular «Mac» del universo granjero.

El éxito es justo (sobre todo a juicio de quien lo logra) e inmediato. Un año después de sus primeros pinitos en el garaje, es decir, a mediados de 1977, Jobs y Wozniak conectan el home run en su versión «nuevas tecnologías»: antes de cumplir los treinta, y tras la salida a bolsa de la Apple II a finales de 1980, ambos se convierten en millonarios e inauguran la estirpe de los Bill Gates (Microsoft), Sean Parker (Napster), Mark Zuckerberg (Facebook), Elon Musk (Paypal), Jeff Bezos (Amazon) o Larry Page (Google), máximos representantes del nuevo sueño americano que sustituye el relato de superación clásico y su ascenso peldaño a peldaño por un éxito exprés y sin frenos. De eso se trata el mordisco a la manzana.

Jobs emerge por entonces como una de las voces que mejor sabrá explotar el conflicto entre los viejos modelos de negocio y la utopía de las nuevas tecnologías a través de una imagen de marca verdaderamente revolucionaria (en términos mercadotécnicos). A iniciativa de nuestro hombre, y en lo que supone uno de los hitos de la historia reciente de la publicidad, Ridley Scott rodará el anuncio que Apple estrene en la Superbowl de 1984 para anunciar su nueva Macintosh, un comercial en el que presenta un mundo salido de la imaginación distópica de George Orwell contra el que una joven en shorts rojos y walkman abate su maza justiciera: gracias al lanzamiento de Macintosh, «Verás por qué 1984 no será como 1984». La revolución está en marcha: Apple romperá con la dictadura del pensamiento único transformando la comunicación, llevando un terminal a cada casa, empoderándonos contra el sistema emisor-receptor, creando un entorno interactivo donde el ciudadano, representado en el anuncio por un ejército de seres sin voluntad, rompa al fin sus cadenas.

Lo paradójico del mensaje es que promocione, precisamente, un primer Macintosh que, tras el éxito de la Apple II, heredera de las ideas de libre intercambio y pensada para que el cliente la interviniera, inaugura el sistema sellado y no compatible, es decir, la lógica actual de un entorno cerrado cuyos dispositivos generan una dependencia mutua. A ojos de Jobs, la metáfora con la ficción de Orwell se justifica por su paralelismo con la pugna que por entonces Apple, una corporación con un valor de tres mil millones de dólares, mantenía con IBM, el monopolio tecnológico del momento. Así que el Big Brother contra el que se blande el martillo liberador no pasa de una batalla empresarial revestida, en una típica operación «jobesiana», de misión social global. No se confundan: el sistema distópico del que el primer Macintosh pretendía liberarnos no tiene nada que ver con el SISTEMA, sino con un modo de hacer negocios contra el que Apple pretendía proyectar su nuevo esquema empresarial y cultural. Que en el camino te hagas multimillonario no supone, para la retórica de los negocios norteamericana, un conflicto de intereses, sino  la prueba de que estabas en lo cierto.

Modelos humanos

Imágenes: Newsweek.

Como afirma Thomas Frank, además de la revolución hippie, la crisis de los misiles o la guerra de Vietnam, los años sesenta estarán marcados en Estados Unidos por un fuerte despegue económico y unos jóvenes directivos que sueñan con liberarse de las rígidas jerarquías, la ética del esfuerzo y la fidelidad a la empresa en favor de un individualismo estimulado por la cultura de consumo de la naciente clase media: «Mucha gente del mundo de la empresa estadounidense vio la contracultura no como un enemigo que debía hacerse añicos, ni como una amenaza al consumismo, sino como una señal de esperanza, como un aliado simbólico de sus propias luchas contra unos procedimientos rutinarios y una jerarquía insoportable que se había ido acumulando a lo largo de los años». Se podría decir que el advenimiento del neoliberalismo en la década de los setenta bebe de la misma fuente que parte de la cultura hippie más elitista e individualista de los llamados flower children. El cóctel perfecto mezclará, como si los ingredientes estuvieran esperándolo, la revolución vital juvenil con la ética de los negocios, la adopción de eslóganes de renovación espiritual: «Change the world», «Think different», con un nuevo lenguaje corporativo en manos de los nuevos genios de la revolución tecnológica.

Ese mismo año 84 en el que aparece el primer Macintosh será el que Newsweek bautizaría como el año del yuppie en un número dedicado al ascenso del nuevo modelo humano desde los laboratorios de Wall Street. Los redactores de la revista tienen claro que el yuppie, es decir, el «joven urbano y profesional» —(y(oung) u(rban) p(rofessional)— con despacho en las sedes corporativas de Manhattan y gentrificador por naturaleza, nace como una versión evolucionada del hippie, de ahí el sufijo:

Uniendo categorías contradictorias, sus miembros protagonizaron las marchas de los sesenta, después se dispersaron en un millón de solitarios joggers, corriendo por las crestas de sus propias ondas alpha, y de nuevo están ahí, apenas mirando hacia arriba desde las enormes columnas grises del Wall Street Journal según se apresuran hacia el aeropuerto, avanzando por los ochenta desde la parte de atrás de una limusina. […] El banquero que se horrorizaba en 1968 cuando los estudiantes de Columbia ocuparon el despacho del presidente no estará necesariamente tranquilo al descubrir que uno de esos estudiantes tiene hoy un M.B.A y una oficina al final del pasillo, y está lleno de planes para reducir la plantilla de la alta dirección de la empresa.

Para ilustrar el cambio el artículo menciona a Jerry Rubin, miembro fundador del Youth International Party, los yippies que tras irrumpir en la Convención Demócrata de 1968 protagonizarían el famoso juicio de Los Siete de Chicago («Chicago Seven»). Hablamos de un auténtico agitador juvenil que en pocos años pasó de firmar una de las biblias contraculturales, su DO IT!: Scenarios of the Revolution, a convertirse en analista e inversor de Wall Street, defensor de un capitalismo consciente y ecologista (¿les suena?) y organizador de los conocidos Networking Salons en el Studio 54 de Nueva York, donde miles de jóvenes profesionales se peleaban por compartir tarjetas de presentación. No nos sorprenderá que una de las paradas en el viaje vital de Rubin le lleve a convertirse en uno de los primeros inversores de la recién creada Apple, mejor representante de esa tercera vía que proyecta el funcionamiento interno de una empresa joven y creativa al modo de entender el ser humano, la sociedad e incluso la religión, cuyo nuevo fetiche es el objeto tecnológico.

El universo Apple implica el diseño del Hombre Nuevo de Apple, versión mejorada del programa neoliberal donde el empresario de sí mismo, el genio creativo, el individuo decidido a cambiar el mundo es elevado a los altares y encarnado por los propios ejecutivos de la compañía, la «Virtual Class» bajo el liderazgo espiritual de Jobs, quien repite su primer mandamiento a lo largo de entrevistas y charlas: la clave del éxito reside en rodearse de «A players», la élite de los hombres y el modelo perfeccionado del HNA. Por el contrario, el peligro lo encarnan los jugadores «Bes» y «Ces», pues debido a sus complejos e inseguridades se rodearán de «Des» y «Es» en una espiral que lo llene todo de «Zetas»: ¡Desastre y fin de tu empresa! Si algún mérito se asigna Jobs es el de rastrear esos raros ejemplares «A» y ofrecerles una visión común, un camino donde emplear su inteligencia en colectivo.

Autodiséñate

Foto: Shailesh Andrade/ Cordon.

El investigador holandés Peter-Paul Verbeek lleva tiempo interrogándose por la «ética de los objetos»: vigilémoslos, porque los objetos no son inocentes, están cargados de intenciones, concebidos para unos usos e impedidos para otros, atravesados de lenguaje e ideología, pensados para producir, en sus lógicas internas y formas materiales, tipos concretos de seres humanos. Los objetos nos usan, y sería ingenuo pensar que las nuevas tecnologías y el discurso que las produce no están construyendo nuevos modelos de individuo que transforman rápidamente nuestro lugar en el mundo.

Los tiempos, sobra decir, soplan a favor del emporio digital. A finales de 2015, de las diez empresas de mayor cotización bursátil en el mundo cinco corresponden a los gigantes de la tecnología de la información (Apple, Google, Microsoft, Amazon y Facebook), mientras las tres primeras ocupan los tres primeros lugares de la clasificación: ¿cómo los objetos que organizan nuestras vidas no van a fabricar un modelo de individuo? La sociedad digital genera esquemas personales y sociales que se extienden por los aspectos más íntimos de nuestra relación con el entorno y se materializan en gestos que, como ocurre con el selfie, sintomatizan esta nueva producción de identidades.

En su Selfcity, un estudio basado en los resultados de big data obtenidos de seiscientos cincuenta mil selfies tomadas por miles de usuarios de Instagram en cinco ciudades (Nueva York, São Paulo, Bangkok, Moscú y Berlín), Lev Manovich ofrece datos muy significativos: 1) la edad media de quien se retrata es de 23,7 años, 2) las caras muestran mayoritariamente alegría, 3) se retratan significativamente más mujeres que hombres, y 4) entre ellas es más común forzar el posado, lo que motivaría la pregunta de cuál es el patrón al que recurren, y si este se asocia, como todo parece indicar, a los esquemas —sexistas y comerciales— de la publicidad convencional. Hablamos de una identidad nacida para la exhibición y codificación de los gestos, conformados desde la lógica de consumo y su conciencia de lo políticamente correcto: ¿cómo habitar este espacio que gratifica la máxima exposición, la obscenidad siempre que sirva al mandamiento de la hiperinformación y el espectáculo de lo privado, mientras aísla y censura los mensajes realmente subversivos? No olvidemos que la plataforma que fabrica y disemina estas imágenes premia ciertos contenidos, aquellos que se adaptan al espectáculo de uno mismo a través de likes, shares, followers o friends, mientras margina los que se alejan del principio de máxima exposición e impacto visual.  Así que esa identidad en circulación está lejos de ser libre o neutra, pues se produce en el seno una norma visual que la convierte en objeto de diseño e instrumento publicitario.

¿La identidad HNA subjetiva o desubjetiva?, ¿genera individuos más conscientes y emancipados? Frente a quienes en los años noventa, en el momento más álgido de la utopía tecnológica, veían en el universo digital el comienzo de una sociedad más integrada por medio de procesos de comunicación horizontales y cuyos cuerpos virtuales podrían ir más allá de las identidades de género, color y clase social, ahora ganan terreno quienes, como Giorgio Agamben, advierten que la era digital reduce la variedad de experiencias a ciertas funciones que anulan las complejidades y contradicciones que construyen nuestra subjetividad. El algoritmo forja una realidad homogénea que pretende saciar cualquier deseo a través del gesto repetitivo y extraordinariamente limitado del scroll sobre la pantalla. Como corrobora el hecho de que en los nuevos sistemas digitales la comunicación máquina-máquina sea exponencialmente superior a la comunicación individuo-máquina o individuo-máquina-individuo, el sistema no está hecho a la medida del ser humano, sino que sus funciones y aplicaciones últimas, su distribución del tiempo y el espacio, su acumulación y gestión de data pertenecen a dinámicas donde el sujeto solo está supuesto o aparece como un elemento residual que lucha por no verse sobrepasado.

Los mejores representantes del modelo HNA no parecen, sin embargo, sentir limitaciones ni incertidumbres. Son jugadores tipo A: inteligentes, jóvenes, comprensivos, sanos, deportistas, actualizados, competitivos, optimistas y asiduos del yoga, por lo que participan en el juego con la confianza de poder sortear sus dificultades. Solo es necesario explorar las páginas corporativas de los gigantes de la tecnología para observar los modelos más modernos de cíborg, esos HNA colaborando, con una sonrisa, en mejoras que cambiarán el mundo. Lástima que aún no hayan encontrado la máquina que nos haga trabajar, como soñaba Wozniak en su adolescencia, cuatro días a la semana (la anécdota la repite en muchas de sus conferencias como una broma para atraer las risas del público), sino más bien aquellas que tienden a la sustitución y la precarización. A quienes ocupan sectores que pronto serán reemplazados por inteligencia artificial ya se les empiezan a denominar meat puppets, algo así como «marionetas de carne».

Capitalismo digital y hipsters

Marcus Barsoum, de dieciséis años, habla con la prensa tras ser uno de los primeros clientes en adquirir un  iPhone 7 en Sydney, 2016. Foto: Jason Reed/ Cordon.

Pero quizás lo más contradictorio de la utopía tecnológica haya sido su convivencia con un gramaje financiero que ha aprovechado y agrandado las prácticas de la vieja escuela. Hablamos de un universo que ha convertido en moneda común las macrofusiones, la competencia desleal con los mercados locales establecidos, el desvío masivo de capitales a paraísos fiscales o los tratos de favor de los Gobiernos (según el Parlamento Europeo, las ventajas fiscales ofrecidas desde Irlanda y Luxemburgo han causado en Europa un desvío de entre 54 500 y 76 400 millones de euros anuales en impuestos). Otros fenómenos como la deslocalización y precarización de la mano de obra, la extensión del autoservicio (el «hazlo tú mismo» que sustituye a cadenas previas de empleo) y el autoempleo han eliminado muchos de los derechos laborales tradicionales y profundizado en esquemas económicos sin garantías para el trabajador. Si, desde su nacimiento, la tecnología digital se aupó sobre un discurso utópico que concibe cada innovación como un paso más en el camino del progreso, su pretendida necesidad ha servido para justificar modelos empresariales que entienden cualquier restricción o demanda de responsabilidad social como un obstáculo para fines fuera de toda discusión.

En los países anglosajones comienza a hablarse de la gig economy y el gig employment (gig=bolo), cuya lógica del trabajo como complemento tiende a desplazarse al centro de la vida laboral de millones de individuos. La plataforma digital lo posibilita, externalizando el trabajo humano a ciertas acciones subsidiarias de aplicaciones que ofrecen la clave operativa y el canal de comunicación. Evgeny Morozov se refiere al «capitalismo de plataforma» para definir todo un modelo económico donde el proveedor de bienes o el creador de contenidos es vampirizado por el dispositivo de conexión y distribución: Google rastrea contenidos ajenos, Uber no tiene taxis, Airbnb no tiene alojamientos, Spotify no produce música, Ebay no tiene stock, Netflix, YouTube y Amazon podrían prescindir de productos propios… el éxito de esta nueva economía parecería derivado de la gestión de una ingente cantidad de trabajo ofrecido de manera gratuita.

La omniabarcadora industria de la información se ha convertido en el paradigma de la circulación y consumo de identidades, hasta producir su propio sujeto en la forma del hipster, quien recoge el testigo del yuppie como detentador del Zeitgeist actual. Eso sí, en vez  de ocupar un despacho en el bajo Manhattan y trasladarse en limusina, comparte piso y se traslada en fixie. Mucho se ha dicho del hipster y en tono, normalmente, peyorativo: que si es superficial, políticamente conservador, elitista, clasista, esnob, individualista, insolidario, gentrificador, un monigote del que se ha anunciado su deseada muerte en mil ocasiones, un cínico que redime al sistema a través de su consumo «consciente»: organic, ecofriendly, reusable, fair trade… Pero ¿cómo retratar un conjunto tan heterogéneo?, ¿y cómo evitar la superioridad moral de quien traza la descripción? En palabras de Linton Weeks, con hipster designamos una «omnicultura» capaz de extenderse por incontables muestras de la producción de identidades actual, una especie de cajón de sastre donde caben, en mayor o menor medida, todos los estereotipos comercializables. Más que definir una categoría cerrada, una tribu urbana con rasgos de identidad como los de antaño, lo hipster señala una gradación: más hipster, menos hipster, que nos incluye a todos y que, por eso mismo, negamos. Y es que el hipster, como el infierno, son siempre los otros.

Acabemos: las tecnologías que usamos, y mucho más las tecnologías de la información configuran, como afirma Tim Wu, uno de los factores más decisivos del moldeamiento individual y social. Un Wu que, en El interruptor principal, analiza cómo cada industria de la información ha evolucionado desde unos inicios en los que se presentaba como la nueva promesa de libertad y progreso a la adopción de una posición dominante que termina por impedir otras innovaciones y tomar por rehenes a sus clientes. Es lo que Richard Barbrook y Andy Cameron describen como el tránsito «del ágora electrónica», un entorno de comunicación horizontal y abierta, al «mercado electrónico» que establece con claridad la relación entre empresa y consumidores. Parecería que la ideología californiana ha evolucionado de unos orígenes rupturistas a la progresiva absorción de su potencial por la dinámica de los negocios, cada vez más alejada del hacker que interrumpe el sistema y más incorporada a los intereses financieros de los gigantes tecnológicos.

En la presentación de su Iphone7 a finales del año pasado, Apple anunció la salida al mercado, en colaboración con Nike, de su Apple Watch. El dispositivo resume perfectamente las características del último modelo de HNA; su necesidad ininterrumpida de conexión y su devoción por el alto rendimiento deportivo. Apple Watch cuenta, además, con una capacidad de cincuenta metros de inmersión, por lo que presupone un sujeto experto en submarinismo y otros deportes de riesgo, un adicto a la adrenalina que transita entre la oficina virtual y el último Iron Man en alguna isla del Pacífico (y que, si se lo propone, hasta cierra presupuestos mientras corre el Iron Man). Trevor Edwards, presidente de Nike, resumía el giro ideológico al emplear desde el escenario un lema calculado y mucho menos ambicioso de lo habitual para los de Cupertino. El propósito corporativo de ambas marcas consiste en «Hacer la vida más fácil y divertida» («Make life easier and more fun»), una declaración alejada de las utopías revolucionarias de hace unos años. Tras el asalto al poder, toca conservarlo.

_______________________________________________________________________

(1) Retomo el concepto que acuñó el Che Guevara en El socialismo y el hombre en Cuba (1965): «Haremos el hombre del siglo XXI: nosotros mismos. Nos forjaremos en la acción cotidiana, creando un hombre nuevo con una nueva técnica. La personalidad juega el papel de movilización y dirección en cuanto que encarna las más altas virtudes y aspiraciones del pueblo y no se separa de la ruta. Quien abre el camino es el grupo de vanguardia, los mejores entre los buenos, el Partido».


Ha llegado el fin de la publicidad (y ya era hora)

Imagen: Daniel Oines (CC)
Imagen: Daniel Oines (CC)

Abres un periódico y está ahí. Enciendes la televisión, y no dan otra cosa. Cambias de canal y lo mismo. Pones la radio y más. Escuchas un podcast, y te interrumpe de nuevo el mismo anuncio de coche que llevas oyendo desde hace una semana. Abres YouTube para ver un vídeo que anhelas desde hace rato y no es el vídeo que esperas, es lo de siempre, un producto que no te interesa. Lees un artículo precioso y, entre líneas, asoma el hocico de nuevo, ya sea forma de banner lateral o vertical, o cualquier otro ardid que te impide leer con normalidad.

Es como un parásito que está en todos sitios, en cualquier clase de fragmento de información audiovisual o escrita. Hagas lo que hagas, pam, ahí está. Y si desapareciera, todo se desmoronaría y no habría ni radio, ni televisión, ni revistas, ni nada. Como si eso, esa maldita cosa, ese mensaje machacón, fuera el puñetero andamiaje de la cultura.

Me refiero, como habréis deducido por el título de este artículo, a la publicidad, que ya ha adquirido el estatus de metástasis y, como tal, está también a punto de matar al huésped. Una de las mejores síntesis sobre este proceso de depredación informativa la ha realizado, como nos tiene acostumbrados, la serie de televisión South Park (19×09).

Los espacios dedicados a la publicidad no dejan de crecer y adquieren formas cada vez más grotescas. El pastel publicitario es cada vez más pequeño, cada vez hay más competencia, los ingresos menguan… y eso obliga a llevar a cabo campañas más invasivas. Hasta el punto de que, en ocasiones, es difícil diferenciar publicidad de información. ¿El presente artículo será una suerte de promoción de algún producto o servicio? Tal vez.

Afortunadamente, el fin está cerca. La publicidad está a punto desaparecer por dos motivos. El primero: no es efectiva (o no tanto creíamos), porque es más descriptiva que prescriptiva. El segundo: los contenidos no necesitarán de publicidad para mantenerse y, de continuar existiendo, no será exactamente publicidad, sino información que nos gustará leer (de verdad).

Cuando toda la publicidad empezó a ser spam

Hasta hace poco, el spam se circunscribía al ámbito de esas herencias príncipes nigerianos o anuncios de Viagra que nos llegaban a través del correo electrónico. Muchos de esos reclamos eran enviados directamente a la papelera de reciclaje por nuestro gestor de correo.

El problema es que el spam ha alcanzado ya prácticamente todos los ámbitos de la publicidad. Hay medios en los que la invasión de banners, pop-ups y flechas, enlaces o imágenes nos obligan a pinchar sobre cosas que no queremos, y acceder a páginas de venta, a timos piramidales, a encuestas y un sinnúmero de ardides para obtener dinero o información de nosotros. En algunas páginas ilícitas de descargas de películas, por ejemplo, debemos conducirnos con el mismo cuidado que si atravesáramos con un campo de minas: cualquier paso en falso y se descargará un archivo distinto a la de la película, como un troyano, o llegaremos a otra página que nos conmina a suscribirnos a quién sabe qué.

Algunos periódicos digitales ya están adoptando esta estrategia. Y otros medios constituyen elaboradas máquinas de ingeniería psicológica para obtener visualizaciones y clics de los usuarios, llamado su atención con proclamas que empiezan a tener ya la misma estructura: «Esta chica se acuclilló para orinar y no sabes lo que le pasó» y cosas así.

El abuso está a punto de devaluar no solo la publicidad, sino la propia información. El universo de gatitos y vídeos chorras que puebla el timeline de Facebook parece haberlo contaminado TODO. Sin embargo, ese abuso solo pone en evidencia los últimos coletazos de un modelo de negocio que en unas décadas nos resultará aberrante: que la información que consumíamos a través de cualquier medio existía gracias al dinero de marcas comerciales. Y más aún, tal y como ha llegado a escribir Jeremy Rifkin en su libro La sociedad del coste marginal cero: «La publicidad ha sido la fuerza motriz del sistema capitalista desde sus inicios».

Imagen: DP.
Imagen: DP.

La publicidad nunca te ha obligado a nada

Si bien es cierto que ahora no somos tan inocentes como los consumidores de hace un par de décadas, o que internet ha cambiado las reglas del juego, la publicidad nunca ha surtido el efecto lava-cerebros que se empeñan en mantener las empresas de marketing.

La publicidad tampoco opera a nivel subliminal, logrando que adquiramos cosas sin advertir de donde nace nuestro deseo, por mucho que se invoque el libro Las formas ocultas de la propaganda, de Vance Packard, donde se menciona el experimento del publicista James McDonald Vicary, de 1957. En él, se introducían fotogramas ocultos en un filme llamado Picnic donde se conminaba a beber Coca-Cola y comer palomitas. Según Vicary, las ventas subieron un 18% en el caso de la Coca-Cola y un 58% en el caso de las palomitas.

En realidad, Vicary admitió años más tarde que había manipulado los resultados. Actualmente, el mayor metaánalisis jamás realizado sobre esta tesis fue el de Trappery en 1996, donde se analizó el resultado de 23 experimentos diferentes. Ninguno demostró que los mensajes subliminales surtan efecto alguno en el comportamiento, si bien podría matizarse que hay algunos casos donde parece que sí puede originarse alguna influencia, según recientes estudios (en cualquier caso, es lo de menos: lo importante es que ni siquiera hay aún consenso científico sobre un asunto que en el mundo de la publicidad parece darse por válido sin más).

En realidad, todo es mucho más complicado. Entre el punto A (el anuncio) y el punto B (el deseo de adquirir el producto del anuncio) no hay un solo paso trazado por una línea clara y definida, sino múltiples pasos zigzagueantes jalonados de nodos que influyen continuamente, como explico más extensamente en «¿La publicidad moldea el cuerpo de las mujeres?».

Si bastara con concebir un anuncio persuasivo para que la gente comprara un producto, el negocio de vender objetos sería, generalmente, muy rentable. Quienes invierten en bolsa o en el ladrillo solo deberían invertir en potenciar la publicidad de cualquier producto. Sin embargo, la mayoría de empresas no duran más que unos pocos años en el mercado. Incluso productos de consumo masivo como la cerveza cada vez tienen menos éxito frente al vino en países como Estados Unidos, a pesar de que la inversión publicitaria en la cerveza es cada vez más alta.

Algunas empresas prefieren regalar sus productos a determinadas personas con influencia social para que los prueben y hablen bien de ellos si les apetece, porque han empezado a descubrir que no compramos cosas que no necesitamos más que por una razón: para ser aceptados por los demás, por quienes nos importan. Nike regalaba hace algún tiempo sus zapatillas deportivas a los líderes afroamericanos de las canchas de baloncesto de Nueva York para que se las pusieran y, por imitación, otros afroamericanos también las usaran. También, por imitación, los blancos que quieren molar tanto como ellos puede que también las adquieran. Porque son las densas redes sociales las que configuran nuestros gustos, y no un anuncio publicitario.

Como admite incluso una persona que se dedica profesionalmente al marketing, como es Jonah Berger, en su libro Contagioso:

Visitamos páginas web que nos recomiendan nuestros vecinos, leemos libros ensalzados por nuestros familiares, votamos a los candidatos que apoyan nuestros amigos. El boca a boca es el factor principal que determina entre el veinte y el cincuenta por ciento de todas las decisiones de compra.

En muchas ocasiones decidimos adquirir una cosa sencillamente porque los demás lo hacen, asumiendo (quizá erróneamente) que tanta gente no puede andar equivocada. Conducir por la derecha o por la izquierda es un ejemplo clásico: «He aquí un caso en el que realmente uno no quiere ir contra corriente», señala el psicólogo cognitivo Steven Pinker en su libro Los ángeles que llevamos dentro.

El matemático Duncan Watts, por ejemplo, creó dos versiones de una página web donde se podía descargar música rock: en una versión no se veían la descarga de cada canción, pero en la otra sí. En la primera página apenas había diferencias de popularidad entre las canciones, pero en la segunda, los usuarios tendían a descargar las canciones con más descargas, convirtiéndolas a su vez en las más descargadas, originando un efecto bola de nieve.

Muchos productos que todo el mundo consume puede que emitan caros spots publicitarios (como Coca-Cola), pero tal vez estamos confundiendo correlación con causalidad: quizás Coca-Cola se vende mucho porque mucha gente suele beber Coca-Cola, no porque se anuncie más. Pepsi, por ejemplo, también invierte una generosa partida presupuestaria en publicidad, pero vende menos (aunque en catas a ciegas, donde el consumidor no sabe si bebe Coca-Cola o Pepsi, el consumidor admita que le gusta más la Pepsi a pesar de que previamente haya afirmado que prefería Coca-Cola). Starbucks, por ejemplo, es un ejemplo clásico de servicio que no gasta en publicidad y, sin embargo, es tremendamente popular.

Otro ejemplo de cómo la psicología influye más en los gustos y preferencias que la publicidad es el precio del vino: el mismo vino nos resultará más atractivo al paladar si se indica que es más caro, como sugieren diversos estudios al respecto. Unos resultados que incluso tuvieron lugar con catadores de vino relativamente expertos, como es el caso de los miembros del club vinícola de la Universidad de Stanford.

Imagen: DP.
Imagen: DP.

Publicidad que no será publicidad

Una hora de programación en televisión implica, de media, unos ocho minutos de publicidad, que son los que pagan el programa. Tal y como explica Eduardo Porter en El precio de lo gratuito:

En 2009, por ejemplo, los anunciantes afirmaron haber pagado unos doscientos treinta mil dólares por un spot de treinta segundos en la serie de ABC Mujeres desesperadas. A ese precio cada uno de los 10,6 millones de hogares que veían Mujeres desesperadas tenía un valor para la cadena de setenta y nueve centavos.

Estas tarifas son asombrosamente altas teniendo en cuenta que ni siquiera hay estudios rigurosos que demuestren que los anuncios persuadan a la gente para comprar. Más bien al contrario. Sobre todo porque solemos confundir la popularidad de un anuncio con el hecho de que finalmente se adquiera el producto que anuncia, como sucedió con el vídeo de Evian de los bebés patinadores: recibió millones de visitas, y entró en el Libro Guinness de los récords como el anuncio más visto en la historia de internet. Ese mismo año, no obstante, Evian perdió cuota de mercado y sus ventas cayeron casi un 25%.

¿Por qué hubo, entonces, esta escalada de anuncios en televisión? La respuesta corta es que la gente consumía cada vez más televisión, como señala Chris Anderson en su libro La economía Long Tail:

Después de la desregulación en Estados Unidos a mediados de los años ochenta, el tiempo de los anuncios por hora en las cadenas de televisión aumentó de seis minutos y cuarenta y ocho segundos en 1982 a doce minutos y cuatro segundos en 2001 (un incremento del aproximadamente un cincuenta por ciento). ¿Por qué? Porque el público miraba cada vez más la televisión, aunque cuando el espacio de los anuncios iba en aumento.

Todos creían que podían aprovecharse de esa cuota de atención de la gente, y lo hicieron. Pero esa cuota de atención era irreal: las personas veían más la televisión, anuncios incluidos, porque no había alternativa. Desde hace unos pocos años, sin embargo, la gente está consumiendo cada vez menos horas de televisión en todo el mundo, como analiza extensamente Clay Shirky en Excedente cognitivo. La razón es que ya hay alternativas, como internet. Y ello también pone en evidencia que la gente no era tan feliz viendo la televisión: en cuanto apareció otro medio en el que, además de consumir pasivamente, podía hacerlo activamente, dejó atrás la caja tonta.

Las alternativas al consumo pasivo de la televisión, desde entonces, no han dejado de proliferar: TiVo, Netflix, YouTube, Hulu y otros servicios cuyo efecto secundario es socavar a marchas forzadas este modelo de negocio que se basaba, como hemos visto, en una serie de premisas falsas desde el punto de la sociología más elemental. Sí, porque estábamos deseando que apareciera una cosa mejor que la televisión para dejar de verla. Porque estábamos deseando un mundo sin anuncios para dejar de verlos de una vez por todas.

Imagen: DP.
Imagen: DP.

Prosumidores

Hay otra fuerza que devalúa la publicidad: gracias a que internet está empoderando a las personas para que lleven a cabo proyectos que antaño solo eran posibles gracias a una fuerte inversión económica (blogs, Wikipedia, Linux, etc.), se abre un horizonte de abundancia de contenidos y servicios que abarata no solo la producción, sino la distribución y el consumo de los mismos. Mucha gente ofrece su tiempo, como los editores de Wikipedia o los subtituladores de series y películas que no han sido dobladas al español, sin recibir nada a cambio, salvo reputación virtual. Y más aún: estamos entrando en una era de prosumidores.

Los consumidores pasivos son ahora prosumidores de información, conocimiento y entretenimiento (y dentro de poco incluso de productos impresos en 3D o de energía). Esta nueva economía se basa en colaborar y compartir y prefiere el acceso a la propiedad. Ello afecta directamente al poder de la publicidad, ya de por sí cuestionado, porque los consumidores se fían más que nunca de sus semejantes a la hora de adquirir nuevos productos y servicios, no de los banners, ni de los anuncios caros con estrellas de Hollywood, ni de cualquier otro spot tradicional, como señala Rifkin:

Y puesto que la economía social del procomún es distribuida, colaborativa y entre iguales, las decisiones económicas están menos determinadas por las campañas publicitarias que por las recomendaciones, las revisiones y los «me gusta» o «no me gusta» de los «amigos» y «seguidores» de Facebook, Twitter, YouTube y centenares de otras redes sociales.

Antes no teníamos otra fuente de información sobre los productos y servicios que la de nuestros allegados 1.0 (un puñado de personas muy poco representativo) y lo que nos decían las campañas de publicidad (información poco objetiva y veraz). Ahora, sin embargo, podemos acceder a las opiniones de millones de personas. Si bien es cierto que algunas empresas empiezan a manipular la imparcialidad de dichas opiniones, como las que hallamos en Foursquare o Tripadvisor, ello solo evidencia que ya se han dado cuenta de dónde está el poder prescriptivo: en los pares o semejantes, no en las campañas de marketing de personas que quieren llevarse nuestro dinero.

Como ya sugería un estudio publicado en el año 2012 por parte de IBM Global Business Service, titulado precisamente como The End of Advertising as We Know it (El final de la publicidad tal como la conocemos), los procomunes de internet «ponen en peligro las fuentes de ingresos de los distribuidores y agregadores tradicionales de contenidos».

Y esto solo es el principio. En internet los usuarios ya consideran la publicidad como una intromisión. Yo no recuerdo haber visto jamás un anuncio completo de los que aparecen al principio de un vídeo de YouTube: en cuando aparece la opción «saltar publicidad», le doy ipso facto. Cuando no puedo hacerlo, no presto atención al vídeo y hago otra cosa, o directamente cierro el vídeo y busco otro. Como explica Eric Clemens, profesor de operaciones y gestión de la información de la Wharton School, la misma naturaleza social de internet impide su explotación comercial.

El índice de crecimiento de la publicidad en internet ha bajado del 23% entre 2010 y 2011 a solo el 14% entre 2011 y 2012, y cada vez lo está haciendo más deprisa. General Motors dejó de anunciarse en Facebook porque sus anuncios tenían escaso impacto en la venta de turismos (si bien recientemente ha vuelto a intentarlo).

Todo esto no significa que la publicidad desaparezca, sino que lo hará en la forma en que ha existido hasta ahora. Vaticinar de qué forma se metamorfoseará la publicidad o cómo se financiarán los contenidos, básicamente, se parece a consultar a Sandro Rey: a medida que la tecnología evolucione (y lo hace cada vez más deprisa), los modelos cambiarán. En cualquier caso, ahí van algunas ideas al vuelo:

1. Publicidad útil: si al abrir un vídeo de YouTube debo ver, a modo de peaje, el tráiler cinematográfico de un estreno próximo seguramente lo veré de buena gana, porque es algo que estaría dispuesto a ver en otras condiciones. Es decir, que la publicidad no funciona porque no está perfectamente segmentada. A medida que los algoritmos para reconocer nuestros gustos y preferencias se afinen, la publicidad será más información que nos interesa que verdadera publicidad. La empresa Acxiom, por ejemplo, ya usa los datos que generamos con nuestro smartphone para proporcionar publicidad basada en nuestro comportamiento y publicidad predictiva. Puede que en breve nos anuncien cosas que ni siquiera éramos conscientes de que pudieran interesarnos tanto.

2. Venta de datos: ya sea para conocer mis gustos mejor y, por tanto, anunciarme productos que verdaderamente me interesan, ya sea para mejorar el cálculo de una póliza de seguros, mis datos cuestan dinero y puedo usarlos para pagar los servicios que consumo. Cuando mi app para gamificar mis salidas para practicar running detecta, a través de geolocalización, que siempre paso por la misma avenida, y que esa avenida, a su vez, está continuamente transitada por otros runners, esos datos estadístico pueden venderse a Nike para que instale un cartel en la calle anunciando sus nuevas zapatillas. Lejos de acerbas disquisiciones sobre la privacidad (Jeff Jarvis, en Partes públicas, ofrece una visión digna de tener en cuenta que evita los clichés), la mayoría de usuarios ya están cediendo sus datos para usar gratuitamente plataformas como Google, Facebook o Twitter, e incluso juegos como Candy Crush o Angry Birds, como explica Marc Goodman en su libro Los delitos del futuro:

La oportunidad de poseer todos tus datos móviles fue el motivo que impulsó a Google a crear su sistema operativo para teléfonos móviles Android y entregarlo de manera gratuita tanto a los desarrolladores como a los usuarios. […] Google no perdió el tiempo en rellenar una solicitud de patente bajo el epígrafe «publicidad basada en condiciones ambientales». Ahora Google puede detectar si estás en una ubicación donde hace calor y, en función de ello, presentarte un anuncio de aire acondicionado o de helado.

3. Universo Freemium: los contenidos tienen publicidad a menos que pagues una cuota mensual para eliminarla, tal y como ya suceden en muchas apps gratuitas.

4. Product Placement interactivo: Hulu, una plataforma similar a Netflix que todavía no ha llegado a España, permite detener la imagen de cualquier serie y, simplemente pasando el ratón por encima de un personaje, nos informa de quién es mediante un pequeño resumen biográfico. Imaginemos que podemos hacer lo mismo sobre cualquier objeto que aparezca en una serie o una película, y que pinchando en él podemos adquirirlo a un módico precio. Todas las producciones audiovisuales recibirían un porcentaje de esas ventas. Las marcas podrían pagar más por aparecer en una producción habida cuenta de que los consumidores serían más activos a la hora de investigar acerca de todo lo que aparece en pantalla. Yendo un poco más allá: ¿sería posible que parte de la decoración estuviera realizada digitalmente con objetos mercables personalizados en función de los parámetros del usuario?

5. Suscripción: Pagar directamente por plataformas que ofrezcan contenidos interesantes sin publicidad, sin horarios y sin esperas. Así como Netflix y HBO ya crean sus propios contenidos para obtener más suscripciones, otras empresas de telecomunicaciones, como Telefónica, podrían hacer lo propio: a ellas les interesa que contratemos más ancho de banda y la mejor forma que tienen de conseguirlo es produciendo o financiando contenidos que puedan llegar hasta nosotros a través de sus cables de fibra óptica.

6. Monitorización del éxito: las primeras transmisiones de radio comercial estadounidense de la década de 1920 «era el único medio de entretenimiento que no cobraba por el contenido», explica Bill Bryson en 1927: un verano que cambió el mundo. En aquella época, la radio era un medio de comunicación muy costoso, pero la idea de usar la publicidad para financiarla, tal y como ya ocurría en periódicos y revistas, tardó mucho en arraigar porque se consideraba un medio efímero. Por otra parte, Herbert Hoover se oponía a ello, considerando que la radio debía dedicarse a propósitos más nobles. Antes de que acabara la década, la radio ya empezó a probar las mieles de los astronómicos beneficios que podían aportar la publicidad. Lo importante, sin embargo, es que la radio pudo existir sin publicidad, como actualmente existe Wikipedia. Si, como Hoover, consideramos que la información es importante, ¿por qué no sufragarla entre todos?

Actualmente destinamos grandes partidas económicas en mantener televisiones públicas o producir películas, pero esas inversiones distan de ser rentables para el público porque su uso es discrecional. También SGAE, CEDRO y otras entidades de gestión de derechos llevan a cabo repartos económicos opacos. Ahora imaginemos que tomamos todas esas partidas, y otras destinadas para fomentar la cultura, y creamos un sistema de monitorización perfecto del consumo de contenidos. Una suerte de Spotify cultural en el que cada autor recibe una cantidad mínima de dinero de dichos impuestos cada vez que un usuario consuma su contenido. Incluso podría añadírsele un sistema de micromecenazgo, algo así como la X que todos ponemos para fines sociales.

7. Abundancia: finalmente, el coste marginal de la copia y distribución de contenidos en forma de bits es próximo a cero, lo que equivale a que cada vez haya más personas creando contenidos y, muchos de ellos, no lo hacen a cambio de dinero, sino de otros incentivos, como la reputación o el simple entretenimiento. La mayoría de contenidos no pueden competir con los contenidos profesionales, pero si bien el porcentaje de contenidos amateur supera o completa de algún modo la atmósfera profesional, la cantidad es tan abrumadoramente gigantesca que cada vez se devalúa más el contenido profesional. Wikipedia, realizada por personas en su tiempo libre, ha dejado sin trabajo a los enciclopedistas profesionales.

Es difícil que ocurra lo mismo en todos los contenidos, pero el descenso del coste y la facilidad de crear microaudiencias que traduzcan la reputación obtenida en otros trabajos remunerados, reducirá ostensiblemente el número de contenidos sostenidos por la publicidad. Todos los modelos de negocio que han existido hasta hace apenas una década estaban basados en la escasez, se impone un cambio de paradigma basado en la abundancia, como explica más ampliamente Clay Shirky en su libro Excedente cognitivo, Chris Anderson en Gratis o, incluso, Peter H. Diamandis en Abundancia.

Los contenidos del futuro podrían financiarse con uno, dos o la mezcla de todos los modelos de negocio anteriormente presentados, y probablemente con muchos otros que irán apareciendo a la vez que se desarrolla la tecnología. Lo que queda bastante claro es que ya hemos dejado atrás la era de anunciar lo mismo a todo el mundo de forma machacona bajo el prisma de que le convencerás para comprarlo aunque no lo necesite o no le sea útil. Y ya era hora.


¿Internet está matando a la música? Sí, como era de esperar

Foto: Corbis.
Foto: Corbis.

Ya no hay manera de relativizar el asunto con los supuestos beneficios colaterales; internet está destruyendo la industria discográfica. Desde 1999 los ingresos no han dejado de caer. Son, más o menos, la mitad de lo que eran entonces. Esto es una caída enorme, supone que el 50% de todo un negocio ha desaparecido en tres lustros. ¿La paradoja? No se escucha menos música que en 1999. Al contrario, se escucha bastante más. En 2015 se vendieron más singles que en cualquier año del periodo 1994-2002, considerado el de mayor apogeo de la industria discográfica en toda su historia. Eso supone unas veinte veces más singles vendidos, ¡que no es poco! Eso sí, la mayoría de esas ventas son digitales y su margen de beneficio es muy, muy escaso. Peor aún: los álbumes en formato de CD siguen siendo la principal fuente de ingresos, pero sus ventas han caído, como poco, a un tercio de lo que fueron. En consecuencia, el balance de beneficios es hoy una tercera parte de lo que era hace quince años. Esto parece preocupar poco al público, pero produce una merma considerable en la calidad de la nueva música disponible. En el futuro, cuando estudien nuestro tiempo, quizá se pregunten por qué la creatividad musical sufrió un bajón tan considerable con el cambio de siglo. La respuesta es simple: internet.

Música grabada sí, pero a ser posible gratis

El único sector de la industria musical en el que la facturación ha aumentado es el de los conciertos. Incluso pese a la crisis. En la lista histórica de las veinte mayores giras según su asistencia media de espectadores, solamente dos (Rolling Stones y Pink Floyd) fueron giras anteriores al año 2000. Y nada menos que ocho son posteriores al año 2009, cuando la crisis había golpeado a todo el mundo. Además los precios de las entradas no han dejado de subir. Dicho en otras palabras: la gente está más dispuesta que nunca a pagar por una experiencia en vivo. Sin embargo, a ese mismo público se le hace cuesta arriba pagar por el contenido musical en sí. Esto pone al negocio discográfico contra las cuerdas. Porque claro, la experiencia de un concierto no se puede descargar por internet, si alguien quiere vivirla tiene que rascarse el bolsillo. Sin embargo es muy fácil descargarse cualquier disco.

Dentro de los espectáculos, la vulnerabilidad frente a internet no es exclusiva del mundo musical, pero sí le ha afectado con particular crudeza. La industria del cine, en el mismo periodo de quince años, ha aumentado sus ingresos totales un 30%. La venta de entradas para ver películas ha caído a causa de internet, esto es verdad, pero no tanto como para hundir los ingresos. En toda la historia del cine, el único competidor que realmente consiguió hundir los ingresos del cine fue la televisión: cuando en los años cincuenta empezó a haber televisores en las casas, la venta de entradas para el cine se pegó un batacazo del que nunca se recuperó del todo. Hoy mismo, en pleno 2016 y con un enorme crecimiento de la población, el cine sueña con llegar a vender el mismo número de entradas que vendía durante la Segunda Guerra Mundial. Aun así, desde entonces el cine ha permanecido incólume frente a casi todo. El VHS, que produjo mucho miedo a la industria en su día, no tuvo un efecto decisivo sobre el cine, como tampoco la popularización de los ordenadores o del DVD. La piratería online ha hecho daño, desde luego, pero por el momento no es una amenaza de muerte. La mejora en imagen y sonido de las salas sigue siendo algo con lo que la televisión o internet, al final, no pueden competir. No hasta el punto de llevarse todo el público. La gente sigue queriendo ir al cine y paga por una experiencia que no se puede duplicar en casa, como sigue pagando por acudir a determinados conciertos o festivales.

Y que, como decía, es más difícil colarse en un concierto que descargarse un disco. La actitud del público es algo sobre lo que la industria musical ya no se engaña. No esperan un gasto destinado a apoyar un bien cultural. Ni siquiera en directo. Quien piense que la gente paga entradas de conciertos para ayudar a sus artistas, que le eche un vistazo al extraordinario documental sobre el festival de la isla de Wight, celebrado en 1970. El promotor se dejó las pestañas para tener allí a Jimi HendrixThe WhoMiles DavisThe Doors, y una lista enorme de nombres importantes con la que ningún festival actual puede soñar. Pues bien, el perímetro de seguridad del recinto fue quebrantado, la gente que acampaba fuera y que no había pagado entrada empezó a entrar en tropel. Se suele hablar de la violencia en el festival de Altamont como la muerte del sueño hippie, pero lo de Wight (salvando el derramamiento de sangre, claro) no se quedó atrás. Las cámaras registraron un momento absolutamente impagable: el promotor Rikki Farr, que también estaba actuando como presentador del festival, se acercó al micro del escenario principal y, visiblemente alterado, pronunció unas palabras inmortales: «¡Hemos montado este festival para vosotros, cabrones, con un montón de amor! ¡Hemos trabajado durante todo un año para vosotros, cerdos! ¿Y ahora queréis derribar las vallas y destruirlo todo? ¡Bien, pues idos al infierno!». Al final, para evitar males mayores, terminó anunciando la apertura de puertas mientras hacía el gesto de la paz con «Amazing Grace» sonando al fondo. La moraleja que el festival de Wight dejó para la posteridad es esta: si la gente puede evitar pagar por la música, aunque para ello haya de perjudicar los intereses de la industria y de los propios músicos, lo hará. Y los promotores aprendieron una valiosa lección, la seguridad es muy importante.

Pero en internet la seguridad es mucho más difícil de mantener, sobre todo por cuestiones técnicas. Muchos (la mayoría, espero) somos partidarios de un internet abierto y libre, donde los Gobiernos metan la mano lo menos posible. Sin embargo, para algunos negocios legítimos esa falta de seguridad ha sido letal. De todos modos, el debate moral es algo que queda para el análisis personal de cada uno. Todos, o casi todos, hemos consumido material cultural pirata. Cada cual sabe por qué y en qué circunstancias. Pero insisto, no es mi intención entrar en la cuestión ética. Lo que sí interesa son los datos y en ese sentido hay poca discusión posible: internet está matando a la industria musical, por estrangulamiento. Las cifras hablan por sí solas y está por ver en qué circunstancias habrá de afrontar su porvenir.

La guerra de Napster: toda resistencia es inútil

En 1999 se lanzaba al mundo un servicio llamado Napster, con el que cualquier usuario que poseía la versión digital de una canción podía compartirla con otros mediante el P2P, intercambio directo de archivos entre internautas. En su día, recuerdo bien, había no poca gente que defendía la tesis de que compartir MP3 era una especie de ideal de justicia, por más que no se aplique a casi ningún otro producto. Por ejemplo, a nadie se le ocurre que sea legal poder entrar en casa de un vecino y vaciarle la nevera. Porque claro, la comida no se puede clonar y le provocaríamos un serio perjuicio. Tampoco iríamos a robarle una barra al pobre panadero. Pero ¿las discográficas y los artistas? Bah, ya ganaban bastante dinero. Al contrario que una barra de pan, un MP3 podía copiarse indefinidamente, el que lo compartía no perdía su versión y eso hacía que la gente se sintiera generosa. La industria, sin embargo, no lo veía tan claro. No se llevaba un dólar de lo que circulaba por Napster. Es más, pensaba que iba a dejar de ganar mucho dinero por ventas que ya no se efectuaban. Los partidarios de Napster respondían con ironía, recordando las antiguas advertencias de que el casete virgen mataría la industria musical. Pero el casete virgen no era gratis, había que comprarlo, y había que tener un equipo de música que, al contrario que un ordenador, no servía para mil cosas más para amortizar la inversión de inmediato. Y un casete no se podía duplicar indefinidamente; la gente se grababa música y le grababa música a otros, pero después de varias copias aquello perdía mucha calidad, por lo que se intentaba tener acceso al disco o cinta original. Y muy importante: solamente podía grabarse música de quien se tenía cerca —amigos, familia pero no de cualquier persona en cualquier rincón del globo. Paradójicamente, para mantener cierto nivel de piratería con sonido de cierta calidad, la gente necesitaba seguir comprando discos.

Lo de Napster era distinto. Ya no había límites para copiar música, ni en cuanto a calidad ni en cuanto a geografía. Así que empresas, y de modo muy sonado ciertos artistas, declararon la guerra a Napster. Recordarán que Metallica fueron unos de los más activos, tras descubrir que algunas de sus canciones circulaban por Napster incluso antes de haber sido editadas oficialmente. Por entonces muchos usuarios jóvenes de internet se pusieron del lado de Napster, quizá por una idea romántica del intercambio cultural, o quizá porque el portavoz de Metallica era Lars Ulrich, que no le cae bien a casi nadie. También, todo hay que decirlo, porque la industria musical tenía una merecida mala fama; los discos eran muy caros y las compañías se enriquecían con precios abusivos mientras, todos lo sabíamos, había una larga tradición de artistas que no cobraban lo que merecían. Sumemos que las entradas de conciertos eran cada vez más caras por la intromisión de empresas intermediarias; algunos recordarán que en 1994 Pearl Jam demandaron sin éxito a Ticketmaster. Vamos, que estar contra la industria era casi una afirmación política. Pero con mala fama o no, y por una vez en su vida, los argumentos de Ulrich y del propio negocio tenían sentido: el disco es el producto fundamental del músico en el mercado y mecanismos como Napster amenazaban con inutilizar ese producto. Otros artistas como Dr. Dre iniciaron una campaña como la de Metallica, y después, ya con más medios legales, se sumaron las grandes discográficas: Sony, Universal, Warner Bros, EMI y BMG. En febrero de 2001, cuando Napster alcanzó su máxima difusión con ochenta millones de usuarios, el problema para la industria era considerable. Podía atribuirle millones y millones de dólares en pérdidas.

Lars Ulrich en el juicio contra Napster. Foto: Corbis.
Lars Ulrich en el juicio contra Napster. Foto: Corbis.

Aun así, los partidarios de Napster aseguraban que el intercambio libre podía beneficiar a la industria musical mediante la promoción gratuita. El ejemplo paradigmático fue la banda estadounidense Dispatch, una especie de Mano Negra en versión trío que, partiendo de la nada y sin el apoyo de los canales promocionales convencionales, llegaron a efectuar una gira con más de cien mil espectadores, todo gracias al boca a boca sobre su música, en teoría facilitado por el P2P. Hubo incluso algunos artistas consagrados que hablaron en términos positivos de las posibilidades promocionales de Napster, que pensaban podía favorecer a los artistas independientes y las pequeñas discográficas frente a la maquinaria corporativa de las multinacionales, de las grandes radiofórmulas, de la MTV y los demás gigantes del mainstream. El aura romántica de Napster aumentaba en países como España, donde la SGAE, con ayuda de los Gobiernos, se empeñaba en imponer un tétrico canon universal sobre los soportes como el CD virgen. Pero ninguna de estas defensas de Napster, casi todas con carácter más bien filosófico o con un componente de cabreo justificado, podía esconder el hecho de que los usuarios de Napster se apropiaban de algo que no era suyo. Legalmente, al menos en la mayor parte de países, descargarse música era el equivalente de robar y resultaba difícil maquillarlo. Napster no sobrevivió al asalto. A última hora intentó llegar a acuerdos con la industria para formalizar un servicio de pago con el que pudiese abonar su parte de derechos de autor, al modo de lo que hoy hace Spotify, pero era demasiado tarde: a las discográficas se les había metido entre ceja y ceja acabar con Napster a cualquier precio. El servicio de intercambio tuvo que cesar en julio del 2001. Sus partidarios no le retiraron sus simpatías; todavía recuerdo un artículo del 2003 en el que se hablaba de la ya difunta Napster como de una especie de Robin Hood abatido por el sistema, un sistema representado por las malévolas (que lo son, pero por otros motivos) discográficas multinacionales.

El cese de servicio del Napster original fue una victoria pírrica para la industria musical. El intercambio de archivos era ya una marea a la que no se podía poner diques y las ventas de discos continuaron cayendo. La multiplicación de imitaciones de Napster con sistemas de intercambio cada vez más sofisticados también ponía difícil el control técnico-legal. Aunque no habían querido tratar con Napster, las compañías discográficas entendieron finalmente que se estaban quedando sin salidas. Podían malgastar tiempo y recursos intentando detener lo inevitable, o podían tratar de salvar algún mueble del incendio, sacando provecho del formato digital con ayuda de nuevos actores. En 2003, Apple lanzó la tienda de música de iTunes, mostrando el camino que se podía seguir. En 2008 apareció Spotify, que ha ido probando diferentes sistemas de monetización. Esto no detuvo la sangría, desde luego. En 2003, cuando se lanzó iTunes, la industria discográfica estadounidense facturaba once mil millones de dólares, y diez años después esas ventas ya habían caído a siete mil millones. Las ventas de singles digitales, mucho menos rentables, sobrepasaban por más de un tercio a los CD. Pero incluso de manera legal es difícil rentabilizar la música en internet. Las plataformas que trataban de cumplir con sus obligaciones económicas hacia los artistas (Spotify) empezaron a pasarlo mal, o realmente nunca llegaron a tener beneficios que superasen las pérdidas.

Nuevos usos, viejos problemas

Spotify o YouTube pusieron de manifiesto otro fenómeno entre quienes recurrían a internet para buscar música: una buena parte de ellos prefieren escuchar música online sin tener que descargarla, básicamente por cuestiones de comodidad. Así que el streaming ha sustituido a la descarga. Esto tiene un lado buen y uno malo. El lado bueno es que facilita que la piratería sea atemperada por sistemas que funcionan mediante cuotas de suscripción y descarga, o mediante publicidad. La gente paga poco, o paga indirectamente, y recibe un catálogo musical cada vez más extenso. Sin embargo, la rentabilidad es muy, muy baja. En algunos casos, como el mencionado de Spotify, no hay rentabilidad sino pérdidas. Y cuando hay ganancia, quienes se benefician de ello, además de los proveedores de internet y empresas tecnológicas varias, son los de siempre: las grandes discográficas.

Lo de la plataforma YouTube es un tema ambiguo. En realidad se ha convertido en la gran herramienta de promoción que Napster, según algunos, pudo llegar a haber sido; muchos artistas y discográficas abrieron sus perfiles oficiales en YouTube para aprovechar ese potencial publicitario. Incluso ha habido artistas, pocos, que han alcanzado la fama internacional gracias a YouTube. Pero no deja de funcionar como una plataforma de intercambio, y continuamente vemos artistas que retiran su catálogo de YouTube. Otros, como Prince, tienen equipos dedicados a eliminar cualquier rastro de su música. Sin embargo, el que YouTube fuese adquirida por Google facilitó que la industria musical tuviese más cuidado a la hora de atacar. Pero no piensen que no despierta recelos entre las discográficas; los despierta, y muchos, solo que no es un blanco débil. Lo que para algunos era una extravagancia de Prince se está demostrando como un rasgo de clarividencia, y la industria musical mira a YouTube de reojo; incluso aunque la plataforma quiera colaborar, aunque suponga una gran herramienta de promoción, no deja de ser otro de los motivos por los que el negocio del disco se va hundiendo año tras año.

Hablando de blancos débiles, muchos recordarán cuando Taylor Swift, en una sonada maniobra, decidió retirar su catálogo de Spotify porque consideraba que la plataforma no estaba ofreciendo la debida compensación económica. El presidente de Spotify respondió a esto de manera muy razonable, defendiendo el derecho de los artistas a recibir la justa compensación por su trabajo pero recordándole a Swift que Spotify estaba pagando enormes cantidades de dinero a las discográficas en concepto de derechos de autor. Hasta Bono, cantante de U2, salió en defensa de Spotify. Y lo cierto es que esa plataforma siempre ha intentado hacer las cosas bien, por lo legal y cumpliendo con las normas. El problema es que está pasándolo muy mal a la hora de convertir su proyecto de difusión legal de música en algo rentable, porque sus pérdidas continúan creciendo más que sus ingresos. ¿La gran paradoja? Que los artistas no reciben los derechos que consideran justos. ¿Por qué? Pues lo de costumbre: las grandes discográficas se quedan todo lo que pueden. Porque continúan siendo los principales tiburones de la industria musical. Quienes en tiempos de Napster defendían la idea de que internet favorecería a los artistas independientes y a las compañías pequeñas ya saben que estaban equivocados. Las grandes discográficas son las que siguen teniendo el poder de negociación, de promoción, de canalización de su producto. Es verdad que han sufrido mucho por causa de internet. En 1999 había seis compañías discográficas que pudiéramos considerar grandes: Universal, Sony, Warner, EMI, Polygram y BMG. Hoy quedan solamente tres, porque Sony se fusionó con BMG, Universal compró Polygram y EMI quebró a causa de sus malas políticas, siendo sus restos absorbidos también por Universal. Sí, han sufrido como ha sufrido todo el negocio musical. Pero, dentro de él, continúan cortando el pastel. Aunque haya muchas compañías medianas o pequeñas, las tres grandes todavía se reparten bastante más de la mitad del negocio discográfico. Por este orden y redondeando cifras: Universal (30%), Sony (20%), Warner (15%). El resto del mercado, un 35%, se lo reparten todas las demás discográficas, a las que llamamos «independientes» aunque algunas ya se parecen más de la cuenta a sus hermanas mayores.

Así que las grandes discográficas continúan teniendo mucho poder y continúan abusando de sus artistas, aunque algunos de ellos, como la pánfila de Taylor Swift, se empeñen en culpar a Spotify (ya sea por iniciativa propia o actuando como títeres de su compañía discográfica). Siguen teniendo los mismos escrúpulos de costumbre. O sea, pocos. Muchas veces, las discográficas que lanzan artistas a lo grande deducen los gastos de promoción, producción, grabación, montaje de giras, videoclips y todo lo que se les ocurra de los futuros honorarios de esos artistas. Después se quedan con una buena parte de los derechos de autor, como hemos visto en el caso de Spotify. Al final, hay artistas que no empiezan a ganar dinero hasta que han satisfecho su deuda con la discográfica, o que pueden enfrentarse a demandas millonarias en caso de romper contrato; que se lo digan a Jared Leto y su banda 30 Seconds to Mars: después de haber vendido millones de discos, ¡todavía le debía millones de dólares a sus jefes! Hay cosas que no cambian. Aun así, por malvadas que sean las discográficas, y no hay forma bonita de decir esto, la mayor parte de culpa de lo que está pasando la tiene el público.

Taylor Swift. Foto: Corbis.
Taylor Swift. Foto: Corbis.

El público y la calidad

El público no gasta menos en música grabada porque su presupuesto cultural se haya ido completamente al garete. De acuerdo, el poder adquisitivo de las personas se ha visto muy dañado por la crisis, en unos países más que en otros. En España poca gente puede gastar mucho en cultura. La media anual por persona se estima en doscientos sesenta euros. Lo cual es poco, unos veinte euros al mes. Sí, en España estamos jodidos; ni brotes verdes ni azules. En Estados Unidos, alguien de entre diecicocho y treinta y cuatro años gasta una media de setecientos cincuenta dólares anuales en cultura, lo cual es bastante más. Pero la cuestión no es solamente cuánto tiene la gente para gastar, sino en qué lo gasta. Y la mayoría del gasto cultural estadounidense se va en televisión de pago, mientras la música está a la par con los videojuegos (de los libros ya ni hablamos, si no queremos echarnos a llorar). En otros países avanzados sucede algo parecido, y la música se lleva menos dinero cuanto más bajo es el poder adquisitivo. El público prefiere pagar por ver televisión que por escuchar música, esto es así. Y cuando paga por la música, prefiere gastárselo en entradas de conciertos que en obras publicadas.

Lo que la era internet ha puesto de manifiesto es que el público es musicalmente perezoso. YouTube lo ilustra mejor que ninguna otra cosa. En YouTube hay vídeos musicales de muchos artistas de todos los géneros imaginables. Entiendo que la industria musical puede sentirse recelosa porque YouTube es básicamente Napster II, pero también les diré que gracias a esa plataforma he podido escuchar cosas a las que nunca antes había tenido acceso. Esa es la parte buena de internet: elimina la frustración de ir en tienda en tienda buscando un disco y que te digan que está descatalogado (¡recuerdo mi indignación cuando aquí se descatalogaban discos de Johnny Winter!) o que directamente jamás llegó a publicarse en tu país. Internet también permite que, no sé, un tipo como Brushy One String alcance la popularidad con sus maravillosas canciones. Aunque sospecho que Brushy —cuya música me parece legítimamente genial— no hubiese llamado la atención de no tener la peculiaridad de poseer una guitarra con una sola cuerda. Pero, bueno, me alegra que pasen estas cosas. Lo malo es que son habas contadas. El viejo sueño de que los pequeños artistas se harían más fácilmente famosos se ha quedado en agua de borrajas. En general, los números no engañan: en YouTube la gente escucha sobre todo la música que promocionan las grandes compañías. Y estas se han dado cuenta de que resulta mucho más fácil comercializar estrellas prefabricadas para moldear los gustos del público que confiar, como antaño, en encontrar una pepita de oro en el río. Es cierto que siempre hubo artistas prefabricados y con esto no quiero decir que no tengan ningún talento o cualidad, sino que están dirigidos a un estilo decidido no por el artista sino por la discográfica. Pero lo de rebuscar en busca de talentos con capacidad de sacudir los cimientos del mundo cultural es un arte perdido.

Antes la discográficas ya daban por supuesto que su principal público, el juvenil, se iba a decantar de repente por fenómenos que nadie en la propia industria había podido prever. Algunos de esos fenómenos tenían, además de la capacidad para galvanizar a los jóvenes, una calidad intrínseca que los convertía en instancias culturales a tener en cuenta. Sucedió con Elvis Presley, con los Beatles, con el hip hop, con el grunge y con muchas otras cosas. Como nadie en la industria quería pasar a la historia como el nuevo Dick Rowe, el hombre que rechazó contratar a los Beatles, las discográficas invertían tiempo y dinero en encontrar a nuevos artistas. Piensen en Nirvana, por ejemplo. Un grupo underground que había publicado un disco en una compañía independiente, por entonces desconocida, llamada Sub Pop. Es posible que Nirvana nunca hubiesen llegado a ninguna parte si no hubiesen fichado por una discográfica mayor, Geffen, que les permitió grabar su segundo álbum con mucho mejores medios y, por lo tanto, un mejor sonido. Aunque hubo quien pensó que Nevermind sonaba demasiado «pulcro» en comparación con el primer disco, no cabe duda de que sin ese refinamiento en la grabación y sobre todo sin la debida promoción no hubiesen provocado el mismo impacto generacional. Lo mismo sucedió con Guns N’ Roses y su Appetite for Destruction, por citar otro bombazo de la misma época. Eran grupos pequeños en popularidad al principio, pero talentosos, a los que se ofreció un buen presupuesto para grabar y promocionarse. Funcionaron y lo amortizaron. Seguro, hubo otros que no consiguieron amortizarlo, pero así es el espectáculo: unas veces se gana y otras veces se pierde. En Hollywood ya cuentan que el beneficio de unas películas sirve para pagar las pérdidas de otras.

Nirvana. Foto: Corbis.
Nirvana. Foto: Corbis.

Las diferencias entre aquellos tiempos y el presente son dos, y ambas tienen que ver con internet. Primero, las compañías ya no tienen tanto dinero, así que han recortado gastos a la hora de buscar y promocionar nuevos artistas salidos de la calle. No arriesgan. Y tampoco esperan que se produzca un súbito movimiento juvenil que amortice la inversión. Internet, además de cambiar la comercialización de la música, ha canalizado las ansias juveniles hacia otras vías (redes sociales, videojuegos, etc.), y por lo tanto la música ha dejado de ser el gran escape, el lugar donde buscar una identidad propia, el vehículo de grandes explosiones generacionales. Desde el grunge no se ha vuelto a producir un fenómeno musical de tan grandes dimensiones, que esté además apoyado en todo un torbellino de interés mediático y sociológico. Sí, está Justin Bieber, pero siempre hubo un Bieber para cada época, desde Leif Garrett a Spice Girls, o quien quieran ustedes imaginar. Lo que no ha vuelto a haber son unos Nirvana. Es posible que en algún lugar del mundo haya un Kurt Cobain esperando ser descubierto. Seguro que lo hay, pero, tal y como están las cosas, no puede confiar en que alguien vaya a poner dinero para que grabe su propio Nevermind. Y, tal como se relaciona el público con YouTube, es difícil que llegue a conseguirlo. Si cito el ejemplo de Nirvana es para recordar precisamente que el disco de su explosión no lo grabaron en su casa, ni fue promocionado con fotocopias. Estaban en una multinacional y necesitaron el escaparate de la MTV y algunos otros grandes medios. Tarde o temprano, y más si ofrece un producto que proviene del underground, un artista necesita un trampolín para el éxito. No puede hacerlo solo. Ni puede esperar llegar lejos grabando en su casa. No digo que no pueda ocurrir, pero es algo excepcional. Hasta los años cincuenta la gente grababa con uno o dos micrófonos colgando del techo, sí. Muchos clásicos se han grabado de forma increíblemente rudimentaria. Y algunos hemos llegado a amar el sonido «cutre» de aquellos discos porque hemos crecido escuchándolos como son, pero no nos engañemos, esa presentación ya no es aceptable en la industria musical. La gente dispone en sus casas de una tecnología avanzada, pero todavía hoy grabar un disco con buen sonido requiere mucho dinero. Piensen que un productor, un técnico, un ingeniero de sonido que de verdad sepan obtener un sonido de primer nivel son gente cuyo trabajo ha de pagarse, y que además necesitarán trabajar con material de primera línea. Todo esto supone mucho dinero. La promoción supone más dinero todavía.

Por supuesto, siguen existiendo sectores del público que mantienen circuitos minoritarios, como el jazz o la música clásica (o incluso el rock clásico, que lleva camino de convertirse en algo minoritario también), que han notado menos el impacto, pero sobre todo porque su principal actividad son conciertos y festivales. Son estilos de música que nunca esperaron vender muchos discos o hacerse muy grandes. Quitando las grandes giras de artistas de rock, que para colmo son muy veteranos (Stones, AC/DCSpringsteen, etc.), no dan como para que la industria discográfica se apoye en ellos para salvar los muebles. Por cada músico que consiga la popularidad con algo que ha grabado en su casa y ha colgado en YouTube, hay cientos, miles, que no lo conseguirán jamás. Ahora ya ni sueñan con la posibilidad de que un agente los vea en algún concierto y los contrate. Las compañías más pequeñas sobreviven y usan internet como herramienta, pero como las grandes ya no arriesgan, el «ascenso» de los artistas es cada vez más difícil. Y si no arriesgan las grandes compañías, no arriesgan las grandes radios ni los grandes programas musicales de TV. Así, se ha conseguido el efecto paradójico de que a mayor cantidad de música disponible y gratuita, el público parece aferrarse más a cosas mayoritarias. Quizá porque entre tanto estímulo es casi imposible captar la atención con cosas nuevas. Un grupo pequeño ha de competir en el entorno digital con la publicidad de las grandes compañías, los contenidos virales, con los youtubers, con las series de TV, con los juegos, incluso con la pornografía. Todo en un mismo ámbito. Y la atención del público es limitada. No sé cuánto más se puede agudizar el proceso, pero es muy posible que dentro de varias décadas la gente mire hacia atrás y diga que, terminado el siglo XX, empezó a haber cada vez menos artistas interesantes. Y tendrán razón, porque la maquinaria que antaño los descubría y promocionaba se está viniendo abajo. La industria musical tenía que elegir entre supervivencia y calidad, y ha elegido lo primero. Eh, el público manda, y como se suele decir: el cliente siempre tiene la razón.

Vista exterior del festival de Wight. Foto: Corbis.
Vista exterior del festival de Wight. Foto: Corbis.


Define Google

Fotografía: Yolanda Gándara.
Fotografía: Yolanda Gándara.

Desde marzo de 2014 Google integra una función de diccionario de español que, unida a la utilidad de mostrar directamente contenidos enciclopédicos, nos ofrece la posibilidad de tener todo el conocimiento universal a la vista o al menos dirimir al instante cualquier polémica blandiendo una pantalla. Los resultados propios de una enciclopedia son vistas previas de Wikipedia en las que se indica y enlaza la fuente, aunque no es necesario acceder a ella para una información básica. Esto facilita saciar nuestra curiosidad con un atajo de un clic que, evidentemente, es restado al tráfico de la fuente.

La función de diccionario nos muestra automáticamente definiciones de algunas palabras solo con buscarlas, mientras que en otras tendremos que usar el comando «define» (también admite «definir», «definición» «definiion» y casi cualquier aproximación que intuirá que se ha escrito mal). Así, si tecleamos en Google madre obtenemos directamente una vista de definiciones y ejemplos (que podremos ampliar si no satisface nuestra curiosidad), mientras que para obtener el mismo resultado de padre tendremos que teclear «define padre». ¿Por qué? Los algoritmos de Google son inescrutables.

Respecto a la procedencia de las definiciones del diccionario, cabría esperar que fuera el Diccionario de la RAE, que es el que se suele tener como referencia en nuestra lengua. No es el caso. Podríamos suponer entonces que Google ha decidido elaborar un diccionario de español, de tal forma que tuviéramos que elegir entre consultar el diccionario de la solemne Real Academia y uno hecho por lexicógrafos que se deslizan por toboganes de colores mientras elaboran acepciones. Elegiríamos los toboganes, sin duda. Pero tampoco es el caso. Aunque no se indica fuente, casi todas las definiciones y ejemplos corresponden literalmente al diccionario de español en línea de Oxford (que es la misma fuente que ya se utilizaba en inglés), si bien trata los datos con distinta nomenclatura y añade sinónimos. Si una definición no se encuentra en esta fuente, recurre a cualquier otra indicando «definiciones en la web».

Si alguien puede competir con la RAE, desde luego, es Google, y si existe la posibilidad de que se establezca como nuestro diccionario de cabecera, aunque sea por el hecho de que está un paso más cerca que buscar otro, tendremos que someterlo a inspección para saber si contiene ese tipo de términos o acepciones que podríamos encuadrar en el epígrafe «aberraciones de la RAE» que son causa de reproche a la Academia.

Una de las causas de conflicto generado por el DLE ha sido siempre su tendencia sexista, de tal forma que ha provocado la movilización de los feministas para modificar numerosas entradas. Aquí tenemos algunas del buscador que bien podrían impulsar #GolondrinasaGoogle.

madre

padre

Nótese que ser madre de familia requiere más requisitos y abnegación que ser padre de familia.

puta

La segunda acepción de puta es tan generosa que abarca «en general» a cualquier mujer. Tal vez el corpus con el que trabaja este diccionario es Forocoches.

calienta

Vemos que calientapollas es femenino y que nos remite a calientabraguetas (nombre femenino, col. desp. ‘Mujer que, intencionadamente, provoca deseo sexual en un hombre sin tener intención de mantener relaciones sexuales con él’). En el DLE es tanto femenino como masculino y la definición no es discriminatoria: un hombre también puede calentar a otro y el diccionario lo deja en «persona».

calienta2

Un tratamiento similar tiene el término ama de casa, que en la última edición del DLE es masculino y femenino y se define como «persona que se ocupa de las tareas de su casa», mientras que para Google las tareas domésticas son un coto femenino y preferentemente incompatible con otras actividades.

amoama

El colectivo gitano ha reclamado durante mucho tiempo la eliminación de la cuarta acepción del término gitano del DLE, que en su última edición ha sufrido una modificación. Google no solo mantiene la definición «que estafa u obra con engaño», sino que la primera acepción es una antología del tópico y no repara en correcciones políticas, por no hablar de imprecisión, al utilizar la denominación de «raza».

gitano

También podemos encontrar todo tipo de términos vulgares que suelen causar espanto al encontrarlos dignificados en el Diccionario, desde asín hasta vagamundo, y extranjerismos adaptados como jonrón, bluyín (sin marca geográfica) o el imprescindible güisqui. Como colofón, tenemos una inédita cocreta que algún algoritmo de Google ha logrado encontrar en lo que considera un diccionario, porque así se autodenomina.

cocreta

Algo similar ocurre si tecleamos «define de puta madre», expresión que, al ser localizada literalmente en algo llamado «diccionario», ciega a Google y nos lleva al ingenioso diccionario Jomis de tecnicismos.

deputa

Evidentemente el repertorio léxico que nos ofrece Google también tiene aspectos positivos, pero si vamos a admitirlo como diccionario de cabecera (mientras el buscador no cambie de opinión o versión) tendremos que someterlo a examen y crítica. En otras latitudes ya ha provocado algunas polémicas. No vamos a ser menos. Si es necesario, esperamos a ver pasar el coche de Street View para enseñarles el significado de pilón.


El STEM está cambiando el mundo mucho más de lo que crees

05 May 1997 --- Champion chess player Garry Kasparov plays against IBM's chess-playing supercomputer. Here, the match is watched in an auditorium via television. --- Image by © Najlah Feanny/CORBIS SABA
Partida de Garry Kasparov contra Deep Blue. Fotografía: Corbis.

STEM. Este acrónimo es el presente y el futuro del mundo laboral, y también el cenit y el nadir del futuro de la humanidad. Science, technology, engineering y mathematics. En español, el acrónimo equivalente es CTIM: Ciencias, Tecnologías, Ingenierías y Matemáticas.

Por cada cien estudiantes que obtienen un grado de ciencia o ingeniería en universidades de Estados Unidos, según cálculos de Keith Maskus, un economista de la Universidad de Colorado, el país gana sesenta y dos patentes tecnológicas nuevas. Esto suena muy abstracto, así que vayamos a lo concreto: prácticamente todo el crecimiento de la renta desde 1870 en Inglaterra y Estados Unidos se debe a la innovación tecnológica.

Quien no se vea entre probetas o aceleradores de partículas, que deje de imaginar: no solo van a desaparecer casi todos los trabajos que existen, sino que el 65% de los niños que ahora empiezan educación primaria estarán empleados en un trabajo que ni siquiera ha sido inventado aún.

¿Inglés? ¿Chino? Todos deberemos tener nociones de programación, de código, el nuevo lenguaje universal. Los niños ya empiezan a usar Scratch para iniciarse en la sintaxis de este nuevo idioma, pero sobre todo en la forma de pensar. Si somos ya adultos y no tenemos ni repajolera idea de lo que es todo esto, Scratch también constituye un buen punto de partida. Y los tutoriales de code.org. Y luego deberemos familiarizarnos con la programación real, sin pantalla mediante, como la que ofrece Arduino.

Crear robots con Arduino ya está al alcance de los niños, que emplean conceptos de electrónica, motores, sensores y posibilidades como nuevos demiurgos. Todos podemos empezar hoy a practicar con Arduino, y un proyecto personal a largo plazo podría ser el construir nuestra propia impresora 3D. El siguiente paso, Unity, una herramienta para uso personal. Todo ello impone una nueva lógica y aprender a abstraer procesos. No basta con aprender un nuevo idioma, sino que también deberemos saber qué comunicar con él. Cuanto antes empecemos a esquematizar así los problemas, más nos adaptaremos a los nuevos entornos laborales que se avecinan.

Si el STEM se te atraganta o lo consideras digno de nerds o geeks, debes saber que el 80% de todos los trabajos de la próxima década requerirán conocimientos tecnológicos (en España únicamente el 9% se especializa en STEM). Solo en el ámbito de la biotecnología, si en 1999 los beneficios de patentes creadas por universidades en Estados Unidos era de seiscientos treinta y cinco millones, en 2010 ya era el triple, al tiempo que creaban casi un millón y medio de empleos nuevos. Un mensaje pertinente sobre todo en España, donde un 23% de los españoles se declara tecnófobo.

La persona más rica del mundo es, con sus fluctuaciones, Bill Gates, magnate de la tecnología, y la persona que más dinero está invirtiendo en el desarrollo de la medicina. Solo en 2014, a través de su fundación, donó un total de nueve mil ochocientos millones de dólares a investigación y causas benéficas. Gates, nacido del STEM, es el empresario más popular de Twitter, con más de veinte millones de seguidores. Google, otra empresa nacida del STEM, tiene un valor de más de cien mil millones de dólares (Coca-Cola tiene ochenta y dos mil millones). La marca cuyo crecimiento ha sido más acelerado en la historia, según cifras de 2014, es Facebook. Apple es la compañía más valiosa del mundo, y en 2014 ingresó casi ciento ochenta y tres mil millones de dólares.

Pero los profundos cambios en la educación y en el trabajo que están originando el STEM son solo la punta del iceberg del cambio tecnológico que se avecina. Es normal que las cifras se nos atraganten un poco, aunque nos dediquemos a la docencia. O precisamente porque nos dedicamos a ella: el 60% de los jóvenes entre dieciséis y dieciocho años creen dominar mejor la tecnología que sus profesores, según el informe The Microsoft Education Future Workforce. El 71% asegura que aprende más en casa que en clase. Eso no significa necesariamente que el conocimiento que se imparte en el colegio sea obsoleto, pero nos debería dar que pensar.

Lo que está a punto de llegar, de hecho, no es el imponente iceberg que hundió el Titanic, sino el tsunami hipertecnológico más grande jamás acaecido en la historia de la humanidad.

¿Por qué ahora?

La ley de Moore comparada con los datos históricos (gráfico en idioma portugués).
La ley de Moore comparada con los datos históricos (gráfico en idioma portugués). Imagen: DP

La idea de que ahora va a pasar algo absolutamente extraordinario suena a cháchara de visionario, y se ha oído tantas veces que ejerce el mismo efecto que avisar de que llega el lobo cuando nunca llega. ¿Cuánto tiempo hace que se habla de edificios domóticos y todavía vivimos en casas como las de nuestra infancia? Y ya no digamos las promesas del cine: ¿dónde están los robots?, ¿los coches voladores?, ¿las colonias marcianas?

Pero el ahora de ahora es diferente a cualquier otro ahora. Para demostrarlo hemos de invocar la ley de Moore y el llamado crecimiento exponencial. En pocas palabras, la ley de Moore postula que cada veinticuatro meses se multiplica exponencialmente la potencia informática. Este crecimiento exponencial se ha estado produciendo desde 1965 y, a grandes rasgos, nunca ha fallado. Cuando Gary Kasparov dijo que era imposible que un ordenador ganara al ajedrez a un maestro ajedrecista, tuvo razón porque en Deep Blue fue derrotado en 1996. Un año después, la computadora venció a Kasparov por mor de la ley de Moore, y ahora nadie es capaz de ganar al ajedrez a un ordenador.

Lo realmente inquietante es que actualmente ese crecimiento de poder de computación continúa produciéndose. Que en nuestros bolsillos, gracias a nuestro smartphone, hay más potencia informática de la que se requirió para llevar al ser humano a la Luna. Y que ahora, justo ahora, los saltos exponenciales serán mucho más apoteósicos que antes. Tan apoteósicos que ni siquiera somos capaces de imaginarlo.

Entender el crecimiento exponencial es imposible para un cerebro humano debido a nuestra propia circuitería neuronal. Sencillamente no se nos da bien. Resulta contraintuitivo. La mejor forma de demostrarlo es mediante analogías. Por ejemplo, si damos treinta pasos a razón de un metro por paso, habremos cubierto treinta metros. Pero si damos treinta pasos exponenciales (el primero de un metro, el segundo de dos metros, el tercero de cuatro metros, ocho, dieciséis, treinta y dos…), al llegar a los treinta pasos habremos dado veintiséis vueltas a la Tierra. También es célebre la leyenda de los escaques de ajedrez y los granos trigo, que ejemplifica del mismo modo nuestra incapacidad para entender el crecimiento exponencial.

Los primeros saltos del crecimiento exponencial son muy pequeños, de hecho resultan casi indistinguibles del crecimiento lineal. 2, 4, 8, 16, 32, 64, 128, 256… hemos dado ocho saltos y las cifras son ridículamente pequeñas. Pero llegados a cierto punto cada salto extra supone aumentar la cifra miles de veces. Ese punto exacto se llama inflexión de la curva. Y ese punto está sucediendo ahora, justo a principios del siglo XXI.

La inflexión de la curva puede hacer realidad lo que parece imposible. Por ejemplo, llegar a la Luna doblando una hoja de papel. Si una hoja de papel tiene 0,1 milímetros de espesor, al doblarla sobre sí misma obtendremos 0,2 milímetros de espesor. Al doblarla por tercera vez, 0,4 milímetros. Es casi imposible doblarla más de siete veces, aunque el récord mundial está en trece veces, logrado en los pasillos del MIT doblando un rollo de papel higiénico de casi dieciseis kilómetros de longitud. ¿Cómo podemos llegar hasta la Luna a ese ritmo? Gracias a la inflexión de la curva. Si doblamos un papel 26 veces obtendremos casi 7 kilómetros de espesor. Con 30, ya estaríamos en el espacio exterior. Con 42 doblamientos, ya estaríamos pasando de largo la Luna, que está a 439.805 kilómetros de distancia. Pero si doblamos el papel 102 veces, que solo es un poco más del doble, obtendremos el grosor de todo el universo observable.

Extrapolemos esto al número de operaciones por segundo de un ordenador. Un ordenador portátil de ochocientos euros del año 2008 realizaba el mismo número de operaciones por segundo que el cerebro de un insecto. En 2013, los de un ratón. Si continúa vigente la ley de Moore, cualquier ordenador portátil del año 2025 podrá tener la misma capacidad de computación que un cerebro humano. Esto es sorprendente, pero no es nada si tenemos en cuenta que en 2045 tendrá la misma capacidad que toda la humanidad entera (unos nueve mil millones de personas). El siguiente salto, el doble que toda la humanidad. El siguiente salto, el doble que el doble que toda la humanidad.

En algún momento, la ley de Moore encontrará límites físicos insalvables, pero también hallaremos soluciones diversas para sortearlos. Por ejemplo, usar grafeno en la fabricación de los chips. En 2004 se produjo por primera vez en la historia una cantidad sustancial de grafeno, el primo químico del carbón y el diamante, que permite elevar la capacidad de procesamiento hasta sesenta veces. En 2005 se descubrió la molibdenita, que es cien mil veces más eficiente que los transistores de silicio.

Otro cambio de paradigma es la computación cuántica. Solo un dato: la computación cuántica no usa bits (ceros y unos) sino qubits (ceros y unos simultáneamente). En la Universidad de Waterloo se ha logrado manipular dieciséis qubits, el equivalente a más de mil bits clásicos, es decir, más o menos el equivalente a un computador de la década de 1950. Se estima que un ordenador cuántico que operara con trescientos qubits poseería el poder computación de todas las supercomputadoras convencionales del mundo unidas entre sí. En mayo de 2013 se anunció una colaboración entre la NASA, Google y la USRA para lanzar un laboratorio de inteligencia artificial cuántico en el que se usará un ordenador cuántico de 512 qubits.

Este tipo de crecimiento no solo está teniendo lugar con los ordenadores, sino con casi todas las tecnologías que nos rodean, desde la eficiencia de las placas solares hasta la nanotecnología. Y ahora, justo ahora, estamos empezando a remontar la inflexión de la curva.

El mejor momento de la historia

2001-1
«Daisy, Daisy / Give me your answer, do». 2001: Una odisea del espacio (1968).  Imagen: Metro-Goldwyn-Mayer / Stanley Kubrick Productions.

Es el mejor momento de la historia, y no solo porque la inflexión de la curva va a cristalizar como nunca aquellas palabras de Arthur C. Clarke: «Toda tecnología lo suficientemente avanzada es indistinguible de la magia». Es el mejor momento de la historia en general. Es una afirmación chocante si nuestra única fuente de información son los periódicos, que evidencian un claro sesgo hacia los desastres en vez de los logros. Como afirmó el escritor de ciencia ficción David Brin: «Aunque probablemente un 70% o un 80% de las cosas que están pasando son buenas, si prestamos atención a las noticias, a los medios de comunicación o a las películas, podríamos pensar en lo contrario».

No es que exista una conspiración en contra del optimismo o la tecnología. Los motivos son otros. Los periódicos, por ejemplo, venden más ejemplares si anuncian tragedias o riesgos. El share de la televisión se dispara si se dedica una hora a una víctima concreta antes que a miles (víctimas o no), debido al sesgo de la víctima identificable, un error de nuestro cerebro al procesar información. También solemos recordar mejor las cosas buenas del pasado, en vez de las malas, debido a otro sesgo cognitivo que incluso los romanos ya describieron con su memoria praeteritorum bonorum y que actualmente se traduce como «cualquier tiempo pasado fue mejor». El síndrome de Frankenstein es el resultado de que las películas siempre presenten futuros distópicos o que los científicos sean nerds, en el mejor de los casos, o mad doctors, en el peor. Cualquier tecnología siempre lleva aparejado el pago de un tributo moral, social o económico, porque en el cine no existe la tecnología buena. Solo en un minoritario, casi marginal, subgénero de la ciencia ficción, la llamada hard, la ciencia y la tecnología se presentan como algo bueno o una herramienta útil para solucionar problemas. Ese género, obviamente, suele estar escrito por científicos para científicos. El resto de la población mundial solo recibe un único tipo de mensaje reforzado continuamente por la forma de procesar información que tiene su cerebro.

Pero si nos desembarazados de estos sesgos, en términos globales, asumiendo que hay ámbitos en los que las cosas distan de ser perfectas, es el mejor momento de la historia. No solo a nivel tecnológico, sino (también) el mejor momento de la historia gracias a la tecnología.

Gracias a la tecnología, por ejemplo, somos más los habitantes que estamos vivos, y no por eso estamos peor: la renta per cápita media del planeta ha crecido progresivamente, sobre todo a partir del siglo XIX, gracias a los efectos de la Revolución Industrial. La riqueza es mayor, y también se reparte mejor, porque la clase media no deja de crecer. En 2020 se estima que el 64% de la población mundial estará ubicada en la clase media.

La esperanza de vida no ha dejado de crecer, sobre todo a partir de 1950, y lo ha hecho a escala global. Incluso en los países más pobres, la esperanza de vida se ha incrementado veinte años en las últimas décadas desde 1950. O como escribe Matt Ridley en El optimista racional:

El índice de mortalidad de la guerra típico de muchas sociedades cazadoras-recolectoras (0,5% de la población al año) equivaldría a dos mil millones de personas muertas en el siglo XX (en lugar de cien millones) (…) El infanticidio era un recurso común en tiempos difíciles. Las enfermedades estaban también siempre cerca: la gangrena, el tétanos y muchos tipos de parásitos habrían sido grandes asesinos. ¿Mencioné ya la esclavitud? Era común en el noroeste del Pacífico. ¿El maltrato de esposas? Rutina en Tierra del Fuego. ¿La falta de jabón, agua caliente, pan, libros, películas, metal, papel, tela?

Este progreso no se debe exclusivamente a la tecnología, sino a movimientos políticos e intelectuales, entre otros. Pero la tecnología siempre ha estado involucrada en ellos, aunque solo fuera para propagarlos. Sin tecnología (las asociadas a la agricultura) no obtendríamos superávit de alimentos y, en consecuencia, calorías y tiempo suficientes para abordar nuevos problemas. Sin las tecnologías posteriores no viviríamos tres veces más de lo habitual, con todavía más tiempo para reflexionar y aprender sobre el entorno. Por ejemplo, el crecimiento de empatía generalizada en el siglo XX se debe, entre otras causas, al hecho de que la gente puede leer libros, y la gente puede leer libros porque la tecnología ha propiciado que sea barato imprimirlos y distribuirlos. El crecimiento de la empatía también ha fomentado el descenso imparable de violencia en el mundo.

La tecnología también parece estar detrás del efecto Flynn, es decir, al hecho de que, generación tras generación, cada vez somos más inteligentes, si medimos la inteligencia con arreglo a un test de CI. Está llegando la educación a todos los rincones del planeta. Se está reduciendo la mortalidad infantil, se resuelven los problemas de agua y energía, la desigualdad y, sobre todo, desciende el hambre y la pobreza, como sucede en mayor proporción en los países emergentes (los BRIC más los Next 11).

El STEM ha salvado el mundo en multitud de ocasiones. Cuando a punto estuvimos de quedarnos sin alimentos de resultas del hambre infinita de los caballos, estos fueron sustituidos por otro medio de transporte (el coche). Cuando parecía que no había suficiente tierra labrantía para dar de comer a tantas bocas (y entonces dos químicos, Fritz Haber y Carl Bosch, idearon un sistema para fabricar grandes cantidades de fertilizante de nitrógeno inorgánico a partir de vapor, metano y aire).

El STEM, naturalmente, también ha producido efectos colaterales nocivos. El mayor de los cuales se ha convertido en el principal lastre del progreso: la influencia negativa en el medioambiente. Las emisiones de CO2 han aumentado más de un 46% desde 1990 a 2010, se están expoliando los recursos naturales, miles de especies están en peligro de extinción. Sin embargo, la tecnología también puede revertir esos efectos. Muchas personas están involucradas en ambiciosos proyectos que aspiran a tornar el mundo un lugar mucho más verde.

Para advertir hasta qué punto la determinación puede cambiar el estado de las cosas en muy poco tiempo podemos echar un vistazo a los resultados del proyecto Objetivos de desarrollo del milenio de la ONU, que perseguía para 2015 una reducción de la tasa de pobreza y el hambre, entre otros indicadores. Los resultados han sido más optimistas de lo esperado. Por ejemplo, para 2015 se aspiraba a reducir la pobreza extrema y el hambre a la mitad, pero en 2010 ya se había cumplido este objetivo (del 47% de la población mundial ingresando menos de 1,25 dólares al día en 1990 al 22% en 2010). En 2010 también se había conseguido reducir hasta casi la mitad la proporción de personas con desnutrición. También se redujo a la mitad el número de niños sin acceso a la educación primaria. También la mortalidad infantil, en la misma proporción, y la salud en la maternidad. Un 25% menos de muertos por malaria, un 50% menos de muertos por tuberculosis. Dos mil cien millones de personas han mejorado su acceso a agua potable desde 1990 a 2010.

El cambio de la situación medioambiental se atajará si las partes implicadas lideran una revolución a escala global, pero la tecnología desarrollada por algunos emprendedores, si bien quizá solo busca el enriquecimiento personal o empresarial, zanjarán por fin la deriva medioambiental. El gran cambio de paradigma llegará con la nueva energía. SolarCity, de Elon Musk, será dentro de muy poco una forma de evitar una parte sustancial de las emisiones, y es solo un ejemplo del poder de la energía del sol, en palabras del embajador de la Singularity University Juan Martínez-Barea en su libro El mundo que viene:

El impulso de la energía solar es tan fuerte que en Silicon Valley se habla ya de que podemos estar en el inicio del fin de la edad del petróleo (…) A medida que el consumo mundial de energía, tanto en los hogares (con paneles fotovoltaicos) como en el transporte (con vehículos eléctricos), vire desde los derivados del petróleo a la energía solar, veremos cómo empiezan a corregirse muchos de los graves problemas medioambientales del planeta, debido a las drásticas reducciones en las emisiones de CO2 que estos cambios pueden provocar.

¿Exceso de optimismo?

El Golfo de México de noche desde la Estación Espacial Internacional. Imagen: NASA (CC)
El golfo de México de noche visto desde la Estación Espacial Internacional. Imagen: NASA (CC)

La mayoría de críticas al optimismo del progreso tecnológico (que se han producido desde el inicio de la tecnología) responden a una estructura de pensamiento tripartita que resume Albert Hirschman en su influyente libro Retóricas de la intransigencia: perversidad (lo propuesto empeora la situación), futilidad (lo propuesto no produce resultado) y riesgo (lo propuesto representa una amenaza). Y, si bien muchos avances tecnológicos han puesto en evidencia alguno de estos puntos, en términos globales las críticas al progreso tecnológico, leídas hoy, resultan cuando menos pintorescas. Incluso los libros fueron objeto de miedos apocalípticos similares a los que suscitó el advenimiento de internet.

Para comprender por qué estamos en el mejor momento tecnológico de la historia hay que aprender a pensar que estamos creciendo exponencialmente y que ello implica, también, que el 90% de todos los científicos de la historia están vivos actualmente. Y que ellos están desarrollando simultáneamente toda clase de maravillas. Y que cada vez habrá más gente haciéndolo: en 1961, Derek de Solla Price, el padre de la cienciometría (la ciencia que estudia la ciencia), determinó que el número de científicos se duplica más o menos cada quince años. En consecuencia, la tasa de patentes también crece exponencialmente. Y la de trabajos científicos.

El mundo está hecho unos zorros. No obstante, lo está menos, en general, que en cualquier otro momento anterior de la historia. Y lo está menos de lo que cree el ciudadano promedio. La aspiración de este artículo, pues, no es tanto convencer de que el mundo está mejor que nunca (que también), sino el de discernir qué son exactamente las cosas que va bien, para que los agoreros que aducen que el mundo se encamina al Apocalipsis se centren exclusivamente en los aspectos que verdaderamente requieren solución.

El futuro escapa de nuestra imaginación, como todo lo que va a llegar en la próxima década desde el ámbito tecnológico. Pero como no es buena idea pronosticar lo que pasará exactamente (más que nada porque a menudo se falla el tiro) y me falta la melena de Sandro Rey, vamos a explorar en el próximo todo lo que ha sucedido en los últimos diez años. Son cosas espectaculares que ya han pasado o están pasando y que, en general, no tienen demasiado eco en los medios de comunicación de masas. Y nos servirán para tratar de imaginar lo que está por venir la próxima década… multiplicado, gracias a la curva exponencial, por mil.