Salvador Sostres: La Creación

Vicente Huidobro pronunció en 1921 una conferencia sobre la poesía en el Ateneo de Madrid. Huidobro es el insuperado gran poeta de todos los tiempos porque sólo él desafió los límites de la Naturaleza y del lenguaje y fue auténticamente creador. Hoy elBulli sirve su última cena como restaurante abierto al público para convertirse en 2014 en una fundación para la creatividad. En homenaje he adaptado la conferencia de Huidobro a la cocina creativa y a Ferran Adrià, el mejor cocinero de todos los tiempos, porque también ha sido el único que ha desafiado a la Naturaleza y a lo creado por Dios: y con una aceituna esférica le ganó.

 —

Aparte de las materias primas, hay en la cocina creativa una significación mágica que es la única que nos interesa. La materia prima son las cosas del mundo sin ser sacadas fuera de su calidad de inventario; la cocina creativa rompe esa norma convencional y en ella los productos pierden su representación estricta para adquirir otra más profunda y como rodeada de un aura luminosa que debe elevar al comensal del plano habitual y envolverlo en una atmósfera encantada. En todas los recetas hay un infinito interno, un infinito latente y que está debajo del plato tradicional que esa receta ha dado. Ése es el infinito que sabe descubrir Ferran Adrià.

La cocina creativa es la tentativa virgen de todo prejuicio; la técnica creada y creadora, el nuevo producto recién nacido. Se desarrolla en el alba primera del mundo. Su precisión no consiste en perfeccionar las viejas recetas, sino en no alejarse del alba. Las posibilidades de la cocina creativa son inagotables porque ella no cree en la certeza de todas sus posibles combinaciones. Y su rol es convertir las probabilidades en certeza. Su valor está marcado por la distancia que va de lo que comemos a lo que imaginamos. Para ella no hay pasado ni futuro. Ferran Adrià crea fuera del mundo que existe el que debiera existir. Tiene derecho a querer comerse un helado caliente o una croqueta líquida, y el que pretenda negarle este derecho o limitar el campo de sus visiones debe ser considerado un simple inepto. Ferran Adrià hace cambiar de vida a las cosas de la Naturaleza, saca con su red todo aquello que se mueve en el caos de lo irrealizado, tiende hilos eléctricos entre sabores y texturas y alumbra de repente rincones desconocidos; todo ese mundo estalla en fantasmas inesperados.

El valor de la cocina creativa está en razón directa de su alejamiento de la cocina casera. Esto es lo que el vulgo no puede comprender porque no quiere aceptar que Ferran Adrià trate de expresar sólo lo inexpresable. Lo otro queda para los vecinos de la ciudad. El comensal corriente no se da cuenta de que el mundo rebasa fuera del valor de los cocidos o los estofados, que queda siempre un más allá de la vista humana, un campo inmenso lejos de las fórmulas del tráfico diario. La cocina creativa ordeña las ubres de la eternidad y es intangible como el tabú del cielo. Es el lenguaje de la Creación, más que cualquier otra disciplina artística. Por eso sólo los que llevan el recuerdo de aquel tiempo, sólo los que no han olvidado los vagidos del parto universal ni los acentos del mundo en su formación pueden ser verdaderos cocineros creativos . Las células de Ferran Adrià están amasadas en el primer dolor y guardan el ritmo del primer espasmo. En cada plato de Ferran Adrià el universo busca su voz, una voz inmortal.

Ferran Adrià  representa el drama angustioso que se realiza entre el mundo y el cerebro humano, entre el mundo y su representación. El que no haya sentido el drama que se juega entre la cosa y la palabra no podrá comprenderme. Ferran Adrià ve los lazos sutiles que se tienden los productos entre sí, oye las voces secretas que se lanzan sabores y texturas separadas por distancias inconmensurables. Hace darse la mano a temperaturas enemigas desde el principio del mundo, las agrupa y las obliga a marchar en su rebaño por rebeldes que sean; descubre las alusiones más misteriosas de la memoria gustativa y las condensa en un plano superior, las entreteje en su dinámica creativa, en donde lo arbitrario pasa a tomar un rol encantador. Allí todo cobra nueva fuerza y así puede penetrar en el cuerpo y dar fiebre al alma. Allí coge ese temblor ardiente del infinito interno que abre el cerebro del comensal y le da alas y lo transporta a un plano superior, lo eleva de rango. Entonces se apoderan del alma la fascinación misteriosa y la tremenda majestad.

La cocina creativa tiene un genio recóndito, un pasado mágico que sólo el cocinero creativo sabe descubrir porque él siempre vuelve a la fuente. Los alimentos se convierten en un ceremonial de conjuro y se presentan en la luminosidad de su desnudez inicial ajena a todo vestuario convencional fijado de antemano. Toda cocina creativa válida tiende al último límite de la imaginación. Y no sólo de la imaginación, sino del espíritu mismo, porque la auténtica cocina creativa no es otra cosa que el último horizonte que es, a su vez, la arista en donde los extremos se tocan, en donde no hay contradicción ni duda. Al llegar a ese lindero final el encadenamiento habitual de los fenómenos rompe su lógica y al otro lado, en donde empiezan las tierras de Ferran Adrià, la cadena se rehace en una lógica nueva.

Ferran Adrià os tiende la mano para conduciros más allá del último horizonte, más arriba de la punta de la pirámide, en ese campo que se extiende más allá de lo verdadero y lo falso, más allá del espacio y del tiempo, más allá de la razón y la fantasía, más allá del espíritu y la materia. Allí ha plantado el árbol de sus ojos y desde allí contempla el mundo, desde allí os habla y os descubre los secretos del mundo.

Hay en su garganta un incendio inextinguible.

Hay, además, ese balanceo de mar entre dos estrellas.

Y hay ese Fiat Lux que lleva clavado en su lengua.


En las nubes

Hace unos meses el gurú informático favorito del mundo entero, Steve Jobs —QEPD—, desveló la nueva estrategia de su compañía: migración hacia la computación en la nube —cloud computing—. Anuncio que supuso el habitual aluvión de tinta virtual que todos los anuncios de la compañía de la manzana suelen producir sean o no relevantes. Este en cuestión es muy relevante ya que podría marcar una manera distinta de entender el negocio informático. Particularmente el negocio del software y de la información. Sin embargo entre todo lo que se ha escrito, que ha sido mucho, se echa a faltar algún tipo de análisis caso de que la computación en la nube se acabe convirtiendo en una realidad generalizada. Cosa que, aun careciendo de licencia —y dotes— de gurú, me atrevo a aventurar que ocurrirá ya más pronto que tarde.

La computación en la nube no es precisamente una recién llegada, es de hecho el sueño húmedo de la industria del software desde la época de la burbuja 1.0. El concepto es en realidad muy sencillo. El software que usamos y nuestros ficheros están disponibles ahí arriba, en internet, para que podamos acceder a ellos independientemente del dispositivo y del lugar en el que nos encontremos. La razón por la que los intentos de llevarla a cabo aún no han fructificado son muchos, pero podemos dividirlos en dos grandes grupos. Uno es tecnológico y resumible en que las redes, sean de cableado físico o electromágnético, no daban de sí para que un elevado número de terminales se conectaran por la misma vía. Aún hoy los proveedores de telecomunicaciones mantienen legalmente un servicio de capacidad inferior al número de usuarios potenciales. El otro gran problema es la privacidad; las compañías, objetivo inicial de las propuestas de computación en la nube, no estaban dispuestas a dejar sus ficheros en el ciberespacio asumiendo todos los riesgos que ello conlleva.

Decía sueño húmedo porque esto es hacer por fin realidad la declaración de intenciones incluida en esas licencias de software que nunca nos leemos. A saber, que nosotros no somos propietarios de lo que hemos comprado sino que la compañía nos cede el derecho de uso. La computación en la nube es, en rigor, las puertas al campo de la piratería que la industria de software venía reclamando. Esto conlleva por tanto la obligatoriedad de licencias para el uso ya no sólo del software que precisemos sino del acceso al producto del mismo, nuestros ficheros. Pase lo del software, pero ¿nuestro trabajo? El trabajo no lo sé pero sus fotos personales, sus pensamientos íntimos, sus ligoteos o el producto de las horas cuidando de su granja virtual ya están en la nube, usted no es propietario de ellos y tiene tan sólo una licencia de uso de los mismos. Esta nube se llama Facebook y sí, le mentí, yo sí leo los acuerdos de licencia.

Llevo ya dos artículos seguidos hablando de la sensación de dejà vu, pero es que no puedo evitarlo. La computación en la nube es moderna, cómoda, ordenada e ideal si le preguntamos a alguien de la industria. Sin embargo no puedo evitar la sensación de ver este fenómeno como la vuelta a los ordenadores centrales de compañías y universidades con sus administradores dotados de poderes sobre la vida y la muerte, sus decenas de terminales tontas y, sobre todo, la frustración asociada a su uso.

Sin ponernos demasiado dramáticos también podemos decir que las cosas han cambiado mucho desde entonces. Hoy en día existen cosas como la redundancia de servidores, mejores sistemas de copia de seguridad, mayor seguridad en las comunicaciones y mucho mayor ancho de banda. Sin embargo los administradores, por el simple hecho de serlo, siguen siendo los que eran; los servidores se siguen cayendo y aún siguen precisando mantenimiento. Por otro lado hay que añadir los centenares de millones de usuarios potenciales de lo que usted precisamente necesite en ese momento. No se confundan, ya usamos la nube sin darnos cuenta; servicios —que así se llama la cosa en la nube— como las realidades virtuales lúdicas tipo WoW, nuestro correo electrónico, servicios de comunicación o nuestros juegos legalmente adquiridos en plataformas como Steam ya están en la nube total o parcialmente… Y en ocasiones no podemos acceder a ellos. Los motivos para revivir antiguas frustraciones siguen ahí, aunque atenuados gracias a los avances tecnológicos.

¿Qué va a ocurrir? La lógica indica que este modelo debería imponerse en dispositivos ultraportátiles, que es el mercado en el que Apple está centrada y es la fuente de sus mayores satisfacciones empresariales. Aunque similares un iPhone y un iPad no son el mismo dispositivo y dadas las trabas físicas que la compañía pone a la transferencia de archivos, por muy nuestros que sean, desde sus dispositivos a soportes físicos la única solución plausible es la nube. Por otro lado esto centraliza y simplifica, de alguna manera, el control de licencias evitando la piratería. Sí, ya sé que la piratería no es un problema que Apple sufra normalmente, pero todo indica que tiene intención de trasladar su modelo iTunes al mundo editorial. Este detalle ya es enormemente relevante, porque esta industria está todavía deshojando la margarita del cómo va a ser su desembarco en el mundo digital y lógicamente están preocupados porque no se les repita la experiencia de la industria musical. Si Apple lo tiene todo atado y bien atado en la nube tiene muchas posibilidades de pasar por encima de Amazon para hacerse con el monopolio de la distribución editorial en formato digital y propiciar ese desembarco.

Otro punto a favor de este nuevo modelo es que los dispositivos ultraportátiles, aunque potentes, aún no son nuestros ordenadores de sobremesa lo que justificaría, en cierto modo, el uso de los mismos como nodos de la computación en la nube. Esto no invalidaría en absoluto el modelo de obsolescencia programada que la industria necesita, sino que serviría en los primeros compases del mismo para educar al usuario en el modelo y hacerle cautivo de este sistema. Porque de esto se trata, no se engañen: minimizar la capacidad de elección del usuario. En la informática tradicional la computación en la nube es casi una herejía. Por muy buenos que sean los servicios en la nube es menos frustrante almacenar y ejecutar el software en nuestro dispositivo. El poco uso que servicios como Google Docs tiene en comparación con el modelo tradicional de Office es una muy buena prueba de ello. Es útil, sí, pero sólo en casos de emergencia.

Pero ahora tenemos unos dispositivos poco potentes que empiezan a darle sentido a este tipo de servicios, ¿para qué queremos una suite ofimática si podemos tenerla como servicio? ¿Para qué queremos una librería de fotos por cada dispositivo si podemos tenerla accesible desde cualquier sitio en cualquier momento? Las ventajas son indiscutibles, pero los riesgos también lo son y nos vienen por dos cuestiones ya viejas conocidas de todos.

Seguridad. Los servidores corporativos son, en general, infinitamente más seguros que nuestros ordenadores personales. Sin embargo nuestros ordenadores cuentan con la ventaja del anonimato. El interés que nuestro ordenador en concreto pueda tener para un hacker es discutible. No pasa igual para los servidores de una compañía como Apple que, por cierto, ya ha sufrido alguna brecha de seguridad. Y eso por no mencionar el affair Sony.

Privacidad. Si colgamos nuestros ficheros en servidores corporativos eso significa que la compañía tiene, en teoría, el mismo acceso a ellos que nosotros. Ya tenemos muchos servicios en la nube y sabemos muy poco acerca de los derechos de acceso que se reserva la compañía a nuestros datos. Resulta revelador, a la par que inquietante, los ficheros con nuestras localizaciones GPS que almacenaban los teléfonos basados en IOS y Android. Lo normal es que sean libremente accesibles por parte de la compañía que se reserva además el derecho de compartir esa información con terceros.

En cualquier caso, sin resultar paranoicos, lo lógico es que la nube se imponga asociada a ciertos servicios, los que ya conocemos y algunos más —de pago o gratuitos— que irán saliendo en función de lo que precisen los usuarios o marque la moda. Una de las grandes ventajas de la pérdida de intimidad es que las compañías que ofrecen esos servicios pueden hacer dinero con nuestros datos y así mantener servicios gratuitos. Dudo mucho que lleguemos a pagar por todos los servicios propuestos, así que ese seguirá siendo el peaje que deberemos pagar, que de hecho ya estamos pagando, aunque bastante incrementado. No hay que olvidar que los dispositivos ultraportátiles vienen con nosotros a todas partes, así que la información personal que pueden recabar es infinitamente más detallada que la que pueden ofrecer los sistemas tradicionales.

Lo que preveo que sí va a estar en la nube sin discusión alguna es el material sujeto a derechos de autor y esa será la razón principal por la que la nube acabará situándose firmemente sobre nuestras cabezas. La nube, en cualquier caso, no se hará con el gran anhelo de la industria: el mundo empresarial. Supongo que seguirá con su sistema de ordenadores centrales, pero aislados tanto como puedan de acceso a la red de redes.

A este panorama tan brillante para el negocio sólo le veo un nubarrón en ciernes: los pagos con dispositivos electrónicos. Existe una nueva tendencia a realizar pagos a través de nuestros dispositivos portátiles. Tendencia que quedará en nada si nuestros datos y dispositivos resultan no ser todo lo seguros y privados que deberían ser asociados a asuntos tan sensibles. Hay mucho dinero ahí, así que la implantación del sistema en la nube dependerá de si los bancos, las compañías de crédito y las empresas de telecomunicaciones deciden terminar por explotar este posible negocio. Si es así, los servicios en la nube se acabarán diluyendo como las ídem en un día con altas presiones barométricas, porque la seguridad y privacidad en la nube nunca podrá estar garantizada, me temo.

De todas formas, el modelo de pago electrónico no va a imponerse hasta que no haya un estándar muy claro, cosa que no va a ocurrir precisamente mañana.


Las guerras clon

Alrededor del año 2005 asistimos a un fenómeno inédito en el mundo de la informática de consumo tal y como la conocíamos desde los años 80: el sistema operativo omnipresente en aquellos ordenadores que no estuvieran ubicados en determinadas irreductibles aldeas galas llevaba ya cuatro años funcionando, el recambio era una especie de leyenda urbana y, para colmo, incluso había cierto consenso en que funcionaba razonablemente bien. Por primera vez era innecesario tener conocimientos enciclopédicos o el proverbial “enterao” a mano sobre el hardware disponible a la hora de comprar un ordenador. Fueran laptops o desktops nuestros ordenadores habían ampliado su vida útil hasta un punto que no se había visto nunca. El origen de esto hay que buscarlo en la ley de Moore, que ha sido una fuente de satisfacciones permanente para los aficionados a la última tecnología prácticamente desde que se enunció. Eso por no mencionar a los fabricantes de productos tecnológicos, que gracias a ella han visto elevado el grado de obsolescencia de sus productos hasta unos límites insospechados. Sin embargo el software de consumo puede necesitar un montón de recursos, pero a menos que se quiera hacer modelos del clima, de la resistencia de un puente o resolver numéricamente la ecuación de Schrödinger, la necesidad de esos recursos es finita. Lo que nos deja en un callejón sin salida respecto a la tasa de reposición de ordenadores convencionales que a la industria no le conviene en absoluto. En una sola frase: el mercado de consumo más importante de las últimas dos décadas se estaba muriendo. Las vías convencionales para resucitarlo ya no colaban: Vista se convirtió en un fracaso más de Microsoft o el número de iMacs o iBooks vendidos no acababa de despegar.

Sin embargo la industria tuvo un golpe de genialidad. Ahora parece casi evidente, pero en su día reconocer que el binomio reproductores de mp3/teléfonos móviles marcarían el camino a seguir de la informática de consumo fue verdaderamente formidable. Los ordenadores hacían ya de todo y de manera fluida. Sin embargo los dispositivos portátiles tienen dos pegas fundamentales. El hardware, por razones de tamaño, no es tan potente y la fuente de alimentación, por razones de movilidad, es limitada. De hecho muy limitada. Así que ahí tenía el filón que precisaba la industria: meter ordenadores en dispositivos ultraportátiles. Que estos fueran mp3s, teléfonos o batidoras era irrelevante. Lo importante era meter todo el mercado de la informática en un dispositivo de potencia muy limitada y la ley de Moore ya se encargaría de todo lo demás.

En esas estamos ahora mismo, smartphones y tablets, son el nuevo campo de batalla de la industria. Hay un objetivo claro, el centro del tablero de esta partida de ajedrez es el sistema operativo. Quien se lleve el centro controlará todo el juego como ha demostrado Microsoft, rey indiscutible de la informática de consumo durante más de 20 años.  Sin embargo Microsoft, probablemente por ser un gigante en un mundo de hormigas, despreció muchas cosas: Internet, telefonía, empresas de hardware, incluso el mercado de mp3 y cuando respondió fue tarde. Así que nuestros nuevos ordenadores de bolsillo buscan un sistema operativo. Las alternativas son variadas, pero sobresalen dos por encima de todas: IOS y Android. Hay otros contendientes, pero mucho debería cambiar el mercado para que triunfen. Windows Phone o Bada de Samsung son intentos muy dignos, pero seguramente ya han llegado demasiado tarde para poder competir con garantías de éxito.

La sensación de dejà vu es total, volvemos a los 80 con sus máquinas producidas ex profeso por compañías que ofrecen su sistema operativo y que el consumidor elija. Apple ha demostrado con su supervivencia que este panorama le va muy bien, Google siempre se desmarcó del hardware, de hecho aún lo hace, así que tampoco le puede ir muy mal. Samsung vende de todo, así que su incursión es una aventura no muy dañina para la compañía. Aquí el verdadero problema es para los chicos de Redmond que en pocos años pueden llegar a verse fuera del mercado. No es que los sistemas operativos se hayan creado desde la nada, todos están basados en sistemas operativos existentes. IOS (el de los iPhones) es una miniaturización de Mac OS, igual que Windows Phone lo es de Windows o Android de Linux. Bada es una portabilidad de librerías java compatibles con una gran variedad de kernels aunque en las gamas altas prefieren los basados en Linux.

Aquí la pregunta inevitable es qué es un kernel. Se trata de un conjunto de programas que ponen en contacto todos los componentes del dispositivo con el cerebro del ordenador, el microprocesador. Eso es nuestro sistema operativo, el de verdad, y todos menos uno se inclinan por Linux, ya que Mac OS es un nuevo desarrollo basado en Unix y convergente, por tanto, con Linux. Y esto tiene su importancia, porque programar para Linux no es exactamente lo mismo que para Windows. Windows como sistema operativo es muy potente, pero no tiene color respecto a Linux, y de hecho es un sistema con menos desarrollo que Linux a pesar de que parezca lo contrario. Cualquier avance en protocolos de interacción software/hardware que pueda salir de la cabeza de un muchacho en un rincón apartado del mundo llega al kernel Linux en cuestión de horas, semanas en el caso de Apple. Microsoft necesita años para el mismo proceso.

Decía que el kernel es el sistema operativo, lo cual al usuario normal le desconcierta ya que las apariencias son diferentes. Esto es debido al  interfaz gráfico, el GUI. Aquí las empresas tienen libertad absoluta ya que no tiene nada que ver con estándares de fabricación de microprocesadores. Apple tiene una larguísima tradición de hacer GUIs verdaderamente amigables, muy fluidos y muy, pero que muy sencillos de manejar. Lo que unido a una debilidad por el diseño vanguardista de sus dispositivos hace que sea ahora un contendiente muy serio a pesar de que hace diez años era una compañía con la que nadie contaba ya, salvo sus fieles, que cada vez eran menos.

Intentos por cambiar los GUIs ha habido muchos, pero al final todos acaban convergiendo hacia la forma de hacer de Apple. Uno no sabe muy bien qué tienen estos muchachos, pero lo cierto es que una vez tras otra acaban marcando el estándar de la interfaz gráfica. Si en los años 80 nos demostraron que el ratón era el paradigma y, por lo tanto, Microsoft les copió más o menos descaradamente, ahora en la primera década del siglo XXI nos hacen ver que las pantallas táctiles son el futuro. Y como tal todos los fabricantes les han seguido la estela. Los gestos táctiles que prácticamente tienen ahora todos los smartphones o los tablets ya venían incluidos en la primera versión del iPhone. No sólo eso, han marcado también la forma de hacer negocio con su tienda iTunes y sus aplicaciones, por lo que ahora Android tiene un repositorio de aplicaciones Android Market, Microsoft planea abrir su propia tienda, o Bada recoge sus aplicaciones de Samsung Apps.

La tercera pata que soporta el éxito de Apple ha sido abrir su sistema al desarrollo independiente. Tradicionalmente los sistemas operativos eran entornos cerrados. Las compañías cedían licencias de desarrollo a compañías grandes para que pudiera escribir aplicaciones para su sistema previo pago de un importe absolutamente desmesurado. Eso dejaba fuera a los programadores amateur que poco podían ofrecer al público, so pena de pagar precios astronómicos por entornos de desarrollo que no sabían si iban a dar algún beneficio. Sin embargo Linux vino a cambiar eso; no sólo las herramientas de desarrollo eran gratuitas, sino que además cualquier idea, fuera del tipo que fuera, era bienvenida e incorporada a sus repositorios. Eso hizo que Linux, al menos en el plano profesional, le fuera quitando porcentajes de una tarta que Microsoft creía únicamente suya. Para contrarrestar esto Microsoft empezó a rebajar los precios de sus sistemas de desarrollo hasta hacerlos incluso gratuitos en las versiones Express de sus plataformas .NET. No es que sea abierto, pero sí ofrecen herramientas de muy fácil manejo para crear software. Y esto es exactamente lo que hizo Apple para abrir su sistema al desarrollo independiente. Para Google esto tampoco supuso un trauma. Nunca había sido una compañía refractaria a abrir su código, bueno, al menos no del todo, así que no le costó acostumbrarse a liberar código y ofrecer sus propios kits de desarrollo de software (SDK). Bada hizo también lo propio sin mayores problemas porque el estándar ya estaba creado a su llegada. De esta manera todos los sistemas operativos cuentan con un SDK gratuito conteniendo las librerías que permiten un control absoluto del sistema de manejo sencillo, que con conocimientos de algún lenguaje de programación, Java fundamentalmente con pinceladas de C, permitía al usuario crear su propia aplicación para su dispositivo móvil. Lo mejor: la imaginación, y la batería, es el límite.

¿Entonces en qué consisten las diferencias para decantarnos por un sistema u otro? En el uso general son mínimas. Apple abre camino y todos los demás van detrás. Sin embargo hay claroscuros. Apple tiende a tomar un control absoluto sobre sus dispositivos y el software que se ejecuta en ellos. Las aplicaciones tienen que pasar un riguroso control de una compañía que es muy celosa de su imagen de marca. Por otro lado vende dispositivos a muy alto precio. Precio no justificado por la calidad de los componentes en muchos casos.

Google es más relajada en este aspecto, pero eso conlleva el riesgo de encontrarnos con aplicaciones perniciosas o con una calidad no a la altura del sistema. Como tampoco tiene control sobre el hardware, se limita a firmar acuerdos con fabricantes, con lo cual tenemos que revisar con mucho ojo qué componentes tiene el dispositivo que estamos comprando ya que puede darse el caso de que no llegue a satisfacer nuestras expectativas. Digamos que Android es una analogía perfecta del mundo de los ordenadores clónicos de los 90. Si el aparato es bueno su uso será una experiencia fantástica. Ahora bien, como el hardware sea malo disfrutaremos de una tortura diaria sin que los muchachos de Mountain View se hagan en absoluto responsables. Aquí antes de comprar es necesaria una exhaustiva búsqueda y comparación de lo que estamos adquiriendo.

Los demás están en una tierra de nadie. Microsoft se acerca más a Google en este aspecto, hace acuerdos con fabricantes y aún no facilita en exceso el desarrollo de terceros mientras que Samsung se acerca más a Apple aunque con mucha más libertad de acción al desarrollador.

¿Qué valoración les puede ofrecer quien esto escribe? Créanme, soy imparcial; reconozco que el panorama actual se lo debemos a Apple. Pero es tan cerrada y tan monopolística que no acaba de convencerme. Además yo provengo del mundo del PC clónico, así que Android me hace rejuvenecer, aunque su experiencia de uso es ligeramente más decepcionante que la que ofrece Apple. Los demás necesitan aún mejorar.

 


Cocina molecular

Cuando falleció el cocinero Santi Santamaría tuvo tanto o más protagonismo en los obituarios que le dedicaron los medios su reciente polémica con Ferran Adrià que el hecho, no precisamente anecdótico, de que dirigiera el primer restaurante español en recibir las tres estrellas de la Guía Michelin. ¿Qué clase de polémica puede llegar a ensombrecer el que quizá sea el mayor logro al que un cocinero puede aspirar en este mundo? Que no se avergüence quien no sepa de qué va el asunto; aquí estamos nosotros para mantener debidamente informado al lector. Y uso el singular puesto que mucho nos tememos que solo haya uno.

Santi Santamaría publicó en el año 2008 un libro titulado La cocina al desnudo en el que reivindicaba la cocina tradicional frente a la  llamada “cocina molecular”. Encarnada por figuras como Ferran Adrià al que acusaba nada menos que de usar química en su cocina. Nada menos. ¿Pero era una acusación realmente digna de tener en cuenta?

Cuidado: esto “tiene química”

Yo también probé la cocina de elBulli

Es un lugar común el referirse a algún producto alimentario de mala calidad o de dudosa salubridad como algo que “tiene química”. Poniéndonos en sentido estricto —y perdón por la obviedad—,  todo alimento es química y toda cocina es molecular. Los seres vivos somos química y nos alimentamos de ella de una forma u otra en función del puesto que ocupemos en la cadena trófica. Los humanos en concreto, pese a lo mucho que nos gusta tostarnos al sol, carecemos del don de la fotosíntesis, lo que nos obliga a comernos a otros bichos vivientes. Aunque para cuando nos los metemos en la boca y salvo sorpresas ya hace un tiempo que han dejado de estarlo, dado que tenemos el privilegio de ser la única especie que cocinamos los alimentos antes de ingerirlos. Según el fisiólogo Francisco Mora, la práctica culinaria es una predigestión de la comida que para nuestros antepasados supuso “un acortamiento de los intestinos paralelo al agrandamiento del cerebro”. Cocinar nos hizo humanos* y cocinar es, simplemente, un conjunto de reacciones químicas que provocamos en los alimentos.

Pero si la cocina nos ayudó a evolucionar, nosotros también hemos hecho evolucionar la cocina. Muchas de las técnicas e ingredientes que ahora nos parecen normales fueron innovadoras en su momento. Desde la caramelización, que aplicada a algo que no sea el azúcar puede resultar tóxica, hasta la introducción del chocolate en la dieta Europea, cuyas bondades fueron cuestionadas durante un par de siglos. Permítanme una pequeña paradoja: desde el laurel al perejil muchas especias —precisamente por serlo— liberan una cantidad anormalmente alta de sustancias químicas. Son tóxicas. Lo que no mata engorda, como dijo Nietzsche con otras palabras.

La mayoría de las hierbas aromáticas que incluimos hoy en día en nuestros menús deben su presencia a la experiencia de su uso medicinal, lo que es un claro antecedente histórico a lo que hace la cocina molecular: mirar hacia la ciencia para conseguir un producto mejorado. No es algo extraordinario si consideramos que es otro antecedente de la última moda de la industria alimentaria, la farmacología alimenticia. Los bífidus, los ácidos grasos omega 3 y variantes que tantos anuncios nos instan con urgencia a consumir bajo pena de padecer escorbuto y raquitismo en menos de dos días, son una expresión moderna de la tradicional adición de romero a nuestros guisos, mejorando nuestra función hepática y digestiva. Por no mencionar el sabor.

El gobierno italiano toma cartas en el asunto

La citada polémica pudo haber quedado en una diferencia de opinión entre dos grandes cocineros. Incluso en un choque entre dos filosofías culinarias. Pero al calor del debate entró el gobierno italiano tomando partido por los defensores de la cocina más tradicional y en un llamativo golpe de efecto (para variar), decretó la prohibición con fines gastronómicos del nitrógeno líquido.

¿Pero por qué el nitrógeno líquido? ¿Supone algún peligro? Desde luego, para aquellos no familiarizados con la nueva cocina y que sólo lo conozcan de oídas, es comprensible que pueda causar recelo; si fue capaz de hacer pedazos al malo de Terminator 2 qué no hará a  nuestros frágiles cuerpos. Sin embargo, debería tranquilizarnos saber que el 78% de lo que respiramos cada día es (di)nitrógeno en estado gaseoso. En su estado líquido ejerce la misma función que el agua en estado sólido: enfriar. La diferencia fundamental es que al estar alrededor de 190 ºC por debajo de la temperatura del hielo, la rapidez de su acción es mucho mayor. Jugar con diferencias extremas de temperatura al preparar un plato no es nada excepcional; lo extraordinario ha sido disponer de tecnologías que lo permitieran.

Vemos entonces que el peligro del nitrógeno líquido no radicaría en su toxicidad, sino en su temperatura. Pero al tener un punto de ebullición tan bajo, a temperatura ambiente todo el nitrógeno líquido se habrá evaporado antes de llegar a la mesa; únicamente queda el alimento frío en nuestro plato. Sin embargo, las autoridades italianas, agarrándose a un clavo no refrigerado precisamente, declararon esta técnica prohibida por peligro de explosión. Es cierto que si el nitrógeno líquido se deja calentar en un recipiente cerrado, el gaseoso irá aumentando la presión hasta que pueda hacerlo estallar. Pero tengamos en cuenta que lo mismo ocurre con el agua en las ollas a presión y no parece razonable prohibirlas.

Index ciborum prohibitorum

Al chef se le puede ir la mano con el nitrógeno líquido

El nitrógeno líquido no fue el único condimento caído en desgracia en la patria del catenaccio, siendo regulados además diversos aditivos de síntesis. De los veinte aminoácidos naturales que forman parte de las proteínas que ingerimos habitualmente, hay uno muy habitual llamado ácido glutámico. En forma de sal tiene por nombre glutamato sódico. He ahí la siguiente víctima en este afán regulador. Aunque puede obtenerse artificialmente, algunos alimentos ya llevan glutamato sódico por sí mismos: tomates, setas e incluso nuestras madres al amamantarnos nos lo proporcionaron. Una particularidad de este condimento está en ser uno de los gustos básicos. Lo que normalmente definimos como sabor cuando comemos son olores en realidad, porque sabores —gustos— que detecten nuestra lengua sólo hay cinco: dulce, salado, amargo, agrio y… nuestro amigo el glutamato, también conocido más coloquialmente como umami. Así que difícilmente puede resultar extraño a nuestro organismo si tenemos receptores específicos para él.

Otro ingrediente prohibido fue la metilcelulosa. La celulosa es un polímero formado por azúcares que consumimos a diario cada vez que ingerimos algún alimento de origen vegetal. Como no somos rumiantes, no podemos extraer energía de ella a pesar de su contenido en azúcares. Simplemente la ingerimos y pasa limpiamente (perdonen el eufemismo) por nuestro sistema digestivo. Es lo que vulgarmente conocemos como fibra. No tiene sabor, no la digerimos y no produce alergias alimentarias, a diferencia de otros polímeros vegetales como es el gluten.

La metilcelulosa es una variante de ella que, aunque se puede obtener de manera natural, suele ser un producto de síntesis. Que no es tóxica es algo que se sabe bien; se trata de un ingrediente muy común en las cápsulas farmacéuticas que tomamos. Y créanme cuando les digo que ninguna otra industria tiene que hacer más pruebas de toxicidad que la farmacéutica. Por lo demás, ocurre con ella lo mismo que con la celulosa: no se digiere, no se absorbe y no provoca alergias. Pasa sin pena ni gloria a través de nosotros. Y en dosis muy elevadas de forma más rápida si cabe, dadas sus propiedades laxantes.

Un falso dilema

Aunque la lista podría continuar, estos ejemplos permiten hacernos una idea de cómo un debate establecido en términos equivocados (química vs cocina tradicional) y alimentado de temores supersticiosos a todo aquello que “tenga química” puede acabar desencadenando regulaciones sin sentido por parte de unas autoridades políticas más atentas al impacto mediático que a la salud. Es lógico que convivan dos tendencias en todos los ámbitos de la vida: el conservadurismo y la innovación. Hacer cocina tradicional es fantástico, pero reclamar la pureza de la cocina rodeado de ollas a presión, microondas y neveras… resulta un tanto contradictorio, por decirlo amablemente. Las técnicas evolucionan pero también los ingredientes, sin perder por ello calidad y seguridad. Desde el primer homínido que comió un animal consumido por un incendio hemos evolucionado mucho y nos convertimos en la única especie con la capacidad de cocinar.

Aprovechémosla pues.

*Eduardo Punset lo explica detalladamente en Excusas para no pensar.


Investigación científica en España

Supongo que la famosa frase de don Santiago Ramón y Cajal “investigar en España es llorar” es quizá un inicio demasiado pesimista para un artículo. Si lo combinamos con la frase de Unamuno “¡que inventen ellos!” puede ser ya como para saltar al siguiente artículo; si no por una ventana caso de tener el sustento mensual en esto de innovar. Pero qué quieren que les diga; si vamos a abordar la investigación científica en este país me temo que son citas obligadas. Aunque sólo sea como referencia para verificar los supuestos progresos de la innovación de este país. Porque ¿ha cambiado algo a lo largo del siglo que aproximadamente nos separa de dichas palabras? Siendo sinceros y no dejándonos llevar por el victimismo español, sí han cambiado cosas, en muchas ocasiones incluso a mejor; sin embargo es imposible librarse de cierta inquietud. Es tal vez difícil no dejar de pensar que lo que no ha cambiado es el trasfondo social que propició frases tan brillantes a la par que pesimistas.

Santiago Ramón y Cajal

¿A qué me refiero como trasfondo social? Es posible que suene a perogrullada, pero algo fundamental para desarrollar investigación científica y técnica es la tradición científica. La tradición científica es el sentimiento, extendido al conjunto de la sociedad, de que la investigación es una condición necesaria y suficiente para tomar ventaja respecto al resto de competidores. Es importante el matiz “extendido a toda la sociedad”, no sólo porque constituya la fuente del personal interesado en dedicarse a esta función, lo cual aunque importante no es del todo imprescindible —no olviden la frase del torero Guerrita “hay gente pa tó”—; sino porque la sociedad al completo considera las partidas económicas dedicadas a este concepto como inversión, no como gasto. Este es el auténtico meollo de la cuestión y es el origen del secular retraso español en aspectos científicos. No hay vuelta de hoja; un anglosajón sabe, desde que tiene uso de razón, que James Watt se hizo millonario y generó millones de puestos de trabajo aplicando su máquina de vapor en la industria textil. Cualquier españolito no tiene ni idea de los beneficios que le reportó a Isaac Peral la invención del submarino; quizá por ser piadosos, porque beneficios, lo que se dice beneficios, más bien ninguno.

Al hilo de este asunto no deja de ser significativa la postura del gobierno español a lo largo de sus dos mandatos. Al llegar al poder nuestro actual gobierno declara que la I+D+i debe convertirse en el motor económico que lidere el cambio de modelo productivo. Es posible que esté equivocado, pero me parece que es la primera vez que el gobierno de nuestra nación deja de ver la investigación, al menos públicamente, como un exotismo necesario para pasar a denominarnos país del primer mundo y… poco más. Condiciones había, la inversión en educación ha empezado a dar sus frutos: por primera vez tenemos una masa crítica de personal altamente cualificado capaz de generar una auténtica producción propia con los medios adecuados. Sin embargo hay dos problemas fundamentales a los que no se dio solución. El primero es que el sistema de investigación pública, habiendo crecido mucho, no es capaz de absorber a la inmensa mayoría de este personal, lo cual por otro lado es bastante lógico. Hipertrofiar el sistema público no es una buena idea dado el carácter funcionarial del mismo, aunque siendo realistas el ratio de investigadores públicos por habitante es exiguo comparado con países que sí tienen una auténtica tradición científica.

La fachada-retablo de la Universidad de Salamanca, una de las más antiguas del mundo.

El segundo problema es más dramático. La investigación privada en este país es realmente marginal, normalmente realizada por multinacionales, y lo es porque los beneficios son más inmediatos comprando licencias que generándolas. Esto indica un problema en cuanto a la política fiscal aplicada a la innovación que no ha sido abordado. No me malinterpreten, no es que haya sido abordado erróneamente, es que simplemente no se ha considerado. Es en este marco legal en el que se encuadra la reciente polémica entre Mariano Barbacid y el Ministerio de Ciencia e Innovación. Sea como fuere creo que la postura inicial del gobierno, sin ser precisamente un votante, sobre el cambio de modelo productivo, dio en la diana sobre el tratamiento que la sociedad española debería dar a la I+D. Intentar desarrollar una infraestructura pública, ya que la privada no existe a todos los efectos, capaz de trasladar sus descubrimientos a la industria española es el primer paso para iniciar una tradición científica. Nada prematura, es cierto, pero mucho mejor que el panorama anterior. Sin embargo, la crisis ha revertido el proceso. Las declaraciones del gobierno vuelven a hablar de gasto, no de inversión; mientras, las pequeñas y medianas empresas, las que deberían innovar en nuestro país para pasar al siguiente nivel y convertirse en grandes e incluso multinacionales, no innovan: copian, licencian o, incluso aún más habitual, cierran.

Esto trae aparejado que el personal cualificado emigre. No deja de ser curioso que alguno, principalmente los medios de comunicación, lo vea como un éxito del sistema de investigación español. Se ha dicho muchas veces pero creo que es importante repetirlo. La formación de este personal nos ha costado dinero a todos los españoles y, sin embargo, están dando beneficios a inversores localizados en otros países. Simplemente, y a pesar de tener la capacidad para ello como prueba el hecho de que sean contratados, no generan riqueza ni empleo a aquellos que costearon sus estudios. Está muy bien que haya numerosos investigadores españoles en Nueva York, pero esto no es síntoma de que la Investigación española vaya bien. Es síntoma de que la educación sí va bien, pero la educación es sólo la etapa previa a la creación de riqueza por parte de la población, condición necesaria pero no suficiente. Si el esfuerzo educativo de los españoles no revierte en ellos, se lo estamos regalando a otros países que en el fondo son nuestra competencia.

No es que en España no haya habido ciencia e innovación; la ha habido, la hay y, seguramente, la seguirá habiendo independientemente de la coyuntura económica y social. Pero en cuanto a ciencia pasada y presente es un suceso aislado fruto del trabajo de unos tipos extraordinarios que o bien son capaces de sobreponerse e investigar con cantidades irrisorias o recaudar dinero de las maneras más improbables. Lo importante para asegurar la función de la ciencia como motor de la economía es que la sociedad la entienda como suya y premie en las urnas a aquellos que así lo entiendan aunque no vayan a ver los resultados de esta inversión para las próximas elecciones, del mismo modo que deberían penalizar actuaciones erráticas en este sentido. No puede ser tan difícil si en el país del “algo habrá hecho” o las barbacoas de sodomitas en Autos de Fe públicos provoca alarma la violencia contra las mujeres o la homofobia. Deberíamos ser también capaces de cambiar la percepción de la investigación y el desarrollo que tiene la sociedad española en un plazo razonable de tiempo.