Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

diciembre 19, 2014

Que invente Unamuno

Miguel de Unamuno en 1930. (Foto D.P.
anónima vía Wikimedia Commons)
Todo el pensamiento de Unamuno respecto de la ciencia, el progreso y el conocimiento se ha resumido en una sola frase tomada de su vasta obra: “¡Que inventen ellos!”

La frase así, por sí misma, se puede interpretar de varias formas.

“Me da pereza inventar, que inventen ellos.”

“Carezco de los medios necesarios para inventar, que inventen ellos.”

“No creo en los beneficios de la invención, que inventen ellos.”

“Yo cumplo mi función en el mundo, y no es la de inventar, que inventen ellos.”

Estos ejemplos bastan para ver que sin un contexto mayor, la frase en sí misma no significa demasiado. Y quizás por eso ha sido utilizada y citada en apoyo de afirmaciones incluso contradictorias.

La primera pregunta que habría que responder para determinar cuál es el sentido que probablemente Unamuno quiso darle a su frase es la que nos sugiere precisamente la diversidad de interpretaciones que tiene: ¿era Unamuno enemigo de la ciencia y la técnica?

Curiosamente, la respuesta depende del momento al que hagamos referencia, acudiendo a la definición del contemporáneo y frecuente adversario de Unamuno, Ortega y Gasset, “yo soy yo y mi circunstancia”, Unamuno fue distinto en distintas circunstancias.

Antes de 1897, Unamuno era radicalmente favorable a la ciencia. Según cuenta Josep Eladi Baños en su ensayo de 2007 “Cien años de ¡Que inventen ellos!”, hasta entonces el filósofo era un positivista, un convencido de que la ciencia lo podía todo, tenía todas las respuesta, físicas y metafísicas, que el hombre pudiera plantear, sin pensar en que hay preguntas que según como se formulen son simplemente imposibles de responder. La profunda crisis religiosa que sufrió Unamuno en 1897 y que lo llevó a abandonar también a su partido, el PSOE, transformó su visión y se fue orientando progresivamente más hacia la espiritualidad como fuente de respuestas. A partir de 1897, Unamuno fue cada vez más anticientífico, pero más como postura filosófica que le permitía cimentar su visión mística que como un rechazo en la práctica a los avances que la ciencia iba ofreciendo a la sociedad y que le resultaban fascinantes.

La segunda pregunta es precisamente cuál es el contexto en el que escribió la frase y qué implicaba en su visión general de la realidad. Aquí hay también dos respuestas. La primera vez que aparece la frase es en su ensayo “El pórtico del templo” de 1906, y se produce en una conversación entre dos amigos, Román y Sabino, en los que se puede ver el espíritu del debate ciencia-religión que mantuvieron Ortega y Gasset y Unamuno, Ortega del lado de la razón y Unamuno de la mística. Román defiende que el español inventa “otras cosas” aunque no sean tan evidentemente útiles como las de la ciencia.

ROMÁN – ¡Ah! ¿Y quién te dice que no hemos inventado otras cosas?
SABINO – ¡Cosas inútiles!
ROMÁN – Y ¿quién es juez de su utilidad? Desengáñate: cuando no nos ponemos a inventar cosas de esas, es que no sentimos la necesidad de ellas.
SABINO – Pero así que otros las inventan, las tomamos de ellos, nos las apropiamos y de ellas nos servimos; ¡eso sí!
ROMÁN – Inventen, pues, ellos y nosotros nos aprovecharemos de sus invenciones. Pues confío y espero en que estarás convencido, como yo lo estoy, de que la luz eléctrica alumbra aquí tan bien como allí donde se inventó.
Unamuno parecía estar tomando la posición de la última de las interpretaciones sugeridas: los españoles tienen una función literaria, espiritual, filosófica, y ésa es su aportación a la división del trabajo entre los seres humanos, así que la invención científica les queda a “ellos” sin renunciar a la posibilidad de beneficiarnos de ella, como ellos se beneficiarían del trabajo artístico y espiritual español.

La impresión que deja es que encuentra necesario el rechazo filosófico de la ciencia aunque no lo lleve a la práctica, como si fuera un requisito de su espiritualidad tardíamente descubierta. Pero al mismo tiempo es un enamorado del progreso en muchas otras facetas.

En su obra magna de 1912, El sentimiento trágico de la vida, Unamuno retomaría la frase para responder a quien se escandalizaba por ella. Y se reafirmaba: “Expresión paradójica a que no renuncio” para luego explicarse: “ ¿Que no tenemos espíritu científico? ¿Y qué, si tenemos algún espíritu? ¿Y se sabe si el que tenemos es o no compatible con ese otro?” Y continuaba “Mas al decir, ¡que inventen ellos!, no quise decir que hayamos de contentarnos con un papel pasivo, no. Ellos a la ciencia de que nos aprovecharemos; nosotros, a lo nuestro”.

En otra ocasión, Unamuno insistiría “Es inútil darle vueltas, nuestro don es ante todo un don literario, y todo aquí, incluso la filosofía, se convierte en literatura.”
Su separación de su postura filosófica originaria comenzó con un rechazo a lo que entiende como “cientificismo” (“fe ciega en la ciencia”) al que separa de la “verdadera ciencia” en su ensayo llamado precisamente “Cientificismo” de 1902 cuando dice: “el cientificismo es la fe, no de los hombres de ciencia, sino de esa burguesía intelectual, ensoberbecida y envidiosa” a la cual acusa de no entender la ciencia pero al mismo tiempo de no poder negar “los efectos del ferrocarril, del telégrafo, del teléfono, del fonógrafo, de las ciencias aplicadas en general” que mencionaría después.

Y esto parecía darle cierta tranquilidad. No era necesario resolver ese problema porque como español lo suyo no era la ciencia. Y además, si la ciencia combatía la fe, un hombre de fe debía combatir a la ciencia.

Pero al paso del tiempo, parece irse radicalizando hasta declararse enemigo de la ciencia. Da la impresión de que su desilusión porque la ciencia no puede responder a preguntas trascendentes lo lleva a concluir que debe rechazarla, hasta que llega a escribirle a su amigo Pedro Jiménez Ilundain: “Yo no le oculto que hago votos por la derrota de la técnica y hasta de la ciencia”.

El problema de Unamuno es un conflicto que aún no se resuelve. Tal vez quien ha dado la mejor explicación al respecto fue su amigo Enrique de Areilza, en carta también a Jiménez Ilundain. Según Areilza, como la ciencia no le ha traído a Unamuno gloria ni tranquilidad de espíritu, “la odia a muerte; la odia tanto o más cuanto la tiene dentro; es la espina dolorosa que mortifica su fe, pero de la cual no podrá desprenderse porque constituye el fondo de su gran saber y su valía”.

Si tal es la explicación correcta a la relación de Unamuno con la ciencia, es también reflejo del conflicto que muchos siguen teniendo. No, ciertamente, los científicos españoles para quienes el “¡que inventen ellos!” es parte de una circunstancia pasada que, por fortuna, ha cambiado.

diciembre 18, 2014

Invisibilidad, engaño y simulación naturales

El sueño de la invisibilidad es una realidad para numerosas especies animales y vegetales que, por distintos métodos, se aseguran de pasar tan desapercibidos como si no estuvieran allí.

Búho nevado aterrizando en Canadá. (Foto CC David
Hemmings via Wikimedia Commons)
Para las presas y los depredadores, una forma de mantenerse vivo es ser más rápido, más temible o más astuto que sus adversario. Pero esas opciones representan un gasto enorme de recursos, de esfuerzo y de riesgo, como lo demuestra la carrera armamentística que mantienen especies como los guepardos y las gacelas, donde cada uno de ellos ha creado una presión de selección para el otro, al favorecer la supervivencia y reproducción precisamente de los más rápidos de cada una de ambas especies, poniendo a la larga a ambas en peligro.

Pero hay una opción de ahorro de recursos que con frecuencia se ha desarrollado en el mundo vivo: no hacer nada. Mimetizarnos con el entorno, desaparecer o fingir lo que no somos.

Especialmente si nuestros depredadores o presas son reptiles, el mecanismo de su visión suele depender de la detección del movimiento contra un fondo, de modo que si un animal queda inmóvil (incluso dejando de respirar), se vuelve invisible. La inmovilidad es la forma más sencilla del mimetismo que los biólogos llaman “cripsis”: adaptaciones de conducta y aspecto que hacen que los animales pasen inadvertidos, un vocablo que procede del griego “kryptos” que significa “secreto” y que encontramos en otras palabras como ”cripta” o “criptografía”, el arte del cifrado.

Otra opción frecuente es adoptar (evolutivamente, se entiende, no de modo voluntario) un aspecto que no nos obligue a hacer demasiado, sino que baste para confundir, ahuyentar, distraer o repeler a los posibles depredadores. La cripsis homocromática o de color igual implica que el ser vivo adopte un color similar al fondo contra el que habitualmente lo vemos, como ocurre con los animales que mudan su pelaje de verano por uno blanco durante el invierno para ser menos detectables al estar en la nieve. Lo mismo pasa con el color verde de algunas ranas, el color tostado de muchos animales del desierto o de la sabana, como el león, o el color cenizo de algunas polillas y lagartijas que las disimula contra los troncos de los árboles.

Pero también puede ser un mimetismo mucho más completo, que resulte un completo disfraz, asumiendo el aspecto de partes de su entorno. Los insectos palo y los insectos hoja, así como las orugas que simulan ser ramitas verdes se benefician de esta característica. Muchos insectos hoja subrayan la ilusión con su comportamiento, agitándose cuando hay viento para no llamar la atención por su inmovilidad, precisamente.

Otros animales se caracterizan por utilizar patrones más o menos repetitivos que sirven de elementos disruptivos para no resaltar contra el fondo en el que habitualmente se mueven o para hacer menos identificable visualmente al individuo, como es el caso de las cebras, los tigres o los leopardos. En el mar, el maestro del camuflaje o cripsis entre los depredadores es el llamado pez piedra (Synanceia verrucosa), común en los océanos Índico y Pacífico, que se confunde con el fondo marino gracias a su aspecto pedregoso y accidentado, acechando hasta que pasa una presa cerca para saltar y devorarla. Como añadido tiene la característica de tener espinas venenosas en la aleta dorsal que lo convierten en el pez más tóxico del mundo para los humanos.

Existe además una forma de mimetismo distinta de la cripsis en la cual un ser vivo, en vez de camuflarse para disimular su presencia, cambia ésta adoptando la forma de otro animal o algún rasgo de éste para ofrecer un aspecto temible, tóxico o simplemente de mal sabor.

Un ejemplo de esta transformación es la imitación de la serpiente coralillo, que vive a lo largo del continente americano y es mortalmente venenosa. Se distingue por una sucesión de bandas rojas y negras separadas por anillos amarillos, coloración brillante que advierte que se trata de un animal tóxico. La falsa coralillo, absolutamente inocua, ha adoptado una coloración de bandas rojas separadas por tres anillos sucesivos: negro, amarillo y negro. Aunque la imitación no es precisa, basta para engañar a los depredadores y al hombre, que ha creado incluso rimas para identificar el peligro. En español se dice: “si el rojo toca amarillo, es coralillo”. Otros ejemplos son las mariposas y orugas que tienen ocelos o falsos ojos que hacen que parezcan la cabeza de grandes animales o serpientes igualmente peligrosas.

Una de las formas más curiosas de la cripsis o camuflaje es directamente la invisibilidad parcial. Es una opción útil si uno no vive en el fondo del mar, donde las distintas texturas y colores permiten que evolucione un camuflaje efectivo. Viviendo lejos del fondo, no existe esa opción. Algunos seres vivos en el mar, como las larvas de la anguila o los calamares del género Chiroteuthis, pulpos, moluscos y caracoles, han desarrollado tejidos transparentes que los hacen invisibles a menos que uno los esté buscando con detenimiento.

De hecho, cuentan los expertos, el océano está habitado por enormes cantidades de organismos que han desarrollado la transparencia como mecanismo de supervivencia, y solemos nadar entre ellos sin siquiera darnos cuenta de que están allí. Pero esto también provoca su propia carrera armamentística, presionando para que los depredadores vayan desarrollando la capacidad de ver la porción ultravioleta del espectro electromagnético para detectar a sus presas.
El campeón del mimetismo, sin embargo, son los cefalópodos: calamares, pulpos y sepias, que han desarrollado órganos de pigmentación llamados “cromatóforos” que les permiten cambiar de aspecto casi instantáneamente. Su capacidad de cambiar de aspecto está tan desarrollada que se utiliza también como método de comunicación entre sepias y como parte del cortejo.

Hablando de cortejo, el mimetismo es utilizado de forma muy eficaz para la reproducción por muchísimas plantas, entre las que las más evidentes son las orquídeas, que simulan los órganos reproductivos de hembras de distintos insectos para conseguir que el macho intente copular con ellas y como resultado se convierta en el diseminador de su polen.

La mentira verbal puede ser privativa del ser humano, pero la capacidad de engañar es, claramente, una necesidad vital para la supervivencia.

Interferencia de señales

El engaño o camuflaje no es necesariamente siempre visual. Los depredadores pueden utilizar otros sentidos para detectar a sus presas, y por ello hay también mimetismos olfativos o, incluso, auditivos. La polilla tigre, por ejemplo, es capaz de emitir ultrasonidos que, creen los investigadores, sirven para interferir con las señales que usa para detectar a sus presas por sonar su principal depredador: el murciélago.

diciembre 17, 2014

El inesperado mundo de los hongos

Ni animales ni vegetales, los hongos son una forma de vida que interviene, casi sigilosamente, en muchísimos aspectos de la cotidianidad humana.

(Foro CC Orest, vía Wikimedia Commons)
Nuestras principales interacciones con el mundo de los hongos se dan al usarlos como alimentos y al sufrirlos como plagas.

Las setas son muy apreciadas en distintas culturas, ya sea el boletus en España, el champiñón en Francia, la trufa en la cocina europea o el shitake en Asia oriental, además de ser utilizados para preparar alimentos como fermentos y colorantes del vino, el queso, la salsa de soja y el pan.

Como plagas, pueden afectar las cosechas o atacarnos a nosotros y a nuestros animales. Entre las más comunes de estas infecciones, llamadas “micosis”, están el pie de atleta, la candidiasis (vaginal y oral) y la onicomicosis o infestación de las uñas de los pies.

Pero, más allá de estos casos, fuera de los espacios del conocimiento especializado, los hongos son bastante poco conocidos y aún sorprende que se trate de todo un reino de la vida, como lo son los reinos animal, vegetal, protista (algas y protozoarios), bacteria y arqueobacterias. Es decir, los hongos no son vegetales. Son otra forma de vida distinta.

Las plantas producen su propio alimento utilizando la energía del sol en la fotosíntesis para sintetizar el agua, el bióxido de carbono y los nutrientes del suelo. Los hongos como los animales, consumen alimento ya producido, sea directamente por las plantas o de tejidos animales, y no hacen la fotosíntesis.

Además, las paredes celulares de las plantas son de celulosa, polisacárido que reconocemos en la madera y en productos como el papel, mientras que las paredes de las células de los hongos son de quitina, proteína que no existe en el mundo vegetal pero sí en el animal, como componente fundamental del exoesqueleto de insectos y crustáceos como las gambas. Finalmente, las plantas almacenan su energía en forma de almidón y los hongos la almacenan en forma de trehalosa, , igual que los animales.

Así, los hongos son una forma de vida entre la animal y la vegetal, que se estima que surgió hace 1.500 millones de años, aunque no hay fósiles de hongos sino hasta hace apenas 500-600 millones, entre otras cosas por lo fácil que se degradan los cuerpos de los hongos macroscópicos y lo mucho que se parecen los hongos microscópicos a otros organismos.

Microscópicos o macroscópicos, los hongos son organismos celulares relativamente sencillos de los cuales se conocen más de 100.000 especies.
Ya que todos los hongos necesitan alimento ya existente para sobrevivir, se les encuentra jugando el papel de agentes de la descomposición de los organismos muertos, vegetales o animales. Los hongos son unos de los más grandes mecanismos de reciclaje de la naturaleza, ya que toman los restos orgánicos y los devuelven al entorno en formas que otros organismos pueden digerir.

Esta misma capacidad de descomponer restos orgánicos hace que casi todas las plantas establezcan relaciones de simbiosis (una relación mutuamente beneficiosa) con diversos hongos en sus raíces para ayudarles a absorber minerales y agua de la tierra, aportándoles a cambio carbohidratos para la alimentación de los hongos.

Otra asociación que establecen con frecuencia los hongos es con algas o con cianobacterias, formando los líquenes, que tienen la capacidad de sobrevivir en algunos de los entornos más inhóspitos de nuestro planeta: la tundra del ártico, los desiertos más extremos, las costas rocosas y en pilas de escoria producto del beneficio de minerales. La enorme capacidad de resistencia de los líquenes se debe precisamente a cómo se apoyan sus componentes (o “simbiontes”). El hongo le da a las algas o bacterias protección contra el sol y contra la deshidratación, permitiendo que éstas desarrollen su fotosíntesis proporcionando alimento para ambos socios.

Y gracias a esta resistencia, los líquenes son con frecuencia el único alimento en zonas como la tundra, donde el 90% del alimento de caribús y ciervos son los líquenes que encuentran adheridos a las piedras bajo la nieve.

Es indispensable, para tener un retrato rápido de este reino desconocido, mencionar la toxicidad de muchos hongos, especialmente las setas, de las cuales más de 20 genus y docenas de sus especies pueden presentar un peligro de graves trastornos, aunque sólo unas 30 especies son altamente mortales para los seres humanos o para los animales que los consumen. Distintos hongos en distintas geografías pueden contener distintas toxinas, muy especialmente la llamada alfa-amanitina, que contiene la más mortal de todas las setas, la Amanita phalloides, conocida también como oronja verde, oronja mortal o cicuta verde.

La mayor parte de las intoxicaciones por setas se deben a la ignorancia y el intento de identificar el potencial tóxico de una seta utilizando supersticiones tales como una que indica que si se pone una moneda de plata en la sartén donde se preparan las setas, se pondrá negra si éstas son tóxicas. Nada sustituye al conocimiento adecuado de las setas de un lugar determinado y la asesoría de la micología, que es precisamente la ciencia que estudia el reino de los hongos.

Menos común es saber en qué medida los hongos son parte del arsenal que conserva nuestra salud o nos la devuelve. Más allá de setas a las que las creencias les atribuyen poderes curativos no corroborados, hay una enorme cantidad de medicamentos de gran importancia derivados de hongos. Bastaría sólo señalar la penicilina y todos los antibióticos que le siguieron para comprender su relevancia en la salud, sobre todo cuando la penicilina procede del mismo hongo que provoca la deliciosa transformación de algunos quesos en quesos azules, donde el hongo penicillium les aporta sabor, acidez y su textura características. Inmunosupresores de uso común indispensables para los trasplantes de órganos, medicamentos que reducen el colesterol (estatinas), proteínas que modulan la respuesta inmune y adyuvantes inmunológicos son sólo algunos ejemplos.

Los distintos hongos están, además, implicados en numerosas áreas de la investigación biológica y médica, incluidas las que buscan combatir distintas formas del cáncer y las dedicadas a la lucha contra algunas enfermedades mentales utilizando algunas setas conocidas por contener alucinógenos que podrían tener una función psiquátrica.

Las setas del pasado

La momia natural conocida como Ötzi, un hombre que vivió hace unos 5.300 años y que fue conservado al morir en un glaciar entre lo que hoy son Suiza e Italia, llevaba consigo dos tipos de hongos. Uno que al secarse se utiliza como yesca para hacer fuego y que llevaba junto a carbón y pedernales, y otro que tiene propiedades antiparasitarias que se corresponden con una infestación que tenía este hombre de la edad de bronce.

diciembre 16, 2014

La nave que se posará en un cometa

En agosto de 2015, un cometa alcanzará su mayor acercamiento al sol, por primera vez en la historia acompañado de dos robots hechos por el hombre: uno en órbita y el otro posado en su superficie.

Interpretación artística de Philae siendo
liberado por Rosetta para caer al cometa.
(Foto CC ESA vía  Wikimedia Commons)
Es septiembre de 2014 y una pequeña sonda espacial, de apenas 2,8 x 2,1 x 2,0 metros está viajando junto a un cometa llamado 67P/Churyumov-Gerasimenko, maniobrando para ponerse en órbita a su alrededor, capturada por la atracción gravitacional de los 10 mil millones de toneladas de masa del cometa.

67P (para abreviar) es un cometa en forma de pato de goma que tiene una órbita periódica, es decir, que sobrevive a su viaje alrededor del sol y lo repite, en su caso, cada 6,5 años. Ahora está en camino de regreso hacia el sol, y llegará al punto más cercano a nuestra estrella (perihelio) en su viaje el 13 de agosto de 2015, acompañado por la sonda llamada Rosetta.

La historia de esta misión comienza en 1993, cuando la Agencia Espacial Europea autorizó una misión sin precedentes para lanzar una sonda que llegara a un cometa, lo acompañara en su viaje y soltara un robot capaz de aterrizar en su superficie para estudiarla. Siguieron 11 años de trabajo en los que participaría además como asociada la NASA estadounidense. Los trabajos de preparación concluyeron cuando la misión Rosetta fue lanzada al espacio en un cohete Ariane 5 en marzo de 2004, comenzando un viaje de 10 años para su encuentro cometario.

El antecedente directo de esta misión es la “Deep Impact” o “Impacto Profundo” de la NASA, que se estrelló contra el cometa Tempel I en 2005, cuando Rosetta ya estaba de camino al 67P. Esta misión permitió descartar la idea de que el cometa pudiera estar formado por montones de distintos materiales agregados por gravedad, sino que demostró que se trataba de un cuerpo sólido, con más roca que hielo.

La realidad es que sabemos muy poco acerca de los cometas, que han sido objeto de atención por la espectacularidad que pueden llegar a tener algunos, y por lo desusados que eran en los cielos para las culturas que observaban atentamente el cielo a fin de determinar sus ciclos agrícolas y estacionales, además de buscar señales de la voluntad de los dioses. Y los cometas en general se consideraban presagios, casi siempre nefastos, en las más diversas culturas.

Fue Tycho Brahe, en los inicios de la revolución científica, quien propuso que se trataba de cuerpos celestes sujetos a las mismas leyes que los otros y que, además, venían de algún lugar mucho más alejado de la Luna. Isaac Newton y Edmond Halley establecerían las características de las órbitas de estos cuerpos.
Pero quedaba la duda de qué eran, cuál era su composición. No fue sino hasta 1950 cuando Fred Lawrence Whipple propuso una hipótesis sólida: que eran cuerpos formados por rocas y hielo que, al fundirse, es empujado por el viento solar formando la cola de los cometas. Las observaciones astronómicas de los cometas, capaces de discernir parte de su composición utilizando sistemas como la espectrografía o análisis de la luz que emiten, y que varía según las sustancias que contienen, se empezaron a ver apoyadas en 1985 por visitas de naves espaciales humanas. Algunas simplemente pasaron cerca de un cometa, como las Vega 1 y 2, la Giotto o la Stardust, que recogió muestras de polvo en las cercanías del cometa Wild 2 y las trajo de vuelta a la Tierra.

Vendría entonces la ambiciosa misión Rosetta. En los diez años transcurridos desde su lanzamiento, la pequeña sonda viajó a más de 5 veces la distancia entre el Sol y la Tierra (distancia conocida como Unidad Astronómica), o 788 millones de kilómetros, casi hasta la órbita de Júpiter, con objeto de encontrarse con el cometa 67P/CG, descubierto en 1969 en Kiev por los astrónomos rusos Klim Ivanovych Churyumov y Svetlana Ivanovna Gerasimenko.

Rosetta lleva instrumentos para analizar los gases que rodean al cometa, la composición del núcleo, el polvo que desprende, la temperatura interior del núcleo, su interacción con el viento solar a lo largo de su recorrido, su masa y gravedad exactas, además de llevar cámaras de alta resolución para enviar a la Tierra imágenes del cometa durante todo el viaje. Un total de 11 dispositivos de análisis para recopilar información de lo más diverso –y completo- acerca del cometa.

Rosetta lleva además, y como elemento clave de su inédita misión un pequeño módulo de aterrizaje, llamado Philae, un cubo con tres patas que descenderá ayudado solamente por la gravedad del cometa (que se calcula en una diezmilésima parte que la de nuestro planeta). Sus patas están diseñadas para absorber el impacto, impedir en lo posible que rebote contra la superficie y girar para poner recto al módulo en caso de volcadura. Lleva además un arpón que lanzará al tocar la superficie del cometa para anclarse.

Philae también lleva a bordo una batería impresionante de experimentos, nueve en total, que ocupan una quinta parte de los 100 kilogramos de la sonda para estudiar la composición de la superficie y la composición debajo de la superficie utilizando ondas de radio, hacer análisis químicos de los gases de la superficie, el campo magnético del cometa y cómo interactúa con el viento solar, un taladro para obtener muestras a hasta 20 cm por debajo de la superficie y sus características eléctricas, además de llevar tres tipos de cámaras.

La sonda aterrizará en el cometa en noviembre de 2014, una vez que Rosetta esté en órbita fija alrededor del mismo y haya identificado el mejor lugar para ello. Ambos robots espaciales seguirán entonces realizadon estudios mientras viajan a velocidades crecientes hacia el Sol, viendo por primera vez en el propio cometa cómo se va formando su coma (la nube luminosa de gases y polvo que rodea al núcleo) y la cola que apunta en dirección contraria al Sol y está formada de hielo fundido y polvo.

La misión, que se dará por terminada, en principio, en diciembre de 2015, cuatro meses después del perihelio, habrá conseguido numerosos logros sin precedentes, como la primera misión que aterriza en un cometa y lo sigue durante su viaje, analizando lo que realmente provoca ese aspecto que tanto ha impresionado a las culturas humanas.

Los nombres

Rosetta es el nombre que tenía la piedra con un texto de un decreto del rey Ptolomeo V escrito en jeroglíficos egipcios, escritura demótica y griego antiguo. Philae, por su parte, es una isla en el Nilo donde se encontró un obelisco con inscripciones griegas y egipcias. Juntos, ambos descubrimientos permitieron a Jean-François Champollion descifrar finalmente la escritura jeroglífica del antiguo Egipto. Los investigadores espaciales creen que esta misión servirá de modo similar para descifrar los antiguos misterios de los cometas.

diciembre 15, 2014

Pseudociencias, las impostoras del conocimiento

Los más recientes descubrimientos científicos que nos llegan por muchos medios, con frecuencia ni son descubrimientos ni son científicos. ¿Cómo identificar el falso conocimiento?

Homeopatía, la pseudociencia por excelencia: sin pruebas
sobre su eficacia y seguridad es un negocio de miles de
millones de euros al año. (Foto DP de Wikidudeman
via Wikimedia Commons)
A veces parece que todo el conocimiento está ya descubierto pero por alguna razón no se utiliza ni se enseña en las escuelas: la cura para el cáncer, la forma de mantenernos esbeltos y recuperar el pelo, la energía gratuita y abundante, dinero para todos y otras maravillas.

O al menos eso nos dicen muchas cadenas de correo electrónico, las redes sociales y distintos medios de comunicación de fiabilidad no confirmada.

Estas afirmaciones suelen venir sustentadas en elementos que solemos identificar con la ciencia: palabras como “cuántica”, “energías”, “vibraciones”, “matrices” u “holístico”, supuestos “expertos” y variados argumentos.

Se disfrazan de ciencia, pero ni aplican sus métodos, ni sus precauciones, ni sus protocolos, ni son resultado del intenso trabajo supervisado por otros científicos que permite alcanzar conocimientos razonablemente certeros. Y, no pueden presentar las evidencias que le exigimos a la ciencia.

Estas pseudociencias, formas modernas de la superstición, pueden costarnos dinero y salud. Todos conocemos a alguien que, por creer en terapias no demostradas, ha perdido calidad y cantidad de vida, como el caso de Steve Jobs. Y es que, por imperfecta que sea la ciencia, es nuestra mejor apuesta para todo, desde hacer edificios hasta atender nuestra salud o hacer Internet. Conviene, entonces, ser escéptico.

Pero ¿cómo, sin ser científico, puede alguien separar el trigo de la paja? Aquí tenemos 7 preguntas para detectar, con razonable certeza, si estamos ante una pseudociencia.

1. ¿Cómo se obtuvo y difundió la afirmación? El trabajo científico requiere el concurso de muchas personas. Ya no es tiempo de genios solitarios que podían revolucionar el conocimiento desde su biblioteca. Hoy, multitudes de científicos trabajan en todos los temas del conocimiento. Si alguien afirma que ha obtenido un resultado independientemente y en vez de publicarlo en revistas científicas usa propaganda y boletines de prensa, si no puede dar cuenta de su metodología y mostrar sus datos, es razonable dudar. Y pasar al punto 2.

2. ¿Se ha verificado independientemente? En el trabajo científico, un solo estudio no es bastante. Puede marcar caminos, pero debe ser confirmado por otros investigadores, que repitan o mejoren los métodos de estudio y puedan verificar las conclusiones. Muchas afirmaciones apasionantes, como la de la “fusión fría” que prometía energía gratuita para el mundo, no pudieron ser confirmadas experimentalmente. Se determinó que los investigadores habían usado un método de medición incorrecto. Los científicos se molestaron y pasaron al mundo de la pseudociencia, donde prosperaron sin obtener jamás resultados. Se necesitan muchos estudios y confirmaciones, más si la afirmación es del tipo de las del siguiente punto.

3. ¿Implica rechazar algún principio científico bien establecido? A lo largo del tiempo no pocos principios científicos se han abandonado en favor de otros que describen de modo más preciso la realidad. Después de todo, las explicaciones científicas son modelos siempre sujetos a perfeccionarse. Pero no son creencias caprichosas. Si se pretende desafiar un principio que ha sido comprobado una y otra vez con éxito por muchos investigadores y por cualquiera en la vida cotidiana, y se ha utilizado en la práctica como tecnología (digamos, de Internet), la explicación alternativa debe ser muy sólida, debe cubrir todos los fenómenos anteriormente explicados así como los nuevos y debe ser igualmente demostrable. Es decir, no basta que alguien tenga “argumentos” contra la evolución, la esfericidad de la Tierra o la realtividad de Einstein... debe tener demostraciones y evidencias al menos tan firmes como las que hemos reunido sobre el tema para llegar al modelo que tenemos hoy.

4. ¿Se dice que hay persecución, represión o desprecio de “la ciencia oficial”? Si, como decíamos, la búsqueda del conocimiento es una labor abierta, lo es más en tiempos de Internet y del avión, donde miles de científicos se reúnen diariamente para mostrarse sus descubrimientos y animarse, es muy poco probable que un conocimiento quede oculto sin que nadie más lo descubra en mucho tiempo. Por eso hay verdaderas carreras por lograr ciertos conocimientos y patentarlos antes que la competencia. Los verdaderos perseguidos por difundir datos delicados generalmente corren peligro real, como Roberto Saviano por descubrir el funcionamiento de la camorra napolitana o Snowden por revelar secretos militares estadounidenses. Y la “ciencia oficial”, claro, no existe.

5. ¿Suena demasiado bueno? Si algo parece demasiado bueno para ser cierto, lo más probable es que lo sea. Las dietas milagro, las curaciones sencillas, la promesa de obtener grandes resultados con pocos esfuerzos, son formas del engaño en las que suelen caer los promotores de las pseudociencias. Vamos, si realmente los planos que venden en Internet dieran energía gratuita y le permitieran a alguien cancelar su contrato con la eléctrica de su localidad, seguramente no los vendería un don nadie desde su cochera. Y si alguien tuviera la cura del cáncer, se estaría haciendo enormemente (y legítimamente) multimillonario.

6. ¿Hay alguien ganando dinero detrás de la afirmación? Algunas afirmaciones pseudocientíficas son sólo producto de la ignorancia, el miedo o la desinformación, pero con frecuencia hay detrás empresas que se benefician de ellas, como los vendedores de “productos para contrarrestar la contaminación electromagnética” que promueven fundaciones, organizaciones y conferencias para aterrorizar a la gente con la idea, nunca sustentada en datos, de que las ondas de radio de la telefonía móvil o el wifi tienen efectos dañinos para la salud. Lo mismo se puede decir de las multinacionales de las terapias alternativas.

7. ¿Avanza? Una característica de la ciencia es que un conocimiento bien establecido y comprobado sirve como base para ulteriores investigaciones y descubrimientos. La descripción de las leyes del movimiento de Newton permitieron una enorme evolución hasta llegar a la teoría de la relatividad de Einstein. Las pseudociencias, como la astrología o la homeopatía, se mantienen iguales, basadas en dogmas antiguos y sin un solo avance detectable.

Algo más que un cuento

Carl Sagan decia, en su libro El mundo y sus demonios: “Si se entendiera ampliamente que las afirmaciones sobre el conocimiento exigen una evidencia adecuada antes de que se les pueda aceptar, no habría espacio para la pseudociencia. Pero en la cultura popular prevalece una especie de Ley de Gresham por la cual la mala ciencia aparta a la buena.”

diciembre 14, 2014

Los genes saltarines de Barbara McClintock

La dotación genética que nos hace lo que somos y es el vehículo de la evolución, se consideraba un esquema rígido. Barbara McClintock demostró que tenían una flexibilidad insospechada, base de la genética moderna.

Barbara McClintock en su laboratorio de la Carnegie
Institution, en 1947.
(Fotografia Smithsonian Institution via Wikimedia Commons)
“Dado que me impliqué activamente en el tema de la genética sólo veintiún años después del redescubrimiento, en 1900, de los principios de la herencia de Mendel, y en una etapa donde la aceptación de estos principios no era generalizada entre los biólogos, tuve el placer de atestiguar y experimentar la emoción creada por los cambios revolucionarios en los conceptos genéticos que han ocurrido en los últimos sesenta y tantos años.”

Es difícil imaginar este mundo que describía Barbara McClintock en su conferencia como Premio Nobel de Medicina o Fisiología de 1983, cuando había biólogos que no aceptaban la genética, no se había establecido el vínculo entre genética y evolución, y no sabíamos nada del ADN.

La propia bióloga galardonada había nacido sólo dos años después del redescubrimiento de los trabajos de Gregor Mendel, el 16 de junio de 1902, en Hartford, Connecticut, en los Estados Unidos. Ese mismo año, Walter Sutton demistraba que la genética mendeliana es aplicaba a los cromosomas de los seres vivos, es decir, que éstos transmitían las características heredadas. También en 1902 el británico Archibald Garrod observó que la alcaptonuria, enfermedad poco común, se heredaba según las reglas mendelianas.

Apenas en 1909, cuando la pequeña Barbara cumplía los 7 años de edad y vivía en Nueva York con su familia, el danés Wilhelm Hohanssen inventó una nueva palabra: “gen” para describir la unidad de herencia mendeliana. Dos años después, Thomas Hunt Morgan determinaba que los genes se encontraban en los cromosomas. Estaban listos los cimientos del trabajo de McClintock.
Barbara entró al Colegio de Agricultura de la Universidad de Cornell, NY, donde se licenció en 1923, obtuvo su maestría en 1925 y su doctorado en 1927, especializada en botánica y no en la genética, que ya era su pasión, pues las disposiciones de la universidad no permitían que una mujer obtuviera un título en la naciente disciplina.

Como doctora, McClintock empezó a trabajar en la propia universidad, trabajando con plantas de maíz, ya que esta especie tiene características que la hacen ideal para el estudio de la genética, pues cada grano de una mazorca es producto de una fertilización independiente, y es distinto de sus vecinos. Esto le permitió ser una de las descubridoras, en 1931, de un fenómeno inesperado: al reproducirse las células vivientes, los cromosomas de cada par intercambian partes entre sí.

Mc Clintock empezó entonces un peregrinaje por distintas instituciones educativas y de investigación en busca de un lugar dónde poder trabajar en condiciones adecuadas: Missouri, California, el Berlín y el Friburgo de la preguerra en 1933, de nuevo Cornell y Missouri, donde trabajó con el novedoso concepto de que la radiación provocaba mutaciones para estudiar la variación genética.

Finalmente, en 1941 la investigadora llegó a Cold Spring Harbor, en Washington, dependiente del Instituto Carnegie, donde encontró su lugar y donde permaneció como investigadora hasta el final de su vida.

Fue allí, en 1944, cuando descubrió que había elementos genéticos que podían cambiar de lugar en los cromosomas. Hasta entonces, la idea aceptada era que los genes se ubicaban en el cromosoma como las perlas en un collar, cada uno con una posición determinada e inmutable que se transmitía inalterado a su descendencia. Lo que demostró el trabajo de McClintock es que no había tal patrón inalterable, sino que por distintas causas, dentro y fuera de la célula, algunos genes pueden cambiar de lugar (transponerse) afectando así al organismo resultante. Los genes, pues, podían “saltar” de un lugar a otro en la cadena, con efectos discernibles. Estas transposiciones o cambios de lugar podían ocurrir de modo autónomo o como resultado de la interacción con otros genes. Así, McClintock descubrió también que había un tipo de genes cuya función era activar –o desactivar- a otros genes en su vecindad, y un segundo tipo de genes que eran responsables de que el activador cambiara de lugar o sufriera transposición.

Este proceso permitía así que ciertos genes del individuo resultante estuvieran o no activos en función de la transposición que hubieran sufrido durante la reproducción. El descubrimiento introducía un elemento adicional para explicar la variabilidad de la dotación genética de las especies, algo fundamental para la evolución.
El mismo año que hizo este fundamental descubrimiento, McClintock fue elegida como miembro de la Academia Nacional de Ciencias de los EE. UU. Era apenas la tercera mujer que ingresaba en la institución. Y en 1945 se validaba su trabajo al convertirse en la primera mujer que presidía la Sociedad Genética de los Estados Unidos, algo singular si recordamos que 20 años antes se le había negado la posibilidad de especializarse en genética.

Su trabajo en los genes saltarines (llamados técnicamente “transposones”) fue recibido con cierto escepticismo cuando finalmente lo publicó en 1950, según sus biógrafos en parte por su condición de mujer pero también por su poca eficiencia en la comunicación de sus resultados. Pero la idea era sólida y la confirmaron estudios diversos entre 1967, el año en que McClintock se jubiló formalmente, y 1970. Una vez validado el descubrimiento, así fuera tardíamente, la genetista fue galardonada con el Premio Nobel.

El escepticismo era explicable de varias formas. Cuando la estudiosa hizo sus descubrimientos ni siquiera se sabía que los genes estuvieran formados por ADN (ese descubrimiento sobrevendría hasta 1952) y lo incierto del camino hacía que la cautela se impusiera al valorar las afirmaciones más revolucionarias.

Pero ésa no sería la única aportación de Bárbara McClintock a la genética. Además de desarrollar numerosas técnicas que permitieron a otros investigadores realizar otros avances, fue una de las primeras biólogas que especuló sobre la epigenética, los cambios hereditarios en la expresión (activación) de los genes que no se deben a cambios en las secuencias de ADN.

Jubilada pero no retirada, Barbara McClintock siguió como investigadora distinguida en el Instituto Carnegie y se dedicó a explicar la transposición de los genes y su significado en la genética moderna. Murió el 2 de septiembre de 1992.


Los honores

A lo largo de su vida, Barbara McClintock recibió los más altos honores de la academia estadounidense. El Premio al Servicio Distinguido del Instituto Carnegie, el Premio Rosenstiel por investigación médica básica, un fellowship de la fundación MacArthur, el premio Mary Lasker y la Medalla Nacional de la Ciencia de los Estados Unidos.

octubre 26, 2014

La guerra biológica

Todo conocimiento puede ser usado para el mal, sobre todo para el mal mayor que es la guerra, donde ganar a cualquier coste puede llegar a ser muy caro, caso claro de las actuales armas biológicas.

Cultivo de bacilo del ántrax muestreado en 1993 en
Kameido, Japón, después de un ataque bioterrorista
de la secta religiosa Aum Shinrikyo, que dos años
después atacaría con gas sarín el metro de Tokio.
(Foto D.P. de los CDC de EE.UU., vía Wikimedia
Commons)
La guerra biológica plantea escenarios de ciencia ficción y peligros aterradores. Al mismo tiempo, su utilización es realmente menos frecuente hoy que en el pasado, por no ser tan eficaz como desearían los ejércitos, que buscan convertir en armas los productos del conocimiento. En ese sentido, cuanto hay en la naturaleza que nos puede matar puede ser utilizado –y mucho ha sido utilizado– en la guerra.

La guerra biológica implica no sólo a seres vivos, sino a las sustancias que producen, como los venenos. De ese modo, las armas biológicas se han usado de modo extendido y desde la antigüedad. Así, ya en la Ilíada y la Odisea se dice que las flechas y lanzas de aqueos y troyanos tenían puntas envenenadas. El veneno procedente de animales o vegetales fue la primera forma de guerra biológica, pero no la única. En la Primera Guerra Sagrada de Grecia, los atenienses y la Liga Anfictiónica envenenaron los pozos de agua del pueblo de Kirra con una planta tóxica.

Es ciertamente inquietante que, aunque no se conocía la existencia de gérmenes patógenos o la forma de desarrollo de las infecciones, los antiguos griegos tuvieran suficiente conocimiento empírico como para hacer lo que cuenta Heródoto, el historiador del siglo V a.E.C., que relata cómo los arqueros escitas mezclaban víboras putrefactas, sangre humana y estiércol de vaca y lo enterraban un tiempo para luego remojar las puntas de sus flechas en la mezcla, seguramente contaminada con diversos agentes infecciosos. Igualmente, era práctica común arrojar con catapultas animales o cuerpos humanos infectados a las ciudades sitiadas.

La palabra “tóxico” viene del antiguo griego toxikon, que se deriva de la palabra para flecha: toxon. Y las toxinas también fueron armas eficaces en oriente. El padre de la medicina china, Shen Nung, describió, en un libro que se dice que tiene cinco mil años de antigüedad, el uso de flechas empapadas en aconitina, un alcaloide de gran actividad obtenido del acónito.

Los agentes patógenos también fueron utilizados por los hititas para triunfar en su guerra contra Arzawa en el siglo XIV a.E.C., cuando llevaron a terreno enemigo carneros y burros infectados de tularemia, una grave infección bacteriana hoy poco frecuente, transmitida a los seres humanos por la vía de garrapatas y mosquitos.

Más directo, el legendario general cartaginés Aníbal llenó ollas de cerámica con víboras venenosas y las lanzó a las cubiertas de las naves del rey de Pérgamo. Un sistema similar empleado por la ciudad de Hatra, cerca de la actual Mosul, en Irak, que provocó la retirada del ejército romano en el siglo II de nuestra era lanzándoles ollas llenas de escorpiones vivos.

Junto con las armas biológicas se desarrollaron supuestos antídotos como el “mitridatium”, que según la leyenda fue creado por el rey persa Mitrídates VI, un experto en venenos cuya fórmula fue buscada y reinventada (y vendida por charlatanes poco escrupulosos) hasta el Renacimiento. Mitrídates sería el primer experto de lo que hoy llamamos “bioseguridad”, un aspecto importante en la defensa y seguridad de los países, especialmente los más poderosos y, por tanto, susceptibles de ataques con armas prohibidas.

La posibilidad de convertir en armas los agentes biológicos se hizo realidad junto con los avances de la biología y la teoría de los gérmenes patógenos de Louis Pasteur y Robert Koch, desarrollada a mediados del siglo XIX. Al mismo tiempo, en 1847, las convenciones de guerra prohibieron las armas envenenadas y después prohibirían toda forma de guerra biológica.

Todavía en la Segunda Guerra Mundial, las armas biológicas fueron utilizadas por última vez en una guerra, digamos, convencional, por el ejército imperial japonés. Los expertos de Hirohito convirtieron en armas las bacterias del tifus y el cólera, y las utilizaron en su guerra contra China para envenenar pozos y lanzar desde aviones pulgas infectadas por la peste. Se calcula que causaron así medio millón de muertes.

Las armas biológicas tienen el problema de ser difíciles de controlar y de apuntar... y que una vez distribuidas la descontaminación puede ser imposible, como descubrió el ejército británico cuando hizo una prueba con esporas de ántrax en una isla escocesa durante la Segunda Guerra Mundial, que hasta hoy está contaminada con ellas. Así, cualquier error o cambio en las condiciones pueden convertir a los atacantes en víctimas de sus propias armas. Un ejemplo fue el brote del más peligroso de los agentes biológicos, el ántrax, que ocurrió en 1974 en la ciudad hoy llamada Ekaterinburgo, causando la muerte de 64 personas. El origen fue una fuga accidental del bacilo de las instalaciones de guerra biológica situadas en la ciudad, pese a que la URSS era signataria de la convención contra armas biológicas firmada apenas dos años antes, en 1972. Estados Unidos sufrió un accidente similar, con otros patógenos, poco después del fin de la Segunda Guerra Mundial.

Esto no impidió que Irak, durante el régimen de Saddam Hussein, entre 1985 y 1991, desarrollara armas biológicas con agentes como ántrax, toxina botulínica y aflatoxinas, aunque no llegaron a usarse pues sus sistemas de dispersión eran altamente ineficientes.

Han sido grupos no regulares los responsables de los más recientes casos de uso o intento de uso de armas biológicas. En 1972, los miembros del grupo racista extremista denominado la Orden del Sol Naciente, fueron detenidos con más de 30 kilogramos de cultivos de bacteria de la tifoidea que planeaban usar para atacar ciudades estadounidenses. En 1984, la secta de Baghwan Rajneesh, “Osho”, esparció un cultivo de salmonela en los restaurantes de Antelope, Oregon, para impedir que la gente votara en unas elecciones con las que pretendían hacerse con el poder en el municipio, con cientos de afectados, 45 hospitalizados y, afortunadamente, ninguna muerte.

Pese a sus riesgos y las prohibiciones mundiales, los países poderosos suelen tenerlas en reserva pero no utilizarlas por la convicción de que las represalias con armas similares serían inmediatas y las posibilidades de proteger a su población son escasas. Asuntos contradictorios de los conflictos bélicos.

Animales de ataque

Algunos expertos consideran que el caballo y los elefantes de guerra son, de cierta forma, agentes de guerra biológica. En ese caso, en la misma clasificación entrarían algunos de los proyectos más descabellados de algunos departamentos de defensa, como el de utilizar delfines para poner minas en embarcaciones enemigas, algo que han explorado tanto los Estados Unidos como la URSS y después Rusia.

El aire pesa

Ligero pero capaz de arrancar una casa de sus cimientos cuando se mueve a gran velocidad, el aire que respiramos ejerce sobre todo el planeta una presión que condiciona cuanto hacemos.

Estatua de Evangelista Torricelli con su
barómetro en el Muso de Historia Natural
de Florencia, Italia. (Foto CC de Sailko,
vía Wikimedia Commons)
Para los primeros humanos, el aire era seguramente un material muy extraño. No se podía ver, pero podía refrescarnos, mover las hojas de los árboles, transportar aromas a grandes distancias o azotarnos con enorme violencia, además de que respirarlo resultaba indispensable.

No es raro entonces que el aire preocupara a los antiguos pensadores. En varias culturas se le consideró uno de los elementos primordiales. Entre los griegos, el filósofo Anaxímenes creyó que era el componente esencial del universo, mientras que la visión de Aristóteles sobre los cuatro elementos predominó en Europa durante 20 siglos. Aristóteles también propuso la idea de que el aire tenía peso.

Además, si las enfermedades llegaban por medios invisibles, quizá las traía el aire. Los “malos aires”, se creyó largamente, eran los portadores de los “miasmas”, contaminaciones que provocaban las enfermedades. Esta superstición aún sigue vigente en consejas como la que nos advierte contra el peligro de que “nos dé un aire” porque, por ejemplo, puede ocasionarnos una parálisis facial... cosa que los niños hallan divertido poner a prueba.

La demostración de que el aire pesaba tuvo que esperar a la revolución científica, aunque su base lógica era sólida: si el aire puede mover objetos, desde una brizna de hierba hasta un gran velero, es porque tiene masa, y todo cuanto tiene masa necesariamente tiene peso en un cuerpo como la Tierra con su atracción gravitacional. En 1613, Galileo desarrolló un método para calcular la “gravedad específica” del aire, es decir, su peso. Utilizó un recipiente hermético que pesó en una balanza muy precisa y en el que luego introdujo tanto aire a presión como pudo, descubriendo que su peso había aumentado. Galileo informó de este hallazgo pese a que abría una serie de preguntas que no se podían resolver en ese momento, como, por ejemplo, por qué no sentimos el peso del aire sobre nosotros. Por alguna causa, sin embargo, los resultados de Galileo estaban equivocados, la realidad es aproximadamente el doble de lo que anotó el astrónomo.

A la misma conclusión llegó el francés Jean Rey por otro camino. Observó que al calcinar plomo y estaño el peso de estos metales aumentaba, y supuso que ello se debía a que al calcinarse estos metales incorporaban aire. Hoy sabemos que algunos materiales se oxidan al calcinarse, incorporando moléculas de oxígeno a su composición y aumentando de peso.

La presión que ejerce el peso del aire sobre la superficie de la Tierra y todo cuanto hay en ella, se conoció finalmente cuando Evangelista Torricelli, que había sido ayudante de Galileo durante los últimos tres años de vida del genio perseguido, fabricó el primer barómetro: un tubo de vidrio lleno de mercurio y cerrado por un extremo, cuyo otro extremo se depositaba en un recipiente con mercurio. El metal dentro del tubo bajaba, creando un vacío en el extremo cerrado del tubo, hasta una altura igual a la de la presión de la atmósfera.

La primera medición de Torricelli de la presión, en 1644, le dio un valor de 760 mm de mercurio, o 0,01 newtons de fuerza por cada centímetro cuadrado. El propio Torricelli, al ver que la altura de su columna de mercurio variaba según las condiciones del clima, predijo que la presión atmosférica sería menor cuanto mayor fuera la altura sobre el nivel del mar, algo que confirmarían experimentos posteriores.

Mientras el estudio del aire se convertía en toda el área de la química dedicada a los gases gracias a Robert Boyle, quien fundó la química moderna en el siglo XVII, el estudio de la presión atmosférica se desarrolló como algo indispensable para el estudio de la meteorología, la historia de nuestro planeta e incluso el comportamiento animal y humano.

La presión del aire es variable precisamente porque los gases se pueden comprimir, así que el peso del aire depende de muchas variables que los físicos fueron determinando con el tiempo.

Por ejemplo, el volumen de un gas se reduce cuanta más presión haya y aumenta cuanto más caliente esté. Esto explicaba, por ejemplo, por qué la presión variaba según el clima. Por lo mismo, para determinar el peso del aire es necesario establecer las condiciones: un metro cúbico de aire seco (sin humedad, que aumenta su peso) a 20ºC de temperatura pesa 1.205 kilogramos. Esto significa que cada uno de nosotros soporta sobre sus hombros aproximadamente una tonelada de aire.

¿Por qué no sentimos ese enorme peso o la presión que ejerce? Porque todo nuestro cuerpo compensa esa presión, es decir, los gases que hay en nuestro interior tienen la misma presión. Nuestro cuerpo tiene un empuje que equilibra la presión atmosférica.

Las consecuencias de esto son interesantes. Por ejemplo, cuando un submarinista pasa un período largo de tiempo a gran profundidad, la presión del agua hace que sea necesario respirar el aire embotellado a una presión muy superior a la de la que hay al nivel del mar. Parte de la mezcla que se respira está formada, como nuestra atmósfera, por gases inertes, principalmente nitrógeno, que siempre están disueltos en todos los tejidos del cuerpo. Pero a gran profundidad, esos gases están a una presión mucho mayor. Si el submarinista asciende súbitamente, esos gases se expanden al disminuir la presión exterior y forman burbujas en sus tejidos y, principalmente, en la sangre, que pueden ocasionar la muerte.

La forma de contrarrestar esta enfermedad por descompresión (que también pueden sufrir otros individuos que trabajen en entornos de gran presión) es colocar a la persona en una cámara a presión similar a la que estuvo sometido bajo el mar y disminuir esa presión gradualmente de modo que la presión de los gases de su cuerpo se equilibre poco a poco y sin formar peligrosas burbujas.

En el otro extremo, la baja presión a grandes alturas explica por qué los montañeros suelen tener que llevar oxígeno complementario. A la altitud del Everest y montañas similares, sólo tienen sobre ellos el 30% de la atmósfera que a nivel del mar, y el oxígeno, por tanto, es escaso.

Presión y cocina

No es igual cocinar al nivel del mar que a mayores alturas. Esto hace necesario adaptar las recetas de cocina considerando que es necesario aumentar las temperaturas o los tiempos de horneado, así como la proporción de líquidos y harina para evitar que las masas queden demasiado húmedas, y dado que los gases se expanden más, debe disminuirse la cantidad de levadura. Además, el agua hierve a 100 ºC al nivel del mar, pero a grandes alturas lo hace a menos temperatura, por lo que los platillos con agua, como la pasta, tardan más tiempo en prepararse.

septiembre 06, 2014

25 años de la World Wide Web

Sí, hubo un mundo antes de la web, cuando los archivos se compartían llevando papeles de un lugar a otro y donde la información era mucho menos libre que hoy en día.

Esta poco impresionante estación de trabajo NeXT fue el
primer servidor web, instalado por Tim Berners-Lee en
el CERN. A la izquierda, sobre el teclado, hay un ejemplar
del documento "Gestión de la información: una propuesta",
 la semilla de la telaraña mundial.
(Foto CC Coolcaesar, vía Wikimedia Commons)
La fecha no es muy precisa, depende de qué criterio se utilice para determinar en qué momento podemos decir que ya existía la World Wide Web, el servicio de Internet que revolucionó la red y la convirtió en lo que es hoy. Pero estrictamente, la idea se presentó hace un cuarto de siglo, en marzo de 1989, en un documento sobriamente titulado “Gestión de la información: una propuesta” que envió el físico e ingeniero informático británico Tim Berners-Lee a sus jefes del Centro Europeo de Investigaciones Nucleares, CERN.

Hoy ya tenemos una generación que ha vivido toda su vida con esta herramienta de la información (y de la desinformación), de la comunicación (y de la incomunicación), del entretenimiento y de las relaciones sociales. Una generación para la cual es inimaginable el mundo sin esta interconexión y sin su abundancia de información y entretenimiento.

Aunque a veces lo olvidamos, Internet es una red de varios servicios. El correo electrónico, los archivos compartidos por FTP, los grupos de noticias, los chats IRC, el control de ordenadores remotos por Telnet y otros, la mayor parte de los cuales ya existían antes de que apareciera la World Wide Web. Algunos con el tiempo se han integrado en ésta, pero sin dejar de tener una operación y sistemas independientes.

Conseguir un documento que tuviera otro servidor de la Internet primitiva era enormemente difícil. Requería saber quién lo tenía (no sólo la universidad o institución, sino el servidor en el que estaba alojado, en qué carpeta y con qué nombre) y luego utilizar una conexión FTP para descargarlo, a una velocidad increíblemente baja.

Era lento. Era torpe. Y había que saber lenguaje Unix.

Por otro lado, el correo electrónico ya tenía más de dos décadas funcionando cuando apareció la web. El primer correo se había enviado en 1971 ya con una dirección cuyo usuario y servidor estaban separados por la hoy omnipresente arroba.

Todo ello cambió cuando Tim Berners-Lee decidió intentar utilizar el hipertexto para la comunicación entre servidores de Internet, que estaba en funcionamiento público desde principios de la década de los 80 (antes había sido un proyecto de la defensa estadounidense). El hipertexto es lo que hoy conocemos como vínculo o enlace: un fragmento de texto con una referencia a más texto, a otro documento o a otro servicio. Ya era una idea que varios, incluso Berners-Lee, habían explorado antes.

El proyecto presentado en 1989 tenía por objeto facilitar que los científicos europeos compartieran información en el CERN y otras universidades. Aprobada la idea, hizo un prototipo funcional e instaló el primer sitio web de la historia llamado, precisamente, World Wide Web. A su prototipo siguió el primer navegador Web, Lynx (juego de palabras con “links”, que significa “enlaces”, palabra homófona a “lynx” o “lince”). Poco después, los científicos del CERN instalarían la primera webcam (para vigilar la cafetera y atacarla cuando hubiera café recién hecho), se subió la primera fotografía y se inventó el concepto de “surfear” o navegar la red.

La idea se desató sobre el mundo el 30 de abril de 1993, cuando el CERN hizo público el código fuente (el programa básico) del proyecto, sentando las bases de la red libre que hoy es objeto de controversias, debates y enfrentamientos. Para 1994 ya había más de 10.000 sitios Web y Berners-Lee se fue al MIT en Estados Unidos para ponerse al frente del W3 Consortium, organización sin ánimos de lucro que rige y ordena la WWW, y lucha por mantener sus características básicas como una red pública, libre e independiente de gobiernos e intereses económicos y políticos.

Algunas cifras permiten darnos una idea de la explosión que ha significado la World Wide Web, sin apenas tratar de valorar en justicia, que sería muy difícil, su impacto en la sociedad, en la política, en la actividad académica, en el arte y en todas las actividades humanas, especialmente vinculada a los otros dos actores de la revolución virtual: el ordenador y el teléfono móvil.

Los primeros módems que se usaron en la WWW, que se comunicaban mediante líneas telefónicas analógicas, alcanzaban una velocidad máxima de 14.400 kilobits por segundo, lo que quiere decir que para descargar un megabyte o mega tardaban 14 minutos. La descarga de un vídeo de media hora de calidad razonable disponible en la actualidad, de 5 gigas, por ejemplo, habría tomado... más de 1.200 horas o 48 días. Con un módem de línea digital ADSL o de cable actualmente se puede llegar a velocidades de 300 megabits por segundo, capaz de descargar un mega en algo menos de medio segundo y el mismo vídeo en una media hora.

La mayor velocidad de transmisión de la información ha permitido por lo mismo una explosión en la cantidad y variedad del material disponible en la Web. Y todo ese material está accesible en alrededor de 1.017 millones de sitios Web según una estimación de fines de julio de 2014.

Esos más de mil millones de sitios se encuentran alojados en una cantidad indeterminada de servidores. Algunos medios calculan 75 millones y otros muchos más. Y para llegar a ellos se necesita otro millón de servidores, que son los que tiene Google según calculan los expertos de la industria, aunque sólo la empresa lo sabe con certeza.

Pero la World Wide Web que está entrando a su segundo cuarto de siglo es mucho más que números e información. Es la gente que la usa, la que ha creado sus datos, la que forma sus redes sociales, la que de modo creciente está colocando sus propios archivos, sus documentos, sus fotos, sus vídeos en la red. Se calcula que, accediendo a la World Wide Web mediante ordenadores o smartphones, actualmente el número de usuarios del invento de Berners-Lee es de 2.940 millones de personas a fines de julio de 2014, el 42 por ciento de los seres humanos. Y probablemente habrá llegado a la mitad de los habitantes del planeta antes de su cumpleaños número 26.

Una cifra que para muchos es, simplemente, el desafío de llevar la Web a la otra mitad del mundo.

La web profunda

La “web profunda” o “invisible”está formada por todas las páginas que no son indexadas por los buscadores: las accesibles mediante suscripción, redes privadas de empresas y gobiernos; páginas que se generan en respuesta a solicitudes y luego se borran (como nuestros movimientos bancarios al consultarlos) y otras. Se calcula que es miles de veces mayor que la web abierta e incluye, aunque no como lo pintan algunos mitos que rayan en la leyenda urbana, páginas donde se desarrollan actividades ilegales y que son objeto del interés de las corporaciones policiacas de todo el mundo.

septiembre 05, 2014

Los océanos de Cousteau

Antes de "Cosmos" y su viaje por los planetas y la vida, un tenaz aventurero francés nos mostró un universo desconocido y muy, muy cercano: el de los mares que ocupan la mayor parte de la Tierra.

El capitán con su clásica
indumentaria. Fotografía de la
Sociedad Cousteau
Jacques-Yves Cousteau era difícil de definir. Oceanógrafo que no estudió oceanografía. Biólogo sin título. Capitán de barco que había estudiado para piloto. Y un gran comunicador que nunca estudió comunicación.

El capitán Cousteau, reconocible todavía por su gorro de lana roja y sus gafas, fue conocido gracias principalmente a un programa de televisión, “El mundo submarino de Jacques Cousteau”, una asombrosa serie de documentales sobre los más diversos aspectos del mar y sus habitantes animales y vegetales, emitida de 1968 a 1975. Sin embargo, para ese momento, el inquieto francés ya había vivido varias vidas distintas.

Jacques-Yves Cousteau nació el 11 de junio de 1910 en Saint-André-de-Cubzac, Gironde, Francia. Quizás el más importante acontecimiento de su temprana infancia fue cuando, con apenas 4 años de edad, su frágil estado de salud hizo que su médico le recomendara evitar los deportes bruscos y, en vez de ellos, aprender a nadar. Ése sería el comienzo de la fascinación por el agua que le acompañó toda la vida. El otro aspecto destacado de la personalidad del joven era su interés por los dispositivos mecánicos. Apenas tenía 13 años cuando adquirió una cámara de cine de aficionados, pero antes de registrar cinematográficamente el mundo a su alrededor, decidió desarmarla para ver cómo funcionaba. Océano, mecánica y cine serían, en definitiva, los aspectos definitorios de la vida de Cousteau.

Pero no lo sabría sino hasta pasados unos años.

El niño Jacques no era buen estudiante. De hecho, sus malas notas llevaron a que sus padres lo enviaran a un internado y después a un colegio preparatorio del que salió para entrar, en 1930, a la Escuela Naval de Brest, de donde se graduó como técnico de artillería tres años después. Inmediatamente se enrolo en el ejército con la idea de convertirse en piloto. El rumbo de su vida quedaría decidido, sin embargo, en 1936, cuando a punto de terminar sus estudios de aviación sufrió un fuerte accidente de automóvil del que salió gravemente herido, entre otras cosas con ambos brazos rotos.

Se dice que quizá ese accidente resalvo indirectamente la vida para permitirle convertirse en el gran defensor de los mares, sobre todo porque todos menos uno de los compañeros con los que estudió y que sí se convirtieron en pilotos habrían de morir en combate durante la Segunda Guerra Mundial. Mientras se recuperaba, un amigo le regaló unas gafas de buceo que le abrieron las puertas que cuanto ocurría debajo de la superficie del mar.

La guerra puso en espera cualquier otro proyecto. primero fue instructor de artillería en la base de Toulon, pero una vez consumada la invasión nazi de Francia, se refugió con su familia en un pueblo de la frontera con Suiza, donde se integró a la resistencia francesa y se dedicó a espiar los movimientos del ejército italiano, acción que le valdría numerosos reconocimientos como héroe de guerra.

Pero todavía durante el conflicto armado, Cousteau y el ingeniero Émile Gagnan desarrollaron el primer sistema de buceo o submarinismo totalmente autocontenido, el llamado “SCUBA”, formado por una botella de aire comprimido y un regulador que permitía respirar ese aire sin que saliera despedido por la presión. De un golpe habían inventado el buceo autónomo, y su patente sería una de las primeras fuentes de financiamiento de las exploraciones oceanográficas de Cousteau, que por entonces realizó sus primeros documentales sobre el mundo submarino utilizando también una cámara diseñada por él mismo para soportar la presión bajo el mar.

En principio, el nuevo sistema se utilizó para eliminar de los mares franceses las minas que habían quedado después de la guerra. Pero ya en 1948 Cousteau organizó una expedición en el Mediterráneo para encontrar los restos de un naufragio romano del siglo I antes de la era común, una acción que sería la iniciadora de la arqueología submarina. Dos años después, Cousteau consiguió comprar un dragaminas británico al que convirtió en el primer barco dedicado a la investigación oceanográfica, el Calypso, llamado así en honor a la ninfa de los océanos.

Para financiar sus investigaciones, Cousteau escribió el libro “El mundo silencioso”, que tuvo un éxito instantáneo y que en 1956 convirtió en película. Ya había hecho una docena de documentales, pero éste fue el que lo puso bajo los reflectores, al ganar un Óscar al mejor documental y una palma en el festival de Cannes.

El éxito le permitió abandonar el ejército después de 27 años de servicio. Había logrado el beneplácito del príncipe Rainiero de Mónaco, quien lo nombró director del Museo Oceanográfico de Mónaco y le ofreció apoyo financiero. Ese mismo año fundó un grupo de investigación y un programa experimental para explorar la posibilidad de vivir largos períodos bajo el agua.

Se dedicaría entonces a la investigación y la promoción del estudio marítimo, trabajando estrechamente con organizaciones como National Geographic y diversas instituciones, hasta que en 1968 comenzó la memorable serie de televisión que enseñó al mundo cómo eran realmente los océanos debajo de la superficie.

Pero su trabajo no era únicamente científico. Al paso del tiempo se convirtió en activista en favor del medio ambiente y uno de los iniciadores de la preocupación por los efectos de la actividad humana en distintos ecosistemas. Fue el primero que mostró los problemas ocasionados por la contaminación de los mares, no sólo del aire, impulsando la naciente conciencia ambiental y dedicándole sus mayores esfuerzos a partir de la década de 1980.

Gracias a su actividad, fue distinguido por numerosas organizaciones y academias científicas como la francesa y la estadounidense, que lo hicieron miembro pese a no tener estudios universitarios, además de seguir cosechando premios cinematográficos por sus documentales. Al final de su vida, había producido más de 115 películas y 50 libros, cosechando tres Óscares, un premio Emmy y un Bafta.

En 1996, su embarcación insignia, el Calypso, fue embestida por una barcaza en Singapur. Cousteau murió el 25 de junio de 1997 mientras trataba de conseguir dinero para construir una nueva nave de investigación.

El legado

La herencia de Cousteu, por desgracia, fue objeto de litigio por parte de los hijos de sus dos matrimonios. El resultado son dos organizaciones independientes, la Sociedad Cousteau y la Ocean Futures Society, donde hoy sus nietos son una tercera generación de oceanógrafos, ambientalistas y aventureros. Su más reciente logro fue romper en un día el récord del experimento de vida submarina de Cousteau. En junio de 2014, su nieto Fabien Cousteau vivió 31 días bajo el mar.

Urano, el gigante de hielo

El primer planeta descubierto con telescopio es uno de los más desconocidos por el hombre. El sueño es que alguna de nuestras naves pueda visitarlo en un futuro relativamente cercano.

Urano, con su eje de rotación inclinado 90º y sus
anillos girando alrededor de su ecuador.
(Foto D.P. NASA/JPL vía Wikimedia Commons)
Los planetas que podemos ver con sólo nuestros ojos son cinco: Mercurio, Venus, Marte, Júpiter y Saturno. O seis, si bajamos la mirada al suelo, a nuestro propio planeta, la Tierra.

El telescopio, inventado por Hans Lippershey o por Zacharias Jansen (la historia no es clara), amplió de manera asombrosa el universo cuando Galileo Galilei lo apuntó al firmamento. El ser humano empezó a descubrir que vivía en un espacio asombroso, que las quizá 10 mil estrellas que era capaz de ver en una noche sin luna eran apenas una mínima fracción de los cuerpos que habitan el espacio y, eventualmente, que el sistema solar que Copérnico y Galileo habían descrito estaba ocupado por otros que sólo podíamos detectar con nuestros nuevos aparatos.

El honor de descubrir el primer planeta nuevo desde el inicio de la historia humana correspondió a William Herschel.

Por supuesto, descubrir un planeta no es tan sencillo si no sabemos cómo deben comportarse los planetas. De hecho, Urano había sido observado anteriormente en multitud de ocasiones registradas, y un número indeterminado de otras ocasiones que no fueron documentadas para la historia. El propio Herschel, la primera vez que vio en marzo de 1781, lo reportó como cometa. Tuvieron que pasar varias semanas de cuidadosa observación para que se diera cuenta de que su “cometa” tenía ciertas características singulares que lo hacían similar a un planeta. En palabras del propio astrónomo: ”No sé cómo llamarlo; es posible que sea un planeta en una órbita casi circular alrededor del sol o un cometa moviéndose en una elipse extremadamente excéntrica”.

Pero, para 1783, la comunidad astronómica internacional estaba de acuerdo en que se trataba de un nuevo planeta. Este hecho por cierto, convirtió a Herschel en el primer astrónomo profesional al recibir de manos del rey Jorge III un estipendio anual de 200 libras para que se dedicara única y exclusivamente a la astronomía, en el Castillo de Windsor, y además entretener con sus observaciones a la familia real.

A Urano le seguirían otros planetas, hasta completar nuestra imagen del sistema solar en el cual habitamos.

Urano es el tercer planeta más grande de nuestro sistema solar después del gigantesco Júpiter y de Saturno, y se distingue por un profundo color azul que es resultado del metano en su atmósfera, que absorbe el extremo rojo del espectro de la luz solar. Aunque solemos llamar a estos planetas gigantes gaseosos, en realidad están formados de un líquido caliente y denso de materiales en forma de hielo, que flotan alrededor de un pequeño núcleo rocoso: agua, metano y amoníaco forman esa capa helada sobre la cual hay una densa atmósfera compuesta principalmente por hidrógeno, helio y una pequeña cantidad de metano.

La característica más notable del planeta descubierto por Herschel es que es el único cuyo eje de rotación es perpendicular al plano de su órbita alrededor del sol. Es como si el eje de la tierra se inclinara 90° hasta ocupar el lugar del Ecuador. De hecho, el polo sur de Urano apunta directamente al sol y el Polo Norte mira hacia el borde del sistema solar.

Urano tiene anillos también, como los otros gigantes del sistema solar, en un sistema menos complejo que el de Saturno pero más que el de Júpiter y Neptuno. Aunque Herschel reportó haberlos visto, es poco probable que lo hiciera, de modo que se considera que el descubrimiento de los anillos lo hicieron los astrónomos James L. Eliot, Edward W. Dunham y Douglas J. Mink el 10 de marzo de 1977.

El propio Herschel descubrió las primeras dos lunas conocidas de Urano, Titania y Óberon, en 1787. Pasaron siete décadas antes del que William Lassell descubriera otras dos en 1851, Ariel y Umbriel, y casi un siglo para que Gerard Kuiper descubriera la quinta: Miranda. Las lunas, por cierto, han recibido nombres de entidades mágicas de la literatura inglesa en lugar de partir de la mitología griega.

Sólo una nave espacial creada por el hombre, la sonda Voyager 2, ha pasado cerca de la superficie de este planeta. El 24 de enero de 1986, la mítica sonda pasó A 81.500 km de las nubes superiores de Urano. Nueve años habían pasado desde el lanzamiento de este robot para que finalmente pasara brevemente junto a este planeta. En unos pocos días, el Voyager 2 envío a la Tierra miles de imágenes y grandes cantidades de datos sobre el planeta sus lunas (de las que descubrió once más), sus anillos, su atmósfera, y otras características. El Voyager también detalló el sistema de anillos alrededor de Urano, descubrió que posee un campo magnético desusadamente potente y que la temperatura en la región ecuatorial parece ser más elevada que en los polos... pese a que recibe menos luz solar que el polo Sur por la inclinación del eje.

La exploración astronómica de Urano ha determinado que tiene un día de 17 horas y 14 minutos terrestres, además de aumentar el número de lunas del planeta hasta 27. Está 19 veces más lejos del Sol que nuestro planeta y su año, su órbita alrededor del sol, es de 84 años terrestres. Es decir, desde que Herschel lo descubrió, sólo ha dado tres vueltas alrededor del sol.

Pero Urano presenta hoy más interrogantes que respuestas. Entre ellas: ¿por qué está inclinado su eje?, ¿acaso sufrió una colisión con otro cuerpo celeste? Y ¿por qué Urano, al igual que Neptuno, tiene muchísimo menos hidrógeno y helio que Júpiter y Saturno, cuando su origen nos sugiere que debería ser similar? ¿El interior del planeta es frío o produce su propio calor?

La solución a estas preguntas estaría en una misión que visite el planeta y se establezca en órbita a su alrededor para observarlo con atención. Idealmente, tal misión debería lanzarse en la década de 2020, cuando se requeriría menos combustible y tiempo para llegar a Urano.

Varios científicos han propuesto misiones así. Su máximo obstáculo es el coste que tendría, de entre 1.000 y 2.000 millones de euros.

De no conseguirse financiamiento oportuno para la misión, Urano seguirá siendo un misterio azul en la familia del sistema solar.

Los nombres de los planetas

Agradecido por la generosidad del rey, William Herschel propuso ponerle al nuevo planeta el nombre del monarca, “Planeta Georgiano”. La idea, sin embargo, no fue popular fuera de Inglaterra. Otros astrónomos preferían continuar la nomenclatura ya establecida en Europa y América, basada en la mitología griega. El alemán Johann Bode fue quien propuso el nombre de Urano, el dios padre de Saturno y de los Titanes, los ancestros de los dioses griegos. El nombre, sin embargo, no se generalizó sino hasta mediados del siglo XIX, cuando se descubrió y dio nombre también a Neptuno.

agosto 31, 2014

La duración de nuestras vidas

Vivir para siempre, sueño de los alquimistas, y frecuente promesa de estafadores. Sigue pareciendo un sueño lejano, pero al menos hoy disfrutamos dos veces más años de vida que nuestros no muy lejanos ancestros.

"Estudio de un viejo", del maestro holandés
Jan Livens, siglo XVII (Imagen D.P. vía
Wikimedia Commons
El récord mundial de longevidad certificada y contrastada lo ostenta Jeanne Calment, francesa que vivió la asombrosa cantidad de 122 años y 164 días, entre el 21 de febrero de 1875 y el 4 de agosto de 1997. La prueba de su edad procede de consecutivos censos franceses desde el de 1876, donde aparece con un año de edad.

Es notable que vivió sola hasta los 110 años, que a los 85 empezó a hacer esgrima, que andaba en bicicleta hasta los 100, y que fumó hasta los 120.

Su personalidad es fascinante porque una vida larga es un viejo sueño humano. Por eso los relatos míticos suelen incluir a personajes enormemente longevos y que, además, conservan el vigor de la juventud. A los antiguos reyes sumerios se les atribuían reinados de entre 30.00 y 72.000 años, mientras que es conocido que la Biblia asegura que Abraham murió a los 175 años y su hijo, Isaac, el que se salvó de ser sacrificado en el último momento, llegó a los 180 años de edad.

Es probable que los “años” del viejo testamento sean resultado de traducciones incorrectas de meses lunares o de otras medidas de tiempo. Pero no importa: la gente ha optado por creer que fueron verdaderas esas vidas larguísimas, como la de Matusalén, poseedor del récord bíblico con 969 años, por improbable que resulte.

Queremos ser longevos, aunque pasar de los 100 años de edad sea una hazaña poco común. En 2010, sólo el 0,0173% de los estadounidenses alcanzaban los 100 años de edad. España es más longeva, con 11.156 centenarios en 2013, el 0,024% de la población. Aún así, es una cifra muy pequeña.

Y sin embargo, en promedio y en general, la vida humana tiene cada vez una mayor duración gracias a diversos factores. Pese a tener pocos centenarios, vivimos cada vez más.

La revolución de los abuelos

Rachel Caspari, paleoantropóloga de la Universidad de Central Michigan ha estudiado el desgaste de los dientes de nuestros antepasados como una medida razonablemente fiable (cotejada con otros métodos) de la longevidad de distintos individuos y poblaciones. Como resultado de sus trabajos, cree que una de las ventajas del Homo sapiens sobre los neandertales y que permitió a la primera especie sobrevivir mientras la otra desaparecía fue, precisamente, la longevidad.

Hasta hace unos 30.000 años, ni nuestros ancestros ni sus primos los neandertales solían vivir más allá de los 30 años, salvo excepciones. Fue por entonces cuando, por causas desconocidas, nuestra especie empezó a tener una mayor longevidad. Los humanos primitivos vivieron, por primera vez, con sus abuelos, lo que permitió conservar y transmitir mejor la información acumulada, afianzando la cultura. Según Caspari, esa revolución del paleolítico superior fue nuestra ventaja. Más personas, dice, permiten que haya más innovación, más ideas originales.

Tener viejos permitió que ellos cuidaran a los jóvenes, liberando a los adultos jóvenes para dedicar más tiempo a conseguir comida, lo cual fomentaba el incremento de la población, lo que también hacía a los Homo sapiens más fuertes como comunidad que los neandertales.

Pero una vida más larga, súbitamente, hizo también más evidentes los defectos acumulados en la historia de nuestra especie, lo que Caspari llama "las cicatrices de la evolución". Pagamos esa vida más larga con los achaques de la ancianidad.

La medida más común de la duración de la vida es la expectativa de vida al nacer. Pero al valorarla es importante recordar que se trata de un promedio. Una expectativa de vida de 40 años no indica que la mayoría de la población muriera a los 40, bien podía ser que la mitad de la población muriera en su primer año de vida y la otra mitad viviera hasta los 80. Entendido eso, la expectativa de vida han crecido de modo asombroso.

Hasta los inicios del siglo XIX, la expectativa de vida al nacer se movía entre los 30 y los 40 años de edad. A partir de ese momento empezó a aumentar, más acusadamente en los países cuya población tiende a disfrutar de un mejor acceso a innovaciones vitales como la medicina, el agua corriente, el alcantarillado y las normativas sobre higiene de los alimentos y otros productos. Actualmente, la expectativa de vida en muchos países se ha duplicado hasta los 80 años. España, de hecho, es uno de los países con el más notable cambio. Desde el inicio del siglo XX, la esperanza de vida al nacer ha pasado desde los 33,9 hasta los 75,8 años en el caso de los hombres y de los 35,7 hasta los 82,7 años en el de las mujeres.

¿Cuánto podemos vivir en realidad? Algunos investigadores han intentado calcular la máxima tolerancia del cuerpo humano al desgaste de la edad, las inevitables enfermedades degenerativas y los achaques que se van acumulando. Los coreanos Byung Mook Weon y Jung Ho Je han estimado que la edad máxima que puede alcanzar un ser humano es de 126 años. Otros, más optimistas aunque claramente con menos información, buscan sin embargo hacer realidad el sueño de la inmortalidad.

Pero lo esencial para muchos no es solamente vivir más años, sino que se puedan disfrutar con calidad de vida. En ese esfuerzo también la medicina ha hecho avances con procedimientos que hace no muchos años habría sido impensable practicarle a ancianos de 80 o 90 años, por ejemplo para dotarlos de nuevas caderas. Vivir más, y vivir mejor, es uno de nuestros logros más notables como especie.

¿Por qué envejecemos?

Hay diversas teorías que pretenden explicar, al menos parcialmente, por qué envejecemos y morimos. Se sugiere que el envejecimiento está programado en nuestras células, que sólo pueden reproducirse un número determinado de veces. También es posible que envejecer sea el inevitable resultado de la acumulación de daños celulares a lo largo la vida, fallos en la replicación del genoma, estrés oxidativo, acumulación de telómeros en los extremos de nuestros cromosomas y otros factores.