Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

octubre 26, 2014

La guerra biológica

Todo conocimiento puede ser usado para el mal, sobre todo para el mal mayor que es la guerra, donde ganar a cualquier coste puede llegar a ser muy caro, caso claro de las actuales armas biológicas.

Cultivo de bacilo del ántrax muestreado en 1993 en
Kameido, Japón, después de un ataque bioterrorista
de la secta religiosa Aum Shinrikyo, que dos años
después atacaría con gas sarín el metro de Tokio.
(Foto D.P. de los CDC de EE.UU., vía Wikimedia
Commons)
La guerra biológica plantea escenarios de ciencia ficción y peligros aterradores. Al mismo tiempo, su utilización es realmente menos frecuente hoy que en el pasado, por no ser tan eficaz como desearían los ejércitos, que buscan convertir en armas los productos del conocimiento. En ese sentido, cuanto hay en la naturaleza que nos puede matar puede ser utilizado –y mucho ha sido utilizado– en la guerra.

La guerra biológica implica no sólo a seres vivos, sino a las sustancias que producen, como los venenos. De ese modo, las armas biológicas se han usado de modo extendido y desde la antigüedad. Así, ya en la Ilíada y la Odisea se dice que las flechas y lanzas de aqueos y troyanos tenían puntas envenenadas. El veneno procedente de animales o vegetales fue la primera forma de guerra biológica, pero no la única. En la Primera Guerra Sagrada de Grecia, los atenienses y la Liga Anfictiónica envenenaron los pozos de agua del pueblo de Kirra con una planta tóxica.

Es ciertamente inquietante que, aunque no se conocía la existencia de gérmenes patógenos o la forma de desarrollo de las infecciones, los antiguos griegos tuvieran suficiente conocimiento empírico como para hacer lo que cuenta Heródoto, el historiador del siglo V a.E.C., que relata cómo los arqueros escitas mezclaban víboras putrefactas, sangre humana y estiércol de vaca y lo enterraban un tiempo para luego remojar las puntas de sus flechas en la mezcla, seguramente contaminada con diversos agentes infecciosos. Igualmente, era práctica común arrojar con catapultas animales o cuerpos humanos infectados a las ciudades sitiadas.

La palabra “tóxico” viene del antiguo griego toxikon, que se deriva de la palabra para flecha: toxon. Y las toxinas también fueron armas eficaces en oriente. El padre de la medicina china, Shen Nung, describió, en un libro que se dice que tiene cinco mil años de antigüedad, el uso de flechas empapadas en aconitina, un alcaloide de gran actividad obtenido del acónito.

Los agentes patógenos también fueron utilizados por los hititas para triunfar en su guerra contra Arzawa en el siglo XIV a.E.C., cuando llevaron a terreno enemigo carneros y burros infectados de tularemia, una grave infección bacteriana hoy poco frecuente, transmitida a los seres humanos por la vía de garrapatas y mosquitos.

Más directo, el legendario general cartaginés Aníbal llenó ollas de cerámica con víboras venenosas y las lanzó a las cubiertas de las naves del rey de Pérgamo. Un sistema similar empleado por la ciudad de Hatra, cerca de la actual Mosul, en Irak, que provocó la retirada del ejército romano en el siglo II de nuestra era lanzándoles ollas llenas de escorpiones vivos.

Junto con las armas biológicas se desarrollaron supuestos antídotos como el “mitridatium”, que según la leyenda fue creado por el rey persa Mitrídates VI, un experto en venenos cuya fórmula fue buscada y reinventada (y vendida por charlatanes poco escrupulosos) hasta el Renacimiento. Mitrídates sería el primer experto de lo que hoy llamamos “bioseguridad”, un aspecto importante en la defensa y seguridad de los países, especialmente los más poderosos y, por tanto, susceptibles de ataques con armas prohibidas.

La posibilidad de convertir en armas los agentes biológicos se hizo realidad junto con los avances de la biología y la teoría de los gérmenes patógenos de Louis Pasteur y Robert Koch, desarrollada a mediados del siglo XIX. Al mismo tiempo, en 1847, las convenciones de guerra prohibieron las armas envenenadas y después prohibirían toda forma de guerra biológica.

Todavía en la Segunda Guerra Mundial, las armas biológicas fueron utilizadas por última vez en una guerra, digamos, convencional, por el ejército imperial japonés. Los expertos de Hirohito convirtieron en armas las bacterias del tifus y el cólera, y las utilizaron en su guerra contra China para envenenar pozos y lanzar desde aviones pulgas infectadas por la peste. Se calcula que causaron así medio millón de muertes.

Las armas biológicas tienen el problema de ser difíciles de controlar y de apuntar... y que una vez distribuidas la descontaminación puede ser imposible, como descubrió el ejército británico cuando hizo una prueba con esporas de ántrax en una isla escocesa durante la Segunda Guerra Mundial, que hasta hoy está contaminada con ellas. Así, cualquier error o cambio en las condiciones pueden convertir a los atacantes en víctimas de sus propias armas. Un ejemplo fue el brote del más peligroso de los agentes biológicos, el ántrax, que ocurrió en 1974 en la ciudad hoy llamada Ekaterinburgo, causando la muerte de 64 personas. El origen fue una fuga accidental del bacilo de las instalaciones de guerra biológica situadas en la ciudad, pese a que la URSS era signataria de la convención contra armas biológicas firmada apenas dos años antes, en 1972. Estados Unidos sufrió un accidente similar, con otros patógenos, poco después del fin de la Segunda Guerra Mundial.

Esto no impidió que Irak, durante el régimen de Saddam Hussein, entre 1985 y 1991, desarrollara armas biológicas con agentes como ántrax, toxina botulínica y aflatoxinas, aunque no llegaron a usarse pues sus sistemas de dispersión eran altamente ineficientes.

Han sido grupos no regulares los responsables de los más recientes casos de uso o intento de uso de armas biológicas. En 1972, los miembros del grupo racista extremista denominado la Orden del Sol Naciente, fueron detenidos con más de 30 kilogramos de cultivos de bacteria de la tifoidea que planeaban usar para atacar ciudades estadounidenses. En 1984, la secta de Baghwan Rajneesh, “Osho”, esparció un cultivo de salmonela en los restaurantes de Antelope, Oregon, para impedir que la gente votara en unas elecciones con las que pretendían hacerse con el poder en el municipio, con cientos de afectados, 45 hospitalizados y, afortunadamente, ninguna muerte.

Pese a sus riesgos y las prohibiciones mundiales, los países poderosos suelen tenerlas en reserva pero no utilizarlas por la convicción de que las represalias con armas similares serían inmediatas y las posibilidades de proteger a su población son escasas. Asuntos contradictorios de los conflictos bélicos.

Animales de ataque

Algunos expertos consideran que el caballo y los elefantes de guerra son, de cierta forma, agentes de guerra biológica. En ese caso, en la misma clasificación entrarían algunos de los proyectos más descabellados de algunos departamentos de defensa, como el de utilizar delfines para poner minas en embarcaciones enemigas, algo que han explorado tanto los Estados Unidos como la URSS y después Rusia.

El aire pesa

Ligero pero capaz de arrancar una casa de sus cimientos cuando se mueve a gran velocidad, el aire que respiramos ejerce sobre todo el planeta una presión que condiciona cuanto hacemos.

Estatua de Evangelista Torricelli con su
barómetro en el Muso de Historia Natural
de Florencia, Italia. (Foto CC de Sailko,
vía Wikimedia Commons)
Para los primeros humanos, el aire era seguramente un material muy extraño. No se podía ver, pero podía refrescarnos, mover las hojas de los árboles, transportar aromas a grandes distancias o azotarnos con enorme violencia, además de que respirarlo resultaba indispensable.

No es raro entonces que el aire preocupara a los antiguos pensadores. En varias culturas se le consideró uno de los elementos primordiales. Entre los griegos, el filósofo Anaxímenes creyó que era el componente esencial del universo, mientras que la visión de Aristóteles sobre los cuatro elementos predominó en Europa durante 20 siglos. Aristóteles también propuso la idea de que el aire tenía peso.

Además, si las enfermedades llegaban por medios invisibles, quizá las traía el aire. Los “malos aires”, se creyó largamente, eran los portadores de los “miasmas”, contaminaciones que provocaban las enfermedades. Esta superstición aún sigue vigente en consejas como la que nos advierte contra el peligro de que “nos dé un aire” porque, por ejemplo, puede ocasionarnos una parálisis facial... cosa que los niños hallan divertido poner a prueba.

La demostración de que el aire pesaba tuvo que esperar a la revolución científica, aunque su base lógica era sólida: si el aire puede mover objetos, desde una brizna de hierba hasta un gran velero, es porque tiene masa, y todo cuanto tiene masa necesariamente tiene peso en un cuerpo como la Tierra con su atracción gravitacional. En 1613, Galileo desarrolló un método para calcular la “gravedad específica” del aire, es decir, su peso. Utilizó un recipiente hermético que pesó en una balanza muy precisa y en el que luego introdujo tanto aire a presión como pudo, descubriendo que su peso había aumentado. Galileo informó de este hallazgo pese a que abría una serie de preguntas que no se podían resolver en ese momento, como, por ejemplo, por qué no sentimos el peso del aire sobre nosotros. Por alguna causa, sin embargo, los resultados de Galileo estaban equivocados, la realidad es aproximadamente el doble de lo que anotó el astrónomo.

A la misma conclusión llegó el francés Jean Rey por otro camino. Observó que al calcinar plomo y estaño el peso de estos metales aumentaba, y supuso que ello se debía a que al calcinarse estos metales incorporaban aire. Hoy sabemos que algunos materiales se oxidan al calcinarse, incorporando moléculas de oxígeno a su composición y aumentando de peso.

La presión que ejerce el peso del aire sobre la superficie de la Tierra y todo cuanto hay en ella, se conoció finalmente cuando Evangelista Torricelli, que había sido ayudante de Galileo durante los últimos tres años de vida del genio perseguido, fabricó el primer barómetro: un tubo de vidrio lleno de mercurio y cerrado por un extremo, cuyo otro extremo se depositaba en un recipiente con mercurio. El metal dentro del tubo bajaba, creando un vacío en el extremo cerrado del tubo, hasta una altura igual a la de la presión de la atmósfera.

La primera medición de Torricelli de la presión, en 1644, le dio un valor de 760 mm de mercurio, o 0,01 newtons de fuerza por cada centímetro cuadrado. El propio Torricelli, al ver que la altura de su columna de mercurio variaba según las condiciones del clima, predijo que la presión atmosférica sería menor cuanto mayor fuera la altura sobre el nivel del mar, algo que confirmarían experimentos posteriores.

Mientras el estudio del aire se convertía en toda el área de la química dedicada a los gases gracias a Robert Boyle, quien fundó la química moderna en el siglo XVII, el estudio de la presión atmosférica se desarrolló como algo indispensable para el estudio de la meteorología, la historia de nuestro planeta e incluso el comportamiento animal y humano.

La presión del aire es variable precisamente porque los gases se pueden comprimir, así que el peso del aire depende de muchas variables que los físicos fueron determinando con el tiempo.

Por ejemplo, el volumen de un gas se reduce cuanta más presión haya y aumenta cuanto más caliente esté. Esto explicaba, por ejemplo, por qué la presión variaba según el clima. Por lo mismo, para determinar el peso del aire es necesario establecer las condiciones: un metro cúbico de aire seco (sin humedad, que aumenta su peso) a 20ºC de temperatura pesa 1.205 kilogramos. Esto significa que cada uno de nosotros soporta sobre sus hombros aproximadamente una tonelada de aire.

¿Por qué no sentimos ese enorme peso o la presión que ejerce? Porque todo nuestro cuerpo compensa esa presión, es decir, los gases que hay en nuestro interior tienen la misma presión. Nuestro cuerpo tiene un empuje que equilibra la presión atmosférica.

Las consecuencias de esto son interesantes. Por ejemplo, cuando un submarinista pasa un período largo de tiempo a gran profundidad, la presión del agua hace que sea necesario respirar el aire embotellado a una presión muy superior a la de la que hay al nivel del mar. Parte de la mezcla que se respira está formada, como nuestra atmósfera, por gases inertes, principalmente nitrógeno, que siempre están disueltos en todos los tejidos del cuerpo. Pero a gran profundidad, esos gases están a una presión mucho mayor. Si el submarinista asciende súbitamente, esos gases se expanden al disminuir la presión exterior y forman burbujas en sus tejidos y, principalmente, en la sangre, que pueden ocasionar la muerte.

La forma de contrarrestar esta enfermedad por descompresión (que también pueden sufrir otros individuos que trabajen en entornos de gran presión) es colocar a la persona en una cámara a presión similar a la que estuvo sometido bajo el mar y disminuir esa presión gradualmente de modo que la presión de los gases de su cuerpo se equilibre poco a poco y sin formar peligrosas burbujas.

En el otro extremo, la baja presión a grandes alturas explica por qué los montañeros suelen tener que llevar oxígeno complementario. A la altitud del Everest y montañas similares, sólo tienen sobre ellos el 30% de la atmósfera que a nivel del mar, y el oxígeno, por tanto, es escaso.

Presión y cocina

No es igual cocinar al nivel del mar que a mayores alturas. Esto hace necesario adaptar las recetas de cocina considerando que es necesario aumentar las temperaturas o los tiempos de horneado, así como la proporción de líquidos y harina para evitar que las masas queden demasiado húmedas, y dado que los gases se expanden más, debe disminuirse la cantidad de levadura. Además, el agua hierve a 100 ºC al nivel del mar, pero a grandes alturas lo hace a menos temperatura, por lo que los platillos con agua, como la pasta, tardan más tiempo en prepararse.

septiembre 06, 2014

25 años de la World Wide Web

Sí, hubo un mundo antes de la web, cuando los archivos se compartían llevando papeles de un lugar a otro y donde la información era mucho menos libre que hoy en día.

Esta poco impresionante estación de trabajo NeXT fue el
primer servidor web, instalado por Tim Berners-Lee en
el CERN. A la izquierda, sobre el teclado, hay un ejemplar
del documento "Gestión de la información: una propuesta",
 la semilla de la telaraña mundial.
(Foto CC Coolcaesar, vía Wikimedia Commons)
La fecha no es muy precisa, depende de qué criterio se utilice para determinar en qué momento podemos decir que ya existía la World Wide Web, el servicio de Internet que revolucionó la red y la convirtió en lo que es hoy. Pero estrictamente, la idea se presentó hace un cuarto de siglo, en marzo de 1989, en un documento sobriamente titulado “Gestión de la información: una propuesta” que envió el físico e ingeniero informático británico Tim Berners-Lee a sus jefes del Centro Europeo de Investigaciones Nucleares, CERN.

Hoy ya tenemos una generación que ha vivido toda su vida con esta herramienta de la información (y de la desinformación), de la comunicación (y de la incomunicación), del entretenimiento y de las relaciones sociales. Una generación para la cual es inimaginable el mundo sin esta interconexión y sin su abundancia de información y entretenimiento.

Aunque a veces lo olvidamos, Internet es una red de varios servicios. El correo electrónico, los archivos compartidos por FTP, los grupos de noticias, los chats IRC, el control de ordenadores remotos por Telnet y otros, la mayor parte de los cuales ya existían antes de que apareciera la World Wide Web. Algunos con el tiempo se han integrado en ésta, pero sin dejar de tener una operación y sistemas independientes.

Conseguir un documento que tuviera otro servidor de la Internet primitiva era enormemente difícil. Requería saber quién lo tenía (no sólo la universidad o institución, sino el servidor en el que estaba alojado, en qué carpeta y con qué nombre) y luego utilizar una conexión FTP para descargarlo, a una velocidad increíblemente baja.

Era lento. Era torpe. Y había que saber lenguaje Unix.

Por otro lado, el correo electrónico ya tenía más de dos décadas funcionando cuando apareció la web. El primer correo se había enviado en 1971 ya con una dirección cuyo usuario y servidor estaban separados por la hoy omnipresente arroba.

Todo ello cambió cuando Tim Berners-Lee decidió intentar utilizar el hipertexto para la comunicación entre servidores de Internet, que estaba en funcionamiento público desde principios de la década de los 80 (antes había sido un proyecto de la defensa estadounidense). El hipertexto es lo que hoy conocemos como vínculo o enlace: un fragmento de texto con una referencia a más texto, a otro documento o a otro servicio. Ya era una idea que varios, incluso Berners-Lee, habían explorado antes.

El proyecto presentado en 1989 tenía por objeto facilitar que los científicos europeos compartieran información en el CERN y otras universidades. Aprobada la idea, hizo un prototipo funcional e instaló el primer sitio web de la historia llamado, precisamente, World Wide Web. A su prototipo siguió el primer navegador Web, Lynx (juego de palabras con “links”, que significa “enlaces”, palabra homófona a “lynx” o “lince”). Poco después, los científicos del CERN instalarían la primera webcam (para vigilar la cafetera y atacarla cuando hubiera café recién hecho), se subió la primera fotografía y se inventó el concepto de “surfear” o navegar la red.

La idea se desató sobre el mundo el 30 de abril de 1993, cuando el CERN hizo público el código fuente (el programa básico) del proyecto, sentando las bases de la red libre que hoy es objeto de controversias, debates y enfrentamientos. Para 1994 ya había más de 10.000 sitios Web y Berners-Lee se fue al MIT en Estados Unidos para ponerse al frente del W3 Consortium, organización sin ánimos de lucro que rige y ordena la WWW, y lucha por mantener sus características básicas como una red pública, libre e independiente de gobiernos e intereses económicos y políticos.

Algunas cifras permiten darnos una idea de la explosión que ha significado la World Wide Web, sin apenas tratar de valorar en justicia, que sería muy difícil, su impacto en la sociedad, en la política, en la actividad académica, en el arte y en todas las actividades humanas, especialmente vinculada a los otros dos actores de la revolución virtual: el ordenador y el teléfono móvil.

Los primeros módems que se usaron en la WWW, que se comunicaban mediante líneas telefónicas analógicas, alcanzaban una velocidad máxima de 14.400 kilobits por segundo, lo que quiere decir que para descargar un megabyte o mega tardaban 14 minutos. La descarga de un vídeo de media hora de calidad razonable disponible en la actualidad, de 5 gigas, por ejemplo, habría tomado... más de 1.200 horas o 48 días. Con un módem de línea digital ADSL o de cable actualmente se puede llegar a velocidades de 300 megabits por segundo, capaz de descargar un mega en algo menos de medio segundo y el mismo vídeo en una media hora.

La mayor velocidad de transmisión de la información ha permitido por lo mismo una explosión en la cantidad y variedad del material disponible en la Web. Y todo ese material está accesible en alrededor de 1.017 millones de sitios Web según una estimación de fines de julio de 2014.

Esos más de mil millones de sitios se encuentran alojados en una cantidad indeterminada de servidores. Algunos medios calculan 75 millones y otros muchos más. Y para llegar a ellos se necesita otro millón de servidores, que son los que tiene Google según calculan los expertos de la industria, aunque sólo la empresa lo sabe con certeza.

Pero la World Wide Web que está entrando a su segundo cuarto de siglo es mucho más que números e información. Es la gente que la usa, la que ha creado sus datos, la que forma sus redes sociales, la que de modo creciente está colocando sus propios archivos, sus documentos, sus fotos, sus vídeos en la red. Se calcula que, accediendo a la World Wide Web mediante ordenadores o smartphones, actualmente el número de usuarios del invento de Berners-Lee es de 2.940 millones de personas a fines de julio de 2014, el 42 por ciento de los seres humanos. Y probablemente habrá llegado a la mitad de los habitantes del planeta antes de su cumpleaños número 26.

Una cifra que para muchos es, simplemente, el desafío de llevar la Web a la otra mitad del mundo.

La web profunda

La “web profunda” o “invisible”está formada por todas las páginas que no son indexadas por los buscadores: las accesibles mediante suscripción, redes privadas de empresas y gobiernos; páginas que se generan en respuesta a solicitudes y luego se borran (como nuestros movimientos bancarios al consultarlos) y otras. Se calcula que es miles de veces mayor que la web abierta e incluye, aunque no como lo pintan algunos mitos que rayan en la leyenda urbana, páginas donde se desarrollan actividades ilegales y que son objeto del interés de las corporaciones policiacas de todo el mundo.

septiembre 05, 2014

Los océanos de Cousteau

Antes de "Cosmos" y su viaje por los planetas y la vida, un tenaz aventurero francés nos mostró un universo desconocido y muy, muy cercano: el de los mares que ocupan la mayor parte de la Tierra.

El capitán con su clásica
indumentaria. Fotografía de la
Sociedad Cousteau
Jacques-Yves Cousteau era difícil de definir. Oceanógrafo que no estudió oceanografía. Biólogo sin título. Capitán de barco que había estudiado para piloto. Y un gran comunicador que nunca estudió comunicación.

El capitán Cousteau, reconocible todavía por su gorro de lana roja y sus gafas, fue conocido gracias principalmente a un programa de televisión, “El mundo submarino de Jacques Cousteau”, una asombrosa serie de documentales sobre los más diversos aspectos del mar y sus habitantes animales y vegetales, emitida de 1968 a 1975. Sin embargo, para ese momento, el inquieto francés ya había vivido varias vidas distintas.

Jacques-Yves Cousteau nació el 11 de junio de 1910 en Saint-André-de-Cubzac, Gironde, Francia. Quizás el más importante acontecimiento de su temprana infancia fue cuando, con apenas 4 años de edad, su frágil estado de salud hizo que su médico le recomendara evitar los deportes bruscos y, en vez de ellos, aprender a nadar. Ése sería el comienzo de la fascinación por el agua que le acompañó toda la vida. El otro aspecto destacado de la personalidad del joven era su interés por los dispositivos mecánicos. Apenas tenía 13 años cuando adquirió una cámara de cine de aficionados, pero antes de registrar cinematográficamente el mundo a su alrededor, decidió desarmarla para ver cómo funcionaba. Océano, mecánica y cine serían, en definitiva, los aspectos definitorios de la vida de Cousteau.

Pero no lo sabría sino hasta pasados unos años.

El niño Jacques no era buen estudiante. De hecho, sus malas notas llevaron a que sus padres lo enviaran a un internado y después a un colegio preparatorio del que salió para entrar, en 1930, a la Escuela Naval de Brest, de donde se graduó como técnico de artillería tres años después. Inmediatamente se enrolo en el ejército con la idea de convertirse en piloto. El rumbo de su vida quedaría decidido, sin embargo, en 1936, cuando a punto de terminar sus estudios de aviación sufrió un fuerte accidente de automóvil del que salió gravemente herido, entre otras cosas con ambos brazos rotos.

Se dice que quizá ese accidente resalvo indirectamente la vida para permitirle convertirse en el gran defensor de los mares, sobre todo porque todos menos uno de los compañeros con los que estudió y que sí se convirtieron en pilotos habrían de morir en combate durante la Segunda Guerra Mundial. Mientras se recuperaba, un amigo le regaló unas gafas de buceo que le abrieron las puertas que cuanto ocurría debajo de la superficie del mar.

La guerra puso en espera cualquier otro proyecto. primero fue instructor de artillería en la base de Toulon, pero una vez consumada la invasión nazi de Francia, se refugió con su familia en un pueblo de la frontera con Suiza, donde se integró a la resistencia francesa y se dedicó a espiar los movimientos del ejército italiano, acción que le valdría numerosos reconocimientos como héroe de guerra.

Pero todavía durante el conflicto armado, Cousteau y el ingeniero Émile Gagnan desarrollaron el primer sistema de buceo o submarinismo totalmente autocontenido, el llamado “SCUBA”, formado por una botella de aire comprimido y un regulador que permitía respirar ese aire sin que saliera despedido por la presión. De un golpe habían inventado el buceo autónomo, y su patente sería una de las primeras fuentes de financiamiento de las exploraciones oceanográficas de Cousteau, que por entonces realizó sus primeros documentales sobre el mundo submarino utilizando también una cámara diseñada por él mismo para soportar la presión bajo el mar.

En principio, el nuevo sistema se utilizó para eliminar de los mares franceses las minas que habían quedado después de la guerra. Pero ya en 1948 Cousteau organizó una expedición en el Mediterráneo para encontrar los restos de un naufragio romano del siglo I antes de la era común, una acción que sería la iniciadora de la arqueología submarina. Dos años después, Cousteau consiguió comprar un dragaminas británico al que convirtió en el primer barco dedicado a la investigación oceanográfica, el Calypso, llamado así en honor a la ninfa de los océanos.

Para financiar sus investigaciones, Cousteau escribió el libro “El mundo silencioso”, que tuvo un éxito instantáneo y que en 1956 convirtió en película. Ya había hecho una docena de documentales, pero éste fue el que lo puso bajo los reflectores, al ganar un Óscar al mejor documental y una palma en el festival de Cannes.

El éxito le permitió abandonar el ejército después de 27 años de servicio. Había logrado el beneplácito del príncipe Rainiero de Mónaco, quien lo nombró director del Museo Oceanográfico de Mónaco y le ofreció apoyo financiero. Ese mismo año fundó un grupo de investigación y un programa experimental para explorar la posibilidad de vivir largos períodos bajo el agua.

Se dedicaría entonces a la investigación y la promoción del estudio marítimo, trabajando estrechamente con organizaciones como National Geographic y diversas instituciones, hasta que en 1968 comenzó la memorable serie de televisión que enseñó al mundo cómo eran realmente los océanos debajo de la superficie.

Pero su trabajo no era únicamente científico. Al paso del tiempo se convirtió en activista en favor del medio ambiente y uno de los iniciadores de la preocupación por los efectos de la actividad humana en distintos ecosistemas. Fue el primero que mostró los problemas ocasionados por la contaminación de los mares, no sólo del aire, impulsando la naciente conciencia ambiental y dedicándole sus mayores esfuerzos a partir de la década de 1980.

Gracias a su actividad, fue distinguido por numerosas organizaciones y academias científicas como la francesa y la estadounidense, que lo hicieron miembro pese a no tener estudios universitarios, además de seguir cosechando premios cinematográficos por sus documentales. Al final de su vida, había producido más de 115 películas y 50 libros, cosechando tres Óscares, un premio Emmy y un Bafta.

En 1996, su embarcación insignia, el Calypso, fue embestida por una barcaza en Singapur. Cousteau murió el 25 de junio de 1997 mientras trataba de conseguir dinero para construir una nueva nave de investigación.

El legado

La herencia de Cousteu, por desgracia, fue objeto de litigio por parte de los hijos de sus dos matrimonios. El resultado son dos organizaciones independientes, la Sociedad Cousteau y la Ocean Futures Society, donde hoy sus nietos son una tercera generación de oceanógrafos, ambientalistas y aventureros. Su más reciente logro fue romper en un día el récord del experimento de vida submarina de Cousteau. En junio de 2014, su nieto Fabien Cousteau vivió 31 días bajo el mar.

Urano, el gigante de hielo

El primer planeta descubierto con telescopio es uno de los más desconocidos por el hombre. El sueño es que alguna de nuestras naves pueda visitarlo en un futuro relativamente cercano.

Urano, con su eje de rotación inclinado 90º y sus
anillos girando alrededor de su ecuador.
(Foto D.P. NASA/JPL vía Wikimedia Commons)
Los planetas que podemos ver con sólo nuestros ojos son cinco: Mercurio, Venus, Marte, Júpiter y Saturno. O seis, si bajamos la mirada al suelo, a nuestro propio planeta, la Tierra.

El telescopio, inventado por Hans Lippershey o por Zacharias Jansen (la historia no es clara), amplió de manera asombrosa el universo cuando Galileo Galilei lo apuntó al firmamento. El ser humano empezó a descubrir que vivía en un espacio asombroso, que las quizá 10 mil estrellas que era capaz de ver en una noche sin luna eran apenas una mínima fracción de los cuerpos que habitan el espacio y, eventualmente, que el sistema solar que Copérnico y Galileo habían descrito estaba ocupado por otros que sólo podíamos detectar con nuestros nuevos aparatos.

El honor de descubrir el primer planeta nuevo desde el inicio de la historia humana correspondió a William Herschel.

Por supuesto, descubrir un planeta no es tan sencillo si no sabemos cómo deben comportarse los planetas. De hecho, Urano había sido observado anteriormente en multitud de ocasiones registradas, y un número indeterminado de otras ocasiones que no fueron documentadas para la historia. El propio Herschel, la primera vez que vio en marzo de 1781, lo reportó como cometa. Tuvieron que pasar varias semanas de cuidadosa observación para que se diera cuenta de que su “cometa” tenía ciertas características singulares que lo hacían similar a un planeta. En palabras del propio astrónomo: ”No sé cómo llamarlo; es posible que sea un planeta en una órbita casi circular alrededor del sol o un cometa moviéndose en una elipse extremadamente excéntrica”.

Pero, para 1783, la comunidad astronómica internacional estaba de acuerdo en que se trataba de un nuevo planeta. Este hecho por cierto, convirtió a Herschel en el primer astrónomo profesional al recibir de manos del rey Jorge III un estipendio anual de 200 libras para que se dedicara única y exclusivamente a la astronomía, en el Castillo de Windsor, y además entretener con sus observaciones a la familia real.

A Urano le seguirían otros planetas, hasta completar nuestra imagen del sistema solar en el cual habitamos.

Urano es el tercer planeta más grande de nuestro sistema solar después del gigantesco Júpiter y de Saturno, y se distingue por un profundo color azul que es resultado del metano en su atmósfera, que absorbe el extremo rojo del espectro de la luz solar. Aunque solemos llamar a estos planetas gigantes gaseosos, en realidad están formados de un líquido caliente y denso de materiales en forma de hielo, que flotan alrededor de un pequeño núcleo rocoso: agua, metano y amoníaco forman esa capa helada sobre la cual hay una densa atmósfera compuesta principalmente por hidrógeno, helio y una pequeña cantidad de metano.

La característica más notable del planeta descubierto por Herschel es que es el único cuyo eje de rotación es perpendicular al plano de su órbita alrededor del sol. Es como si el eje de la tierra se inclinara 90° hasta ocupar el lugar del Ecuador. De hecho, el polo sur de Urano apunta directamente al sol y el Polo Norte mira hacia el borde del sistema solar.

Urano tiene anillos también, como los otros gigantes del sistema solar, en un sistema menos complejo que el de Saturno pero más que el de Júpiter y Neptuno. Aunque Herschel reportó haberlos visto, es poco probable que lo hiciera, de modo que se considera que el descubrimiento de los anillos lo hicieron los astrónomos James L. Eliot, Edward W. Dunham y Douglas J. Mink el 10 de marzo de 1977.

El propio Herschel descubrió las primeras dos lunas conocidas de Urano, Titania y Óberon, en 1787. Pasaron siete décadas antes del que William Lassell descubriera otras dos en 1851, Ariel y Umbriel, y casi un siglo para que Gerard Kuiper descubriera la quinta: Miranda. Las lunas, por cierto, han recibido nombres de entidades mágicas de la literatura inglesa en lugar de partir de la mitología griega.

Sólo una nave espacial creada por el hombre, la sonda Voyager 2, ha pasado cerca de la superficie de este planeta. El 24 de enero de 1986, la mítica sonda pasó A 81.500 km de las nubes superiores de Urano. Nueve años habían pasado desde el lanzamiento de este robot para que finalmente pasara brevemente junto a este planeta. En unos pocos días, el Voyager 2 envío a la Tierra miles de imágenes y grandes cantidades de datos sobre el planeta sus lunas (de las que descubrió once más), sus anillos, su atmósfera, y otras características. El Voyager también detalló el sistema de anillos alrededor de Urano, descubrió que posee un campo magnético desusadamente potente y que la temperatura en la región ecuatorial parece ser más elevada que en los polos... pese a que recibe menos luz solar que el polo Sur por la inclinación del eje.

La exploración astronómica de Urano ha determinado que tiene un día de 17 horas y 14 minutos terrestres, además de aumentar el número de lunas del planeta hasta 27. Está 19 veces más lejos del Sol que nuestro planeta y su año, su órbita alrededor del sol, es de 84 años terrestres. Es decir, desde que Herschel lo descubrió, sólo ha dado tres vueltas alrededor del sol.

Pero Urano presenta hoy más interrogantes que respuestas. Entre ellas: ¿por qué está inclinado su eje?, ¿acaso sufrió una colisión con otro cuerpo celeste? Y ¿por qué Urano, al igual que Neptuno, tiene muchísimo menos hidrógeno y helio que Júpiter y Saturno, cuando su origen nos sugiere que debería ser similar? ¿El interior del planeta es frío o produce su propio calor?

La solución a estas preguntas estaría en una misión que visite el planeta y se establezca en órbita a su alrededor para observarlo con atención. Idealmente, tal misión debería lanzarse en la década de 2020, cuando se requeriría menos combustible y tiempo para llegar a Urano.

Varios científicos han propuesto misiones así. Su máximo obstáculo es el coste que tendría, de entre 1.000 y 2.000 millones de euros.

De no conseguirse financiamiento oportuno para la misión, Urano seguirá siendo un misterio azul en la familia del sistema solar.

Los nombres de los planetas

Agradecido por la generosidad del rey, William Herschel propuso ponerle al nuevo planeta el nombre del monarca, “Planeta Georgiano”. La idea, sin embargo, no fue popular fuera de Inglaterra. Otros astrónomos preferían continuar la nomenclatura ya establecida en Europa y América, basada en la mitología griega. El alemán Johann Bode fue quien propuso el nombre de Urano, el dios padre de Saturno y de los Titanes, los ancestros de los dioses griegos. El nombre, sin embargo, no se generalizó sino hasta mediados del siglo XIX, cuando se descubrió y dio nombre también a Neptuno.

agosto 31, 2014

La duración de nuestras vidas

Vivir para siempre, sueño de los alquimistas, y frecuente promesa de estafadores. Sigue pareciendo un sueño lejano, pero al menos hoy disfrutamos dos veces más años de vida que nuestros no muy lejanos ancestros.

"Estudio de un viejo", del maestro holandés
Jan Livens, siglo XVII (Imagen D.P. vía
Wikimedia Commons
El récord mundial de longevidad certificada y contrastada lo ostenta Jeanne Calment, francesa que vivió la asombrosa cantidad de 122 años y 164 días, entre el 21 de febrero de 1875 y el 4 de agosto de 1997. La prueba de su edad procede de consecutivos censos franceses desde el de 1876, donde aparece con un año de edad.

Es notable que vivió sola hasta los 110 años, que a los 85 empezó a hacer esgrima, que andaba en bicicleta hasta los 100, y que fumó hasta los 120.

Su personalidad es fascinante porque una vida larga es un viejo sueño humano. Por eso los relatos míticos suelen incluir a personajes enormemente longevos y que, además, conservan el vigor de la juventud. A los antiguos reyes sumerios se les atribuían reinados de entre 30.00 y 72.000 años, mientras que es conocido que la Biblia asegura que Abraham murió a los 175 años y su hijo, Isaac, el que se salvó de ser sacrificado en el último momento, llegó a los 180 años de edad.

Es probable que los “años” del viejo testamento sean resultado de traducciones incorrectas de meses lunares o de otras medidas de tiempo. Pero no importa: la gente ha optado por creer que fueron verdaderas esas vidas larguísimas, como la de Matusalén, poseedor del récord bíblico con 969 años, por improbable que resulte.

Queremos ser longevos, aunque pasar de los 100 años de edad sea una hazaña poco común. En 2010, sólo el 0,0173% de los estadounidenses alcanzaban los 100 años de edad. España es más longeva, con 11.156 centenarios en 2013, el 0,024% de la población. Aún así, es una cifra muy pequeña.

Y sin embargo, en promedio y en general, la vida humana tiene cada vez una mayor duración gracias a diversos factores. Pese a tener pocos centenarios, vivimos cada vez más.

La revolución de los abuelos

Rachel Caspari, paleoantropóloga de la Universidad de Central Michigan ha estudiado el desgaste de los dientes de nuestros antepasados como una medida razonablemente fiable (cotejada con otros métodos) de la longevidad de distintos individuos y poblaciones. Como resultado de sus trabajos, cree que una de las ventajas del Homo sapiens sobre los neandertales y que permitió a la primera especie sobrevivir mientras la otra desaparecía fue, precisamente, la longevidad.

Hasta hace unos 30.000 años, ni nuestros ancestros ni sus primos los neandertales solían vivir más allá de los 30 años, salvo excepciones. Fue por entonces cuando, por causas desconocidas, nuestra especie empezó a tener una mayor longevidad. Los humanos primitivos vivieron, por primera vez, con sus abuelos, lo que permitió conservar y transmitir mejor la información acumulada, afianzando la cultura. Según Caspari, esa revolución del paleolítico superior fue nuestra ventaja. Más personas, dice, permiten que haya más innovación, más ideas originales.

Tener viejos permitió que ellos cuidaran a los jóvenes, liberando a los adultos jóvenes para dedicar más tiempo a conseguir comida, lo cual fomentaba el incremento de la población, lo que también hacía a los Homo sapiens más fuertes como comunidad que los neandertales.

Pero una vida más larga, súbitamente, hizo también más evidentes los defectos acumulados en la historia de nuestra especie, lo que Caspari llama "las cicatrices de la evolución". Pagamos esa vida más larga con los achaques de la ancianidad.

La medida más común de la duración de la vida es la expectativa de vida al nacer. Pero al valorarla es importante recordar que se trata de un promedio. Una expectativa de vida de 40 años no indica que la mayoría de la población muriera a los 40, bien podía ser que la mitad de la población muriera en su primer año de vida y la otra mitad viviera hasta los 80. Entendido eso, la expectativa de vida han crecido de modo asombroso.

Hasta los inicios del siglo XIX, la expectativa de vida al nacer se movía entre los 30 y los 40 años de edad. A partir de ese momento empezó a aumentar, más acusadamente en los países cuya población tiende a disfrutar de un mejor acceso a innovaciones vitales como la medicina, el agua corriente, el alcantarillado y las normativas sobre higiene de los alimentos y otros productos. Actualmente, la expectativa de vida en muchos países se ha duplicado hasta los 80 años. España, de hecho, es uno de los países con el más notable cambio. Desde el inicio del siglo XX, la esperanza de vida al nacer ha pasado desde los 33,9 hasta los 75,8 años en el caso de los hombres y de los 35,7 hasta los 82,7 años en el de las mujeres.

¿Cuánto podemos vivir en realidad? Algunos investigadores han intentado calcular la máxima tolerancia del cuerpo humano al desgaste de la edad, las inevitables enfermedades degenerativas y los achaques que se van acumulando. Los coreanos Byung Mook Weon y Jung Ho Je han estimado que la edad máxima que puede alcanzar un ser humano es de 126 años. Otros, más optimistas aunque claramente con menos información, buscan sin embargo hacer realidad el sueño de la inmortalidad.

Pero lo esencial para muchos no es solamente vivir más años, sino que se puedan disfrutar con calidad de vida. En ese esfuerzo también la medicina ha hecho avances con procedimientos que hace no muchos años habría sido impensable practicarle a ancianos de 80 o 90 años, por ejemplo para dotarlos de nuevas caderas. Vivir más, y vivir mejor, es uno de nuestros logros más notables como especie.

¿Por qué envejecemos?

Hay diversas teorías que pretenden explicar, al menos parcialmente, por qué envejecemos y morimos. Se sugiere que el envejecimiento está programado en nuestras células, que sólo pueden reproducirse un número determinado de veces. También es posible que envejecer sea el inevitable resultado de la acumulación de daños celulares a lo largo la vida, fallos en la replicación del genoma, estrés oxidativo, acumulación de telómeros en los extremos de nuestros cromosomas y otros factores.

agosto 30, 2014

Linus Pauling, señor de los extremos

Uno de los más grandes químicos desde Lavoisier y un luchador digno por la paz fue, al mismo tiempo, un entusiasta de fantasiosas propuestas de salud que resultaron falsas.

Linus Pauling en 1962, cuando ganó
su segundo Premio Nobel, el de la Paz.
(Foto D.P. del Comité Nobel, vía
Wikimedia Commons)
Pocas personas merecen el nombre de “genios” tanto como Linus Carl Pauling. Y pocos han sido al mismo tiempo tan proclives a realizar excursiones intelectuales en los terrenos de la pseudociencia. Quizás el único ejemplo parecido en el siglo XX sea Nikola Tesla, genio de la ingeniería eléctrica que en sus años últimos se destacó por hacer afirmaciones implausibles sobre rayos de la muerte y energía gratuita.

Del genio y pasión humanista de Pauling dan fe los reconocimientos que obtuvo, como la única persona que ha recibido dos Premios Nobel no compartidos: el de química en 1954 y el de la paz en 1962. De sus tropezones queda un sistema pseudomédico y una serie de afirmaciones que se han apoderado del imaginario popular, cuyos proponentes jamás han conseguido demostrar en condiciones experimentales debidamente controladas y que se han vuelto parte importante del negocio de las terapias alternativas y los suplementos alimenticios inútiles.

Linus Carl Pauling nació en Portland, Oregon, el 28 de febrero de 1901, hijo de una familia con raíces alemanas, escocesas e inglesas. Buen estudiante, aprovechó el sistema de educación pública de los Estados Unidos, se enamoró de la química a los 14 años y sólo dos después ingresaba a lo que hoy es la Universidad Estatal de Oregon deseando convertirse en ingeniero químico.

Se cuenta que, para entonces, sabía tanto de química como algunos de sus profesores, de modo que muy pronto empezó a ocuparse de tareas de enseñanza. No había cumplido aún 21 años y ya estaba contratado como profesor, aunque no fue sino hasta los 22 que se recibió como ingeniero químico. Pero para entonces estaba más interesado en descubrir los principios de la química, que era aún en gran medida territorio virgen, que en aplicarlos. Pasó al Caltech donde obtuvo su doctorado en 1924 trabajando en un tema fundamental de la química: la forma en que los átomos se unen para formar moléculas, los llamados “enlaces químicos”.

Para estudiarlos, Pauling se especializó en el uso de la cristalografía de rayos X, una técnica que mide la difracción de los rayos X al pasar por una sustancia y permite determinar el tamaño y disposición de los átomos en las moléculas. La misma técnica que permitiría a Rosalind Franklin hacer las fotografías que permitieron a Crick y Watson determinar la forma de doble hélice del ADN.

A continuación, pasó una temporada en Europa donde se familiarizó con la emergente física cuántica, que le permitió desentrañar lo que sería el título del libro que le daría un lugar en la historia de la química: “La naturaleza del enlace químico y la estructura de las moléculas y los cristales”.

Apenas tenía 38 años y ya era catedrático, jefe de la división de química de Caltech y era el científico más joven electo a la Academia Nacional de Ciencias. Y además se había dado tiempo para ser padre de cuatro hijos.

Pero Pauling deseaba saber más sobre cómo se comportaban los átomos y las moléculas. Empezó a trabajar con moléculas orgánicas, pero también con metales, buscando respuestas a la teoría del ferromagnetismo o por qué existe la atracción magnética, la forma de las moléculas de los gases, la estructura de las proteínas, la de los anticuerpos, las propiedades de la hemoglobina, la teoría molecular de la anestesia y otros muchos temas que plasmó en más de mil publicaciones, entre artículos y libros.

Pauling pasaría por un proceso que afectó a muchos científicos de su generación. Después de participar en el esfuerzo de guerra contra el nazismo (no fue parte del Proyecto Manhattan para evitar trasladar a su familia a una nueva residencia), las bombas atómicas de Hiroshima y Nagasaki lo llevaron a asumir una posición pacifista y, especialmente, contraria al armamento nuclear, labor en la que militaría el resto de su vida.

Incluso se cuenta que en alguna ocasión, invitado a cenar con el Presidente Kennedy, pasó la tarde manifestándose ante la Casa Blanca con una pancarta en contra de la proliferación nuclear, para luego cambiarse a una indumentaria más formal y cenar en la propia Casa Blanca.

Así, si en 1954 había recibido el Nobel de Química por su aportación a la comprensión de los enlaces químicos, en 1962 recibió el de la Paz por su lucha contra las pruebas nucleares atmosféricas. Era la primera persona que ganaba un segundo Nobel después de Marie Curie.

Su éxito en la comprensión de las bases moleculares de la anemia falciforme le llevó a tratar de encontrar respuestas sencillas a problemas complejos de salud, hasta que llegó a convencerse, sin una base sólida, de que las enfermedades psiquiátricas se debían a deficiencias de vitaminas y otros micronutrientes, y que podrían prevenirse e incluso curarse si se consumían esas moléculas en las cantidades correctas. Dio a su hipótesis el nombre de “medicina ortomolecular” (del griego “orthos”, correcto, es decir, las moléculas en la cantidad correcta).

El concepto se ampliaría después a todas las enfermedades, fundando la que se convertiría en una lucrativa pseudomedicina, cuya expresión más conocida es la convicción de Pauling de que las dosis masivas de vitamina C podían prevenir e incluso curar la gripe y otras afecciones. Pese a numerosos estudios que han demostrado que su especulación carecía de bases, la percepción popular sigue siendo que el consumo de vitamina C, como suplemento o en frutas como los cítricos, tiene algún valor antigripal.

Poco después, amplió su afirmación indicando que la vitamina C podía aumentar la supervivencia de pacientes de cáncer. De nuevo, numerosos estudios han sido incapaces de demostrar que esta idea tuviera alguna base en la realidad. En un giro final hacia la pseudociencia, Pauling se negó a aceptar los resultados de un colaborador de su propio instituto que indicaban que las dietas ortomoleculares no tenían efecto en ratones con cáncer.

Cuando Linus Pauling murió en 1994, dejó una imagen dividida. Su brillantez como químico, su compromiso con la paz y sus creencias irracionales respecto de la salud obligan a verlo en toda la complejidad y contradicciones de quien, siendo un genio más allá de toda duda, era también presa fácil de sus creencias.

Un legado peligroso

Un antiguo asociado de Pauling, Matthias Rath, se ha dedicado a utilizar el nombre e ideas del químico para asegurar que el SIDA y el cáncer pueden curarse con complementos vitamínicos que comercializa su propia empresa. Numerosos estudios han señalado que estas afirmaciones carecen de validea, y para muchos sus campañas contra los antirretrovirales, principalmente en África, han sido un obstáculo para el control de la pandemia.

agosto 29, 2014

Procesadores vivientes de alimentos

Quizás no suene muy atractivo a primera vista, pero algunos de nuestros más apreciados alimentos son como son gracias a que en su procesamiento han sido ya digeridos por otros seres vivos.

"Los comedores de ricotta", de Vincenzo Campi,
siglo XVI (Imagen DP vía Wikimedia Commons)
Algunos alimentos fundamentales no habrían existido a no ser porque algunos cultivos son sometidos a la acción de seres vivos que los alteran y los convierten en alimentos más sabrosos, más nutritivos, más duraderos o incluso más sanos.

Un ejemplo que gustan de citar los historiadores es el de la cerveza.

Esta popular bebida apareció en los inicios de la agricultura de cereales, hace alrededor de 10.000 años. Aunque es imposible conocer cómo se dieron los acontecimientos, es razonable imaginar algo de cereal, o quizá un poco de pan, que por algún descuido o accidente hubieran quedado algunos días en agua, sufrieron fermentación, y algún agricultor neolítico tuvo la osadía, el descuido o la urgencia de beberla. Su sabor era distinto, agradable, y tenía algo diferente que lo achispaba a uno un poco. Era cerveza.

La palabra clave es “fermentación”. Los antiguos babilonios no sabían cómo funcionaba o qué era lo que la provocaba, pero lograron controlarla a voluntad: molían cereales, los calentaban en agua, los horneaban y los volvían a meter en agua, y mágicamente tenían cerveza. Por fortuna. En muchas de las civilizaciones subsiguientes, incluyendo el prolongado imperio egipcio y hasta hace muy poco tiempo, tuvieron cerveza. El agua solía estar contaminada y causar graves malestares, de modo que era preferible beber cerveza, cosa que hacían todos, de niños a ancianos, hombres y mujeres. Salvo en las culturas donde dominaba el vino, mosto igualmente fermentado.

Pasteur descubrió, a partir de la década de 1850, que esa transformación que parecía mágica no ocurría, como se creía hasta entonces, espontáneamente, sino que era producto de la actividad de seres vivos: bacterias y hongos. Ello le permitió, en una de las acciones que más fama le dio en Francia, explicar la degradación de los vinos franceses a causa de bacterias ácidas y proponer formas de evitarlo, salvando a la industria vinícola de su país.

Un ser viviente benéfico, la levadura, un hongo, evitaba así que otros seres vivientes dañinos atacaran a los seres humanos.

La fermentación es un proceso metabólico, es decir, digestivo, mediante el cual un organismo convierte un carbohidrato, por ejemplo almidones o azúcares, en un alcohol o en un ácido. Las levaduras, al fermentar o digerir los carbohidratos de la uva, la manzana, los cereales y otros alimentos los convierten en alcohol y en el proceso obtienen la energía que necesitan para vivir. Después, incluso, podemos utilizar bacterias ácidas para que fermenten nuevamente el alcohol, convirtiéndolo en ácido acético o vinagre y, también, alimentándose en el proceso.

El queso añejado o madurado es otro producto de la acción de distintos seres vivos. Mientras que el queso fresco se obtiene simplemente separando los sólidos de la leche (grasas y parte de la proteína) de sus componentes líquidos (el suero, formado de proteína y agua), muchos quesos son procesados con cepas específicas de bacterias para conseguir una asombrosa variedad de sabores.

El queso Emmental, por ejemplo, utiliza a lo largo de su añejamiento tres tipos distintos de bacterias. Las dos primeras convierten el azúcar propia de la leche, la lactosa, en ácido láctico, y la tercera consume ese ácido láctico y libera dióxido de carbono, un gas que forma las burbujas que le dan su característico aspecto con agujeros u “ojos” a éste y otros quesos.

Los quesos azules y otros como el brie o el camembert utilizan distintas variedades de bacterias y de hongos penicillium, los mismos que dieron origen a la penicilina, el primer antibiótico eficaz. El penicillium es el responsable tanto de las vetas azul verdosas de algunos quesos como de la costra blanca aterciopelada del brie y el camembert.

La conversión de la lactosa en ácido láctico en los quesos añejos permite además que sean consumidos por personas que sufren de intolerancia a la lactosa. De hecho, hay estudiosos que han sugerido que el queso se difundió precisamente porque permitía que más personas pudieran consumir lácteos sin problemas. Es, por supuesto, sólo una hipótesis.

Uno de los alimentos más apreciados en décadas recientes es el yogur en distintas formas. Sin embargo, hasta la década de 1940-50, la gente que quería yogur tenía que producirlo ella misma, consiguiendo que otro entusiasta le diera parte de un cultivo de lactobacilos entonces conocidos como “búlgaros” por haber sido descubiertos por un doctor búlgaro, Stamen Grigorov. Hoy, su producción industrial ha eliminado prácticamente la necesidad de hacerlo en casa.

El yogur se hace sometiendo la leche a fermentación por dos bacterias, una de ellas degrada las proteínas de la leche para convertirlas en aminoácidos y la otra usa esos aminoácidos. Ambas convierten la lactosa de la leche en ácido láctico, dándole al yogur su acidez y textura habituales.

Hemos dejado para el final el alimento por excelencia, el pan, que en muy distintas formas y a partir de muy diversos granos, se hornea en todo el mundo. El pan y sus primos lujosos, toda la repostería, dependen de la levadura para ser el símbolo de la alimentación que son. La levadura hace que el pan “suba” por el mismo procedimiento por el que produce los “ojos” en quesos como el emmental, emitiendo dióxido de carbono al consumir parte de los carbohidratos del pan y fermentarlos. Esas burbujas son las que forman lo que los expertos en pan llaman “alvéolos”, que hacen que el resultado sea esponjoso y atractivo a nuestro tacto, además de fácil de masticar y sabroso. La fermentación, además, colabora a darle al pan su sabor característico y fortalece el gluten, esa proteína que le da consistencia al pan y que es un excelente alimento salvo para quienes sufren de intolerancia al gluten o de celiaquía, una enfermedad autoinmune.

Sin estos procesadores de alimentos, quizá, sólo quizá, la civilización humana no se habría desarrollado o, muy probablemente, habría tomado otros derroteros, que nos pueden parecer poco atractivos si dieran como resultado un mundo sin cerveza, queso y pan.

El café más caro del mundo

Levaduras y bacterias son microorganismos unicelulares y por tanto comer alimentos que ya digirieron estos seres puede no provocarnos rechazo. Muy distinto es el caso del “kopi luwak” o café de civeta. Se trata de un café que se hace con bayas de café que han sido comidas y defecadas por civetas de las palmeras, un mamífero común en Asia. Aunque los expertos en café no lo consideran especialmente bueno, es el café más caro del mundo, y las bayas recolectadas de los excrementos de las civetas pueden llegar a costar 550€ el kilo.

La familia de los elementos desusados

De los 92 elementos naturales que existen, algunos nos resultan tremendamente familiares, como el hierro, el carbono o el hidrógeno. Pero hay una familia casi desconocida que vive con nosotros sin que sepamos apenas su nombre.

Los colores fluorescentes bajo luz ultravioleta de los billetes
de la moneda europea se deben a la presencia de los
lantanoides europio e itrio. (Imagen D.P. Banco
Europeo vía Wikimedia Commons)
Si queremos pensar en un elemento que sea líquido a temperatura ambiente, prácticamente todos nosotros vamos a pensar en el mercurio.

Pero hay otro elemento líquido a temperatura ambiente, el bromo, y cuatro metales que, si la temperatura ambiente es superior a los 25 ºC, también son líquidos: el galio, el cesio, el francio y el rubidio. Y todos ellos, salvo el francio, que tiene pocas aplicaciones prácticas, son esenciales para el mundo tecnológico e industrial.

Más allá hay otro grupo de elementos aún más desconocidos. Si vemos una tabla periódica de los elementos, que los ordena según su número atómico (el número de protones que tiene en su núcleo) y según sus propiedades químicas, uno de los aspectos más peculiares es que muestra, debajo del cuerpo de la tabla, dos filas desprendidas, como si se hubieran caído de la tabla.

La primera incluye a los elementos que tienen los números atómicos del 57 al 70 y se les conoce colectivamente, en ocasiones junto con los de los números 21, 39 y 71, como “lantánidos”, antiguamente “tierras raras” aunque los organismos internacionales recomiendan lantanoides. La segunda fila, también de 14 elementos, está formada por los que tienen los números atómicos del 89 al 102, son todos radiactivos y se les conoce como “actínidos”. A partir del elemento número 93, son todos artificiales, es decir, no existen en la naturaleza, sino que han sido creados por el ser humano. Hasta hoy, el ser humano ha creado hasta el elemento número 118.

¿Lantanoides?

¿Por qué están separados los lantánidos de los demás elementos? Desde el punto de vista químico son elementos que comparten ciertas características. Son metales de aspecto plateado que se oxidan al verse expuestos al aire y son relativamente suaves, con los de mayor peso atómico un poco más duros. requieren de altas temperaturas para fundirse y para entrar en ebullición y son altamente reactivos, sobre todo con elementos no metálicos, lo que quiere decir que requieren poca o ninguna energía para formar compuestos. Se disuelven rápidamente al contacto con ácidos y se queman fácilmente a temperaturas de entre 150 y 200 ºC, además de otras propiedades químicas comunes. Varios de ellos son potentemente fluorescentes, es decir, al recibir energía emiten luz en un color determinado.

Hasta fines del siglo XVIII, los seres humanos no tenían noticia de la existencia de esta serie de elementos. Fue en 1787 cuando el oficial del ejército sueco Carl Axel Arrhenius descubrió un peculiar mineral en una cantera cercana al pueblo de Ytterby, cerca de Estocolmo. A partir de ese mineral, en 1794, el químico finlandés Johan Gadolin describió el itrio. Durante algo más de un siglo se irían identificando los demás miembros de esta familia presentes en la naturaleza, siendo el último el lutecio en 1907. Aislarlos y describirlos fue difícil precisamente por la similitud química que los caracteriza... a lo largo de los años, ocurrió varias veces que un investigador creyera que había encontrado un nuevo elemento cuando estaba ante una combinación de dos o tres lantanoides.

Estos elementos fueron llamados “tierras raras” porque es muy difícil encontrarlos en forma pura, pero los minerales que los contienen están presentes por todo el planeta. Y ciertamente no son “tierras”, una denominación antigua para cualquier cosa que se pueda disolver en ácido.

Podemos encontrar a estos elementos en lámparas y láseres, magnetos, proyectores de cine y pantallas intensificadoras de rayos X (que permiten hacer radiografías con menos exposición a la radiación que en el pasado), en aleaciones de acero y en muchas otras aplicaciones que están, con frecuencia, en nuestras propias casas.

Como ejemplo, las propiedades de fluorescencia de algunos lantanoides se han utilizado para efectos de seguridad. Ponga usted un billete de 50 euros bajo luz ultravioleta, como el de un detector de billetes falsos, y verá aparecer líneas azules y verdes, y las estrellas europeas en verde y anaranjado... estas últimas contienen europio. Si su billete no tiene estas marcas fluorescentes, es falso.

La fluorescencia verde del terbio está en la pantalla de su ordenador o televisor, es el elemento responsable de los puntos verdes, mientras que el rojo es resultado de la combinación de europio e itrio (los colores de las pantallas se obtienen dándole distintas luminosidades a grupos de tres puntos: rojo, azul y verde; el blanco son los tres funcionando a plena luminosidad).

El erbio, por su parte, emite luz con una potencia por debajo de la que es visible para nosotros, en el infrarrojo, pero puede enviar señales reconocibles a largas distancias, de modo que los tendidos de fibra óptica en todo el mundo utilizan amplificadores de señal de erbio situados cada tantos kilómetros para asegurar una transmisión sin errores.

Y, si uno está consciente de la necesidad de reducir la contaminación que arrojamos al medio, los lantanoides son fundamentales, ya que sin ellos no existirían los convertidores catalíticos que limpian el escape de nuestros vehículos de motor.

Descubrimientos relativamente recientes sobre las propiedades de los lantanoides han dado como resultado, desde 1982, el desarrollo de imanes potentísimos hechos con los elementos escandio y, sobre todo, en compuestos neodimio que forman los imanes más potentes y, por tanto, han permitido que se produzcan motores eléctricos potentes en tamaños reducidos (como los de las herramientas eléctricas de mano o los de las unidades de disco duro de almacenamiento informático) o generadores mucho más eficientes como los de las turbinas eólicas que están colaborando al establecimiento de una base creciente de fuentes de energía renovables y más limpias.

Ni tierras, ni raras, pero los lantanoides siguen siendo unos desconocidos de nombres aparentemente caprichosos aunque sin ellos probablemente usted no podría haber leído estas páginas.

La guerra de las tierras raras

China tiene algunos de los más importantes depósitos de tierras raras en Mongolia Interior, y los explota muchas veces sin las medidas adecuadas de seguridad, ya que los minerales lantanoides suelen estar acompañados de otros elementos radiactivos y purificarlos puede también ser un proceso altamente contaminante. China ha amenazado con cortar el suministro de tierras raras como forma de obligar a las empresas tecnológicas a mudarse a su país, con sus empleos. Sin embargo, recientes descubrimientos de lodos ricos en tierras raras en Japón podrían alterar la economía de estos elementos.

agosto 27, 2014

La cambiante temperatura de la Tierra

La temperatura en un lugar determinado de nuestro planeta, o en todo él, depende de una enorme diversidad de factores, e incluso podría ser que aún no los conozcamos todos.

Mapa de temperaturas medias anuales entre 1961 y 1990 en
todo el mundo. (Imagen GFDL de Robert A. Rhode,
via Wikimedia Commons) 
El tiempo es el gran iniciador de conversaciones. Quejarse de él permite iniciar una relación con un desconocido en el ascensor, en el bar, en el taxi, en la disco...

El tiempo nos preocupa porque nuestra vida depende de él. Nuestras cosechas pueden perderse si hay variaciones inesperadas e incluso nosotros mismos sólo podemos sobrevivir en un rango de temperaturas muy estrecho, y al estar fuera de él requerimos protección o morimos. Ello explica también por qué somos especialmente sensibles a los cambios de temperatura: es una alarma de peligro de vida o muerte. De hecho ni siquiera habríamos podido sobrevivir con las temperaturas que dominaron la mayor parte de la larga historia de nuestro planeta.

El factor que nos parece más determinante para la temperatura en cualquier lugar de nuestro planeta es la luz del sol: mientras más perpendicular es respecto de un punto determinado, más energía le aporta y más caluroso será el tiempo, como ocurre en verano y, a la inversa, mientras mayor es el ángulo al que la luz solar entra en la atmósfera y llega a la tierra, menos energía recibe ese punto y su temperatura baja.

La irradiación solar es en realidad sólo uno de muchos factores que se interrelacionan en el complejo sistema que es nuestro planeta. La composición de nuestra atmósfera, así como su presión, por poner un ejemplo, es también un elemento clave, ya que determina cuánta energía es capturada por el aire a nuestro alrededor, cuánto se refleja y cuánto calor se puede dispersar.
La historia de nuestro planeta comienza como una enorme masa de lava ardiente que se formó de polvo estelar hace unos 4.500 millones de años y pasó los siguientes 700 millones enfriándose y formando una corteza y una atmósfera. Hace 2.500 millones de años, los primeros seres vivos, las cianobacterias, empezaron a emitir oxígeno a la atmósfera como subproducto de su metabolismo... un elemento que antes estaba sólo presente en forma de compuestos diversos.

El oxígeno ayudó a reducir la temperatura de nuestro planeta hasta que, hace unos 500 millones de años, alcanzó una temperatura media de unos 22 grados centígrados. Esto, que parece cómodo, es tremendamente cálido, una temperatura 8 grados superior a la que los geólogos y climatólogos suelen usar como punto de referencia: el promedio de temperaturas en todo el planeta entre 1961 y 1990, alrededor de 14 oC. Esta media, claro, incluye desde los extremos por encima de los 40 grados en lugares como Etiopía hasta los que están por debajo de los -46 grados centígrados en los asentamientos más al norte de Rusia o Canadá.

Estas temperaturas, que conocemos sólo mediante mediciones indirectas y cálculos razonablemente fiables pero no absolutamente certeros, aumentaron hace entre 250 y 55 millones de años hasta un máximo de 6 grados por encima del punto de referencia. Este aumento se vio interrumpido por un súbito enfriamiento que coincidió con la extinción de los dinosaurios hace 66 millones de años.

A partir de ese momento, las temperaturas disminuyeron hasta llegar a una “era de hielo” que comenzó hace 35 millones de años, hasta que hace unos 3 millones de años alcanzaron un valor cercano al de la media de 14 oC y la tendencia continuó durante los siguientes dos y medio millones de años.

De las glaciaciones al calentamiento global

En el último tercio de su historia, la Tierra ha pasado por varios períodos glaciales, en los cuales las temperaturas de los polos son muy bajas, y tienen una gran diferencia respecto de las que se experimentan en las zonas ecuatoriales. Grandes glaciares avanzan desde los polos cubriendo enormes extensiones de tierra y mar.

Este fenómeno ha ocurrido aproximadamente cada 200 millones de años, y cada una de las eras glaciales o eras del hielo ha tenido una duración de millones de años. Dado que técnicamente una era de hielo es cualquiera donde haya glaciares en los polos, estamos en la más reciente de ellas. Pero dentro de ella hay glaciaciones y períodos más cálidos regidos, hasta donde tenemos información, aunque hay ciertas discrepancias, por los ciclos que descubrió el geofísico serbio Milutin Milankovitch y que relacionan las variaciones de la temperatura con la posición de la Tierra: la precesión de su órbita y la excentricidad e inclinación de su eje. La más reciente era glacial ocurrió hace entre 110.000 y 12.000 años, es decir, la experimentaron y vivieron los seres humanos modernos. A lo largo de ella, hubo distintos períodos de avance y retroceso de los glaciares en distintos puntos del planeta

La temperatura del planeta sólo empezó a registrarse de modo preciso y directo a partir de 1850, gracias a termómetros precisos y fiables, y a la aparición de oficinas meteorológicas nacionales por todo el mundo, usando como modelo la británica, establecida en 1854.

Gracias a este registro, además de los estudios indirectos como el análisis de la atmósfera del pasado conservada en glaciares muy antiguos, y que se pueden estudiar tomando muestras profundas del hielo, hemos podido determinar que uno de los factores determinantes de la temperatura es la concentración de bióxico de carbono (CO2) en la atmósfera. Mientras más CO2 hay, mayor es la temperatura.

Ésta es una de las bases más sólidas para que la mayoría de los especialistas concluyan que el aumento de un grado centígrado en la temperatura media del planeta registrado desde 1900 se debe en gran medida a la emisión de CO2 producto de actividades humanas, principalmente la quema de combustibles fósiles.

El futuro de la temperatura de nuestro planeta es, sin embargo, difícil de prever aún si los seres humanos controlamos nuestra emisión de gases como el bióxido de carbono a la atmósfera. Nada garantiza que consigamos tener una temperatura ideal para el futuro, porque nuestro planeta es un sistema dinámico, siempre cambiante, en el que juegan muchos elementos conocidos y otros que aún no hemos podido identificar.

Lo único seguro es que seguiremos teniendo la oportunidad de hablar del tiempo y quejarnos de él para conocer nuevas personas.

El tiempo y el clima

Solemos escuchar que el calentamiento global se ve confirmado o denegado por una ola desusada de frío o de calor. Pero el tiempo, que es nuestra experiencia inmediata, es sólo lo que pasa en la atmósfera en un momento dado donde estamos, nada más. El clima es la media de todos los aspectos en todo el mundo y durante mucho tiempo. Por eso, la temperatura media del planeta puede aumentar medio grado en un año aunque en nuestra ciudad hayamos tenido más frío que nunca. Ese frío es sólo nuestra aportación a la media.

agosto 24, 2014

El ébola y otras amenazas latentes

Hay virus que apenas empezamos a conocer y cuyos efectos cuando infectan seres humanos parecen a veces producto de la imaginación de un escritor de terror.

Fotografía comunitaria de la aldea de Yambuku, Zaire, en
1976, cuando los equipos internacionales llegaron a combatir
el primer brote de ébola registrado. (Foto D.P. CDC, vía
Wikimedia Commons)
El 1º de septiembre de 1976, un hombre se presentó en el hospital de la misión de Yambuku, una pequeña aldea de la República Democrática del Congo situada junto al río Ébola. Los síntomas que presentaba sugerían que padecía malaria, una enfermedad común en el país centroafricano, con más de 100 mil casos cada año.

El personal del hospital, encabezado por monjas belgas, le puso una inyección de cloroquina, tratamiento habitual en estos casos. La fiebre cedió sólo para volver acompañada de fiebre y sangrado gastrointestinal, y el hombre murió el 8 de septiembre. Seguirían semanas de terror en Yambuku con una epidemia desconocida para la medicina.

Debido a las limitaciones económicas del hospital, relata un informe de la OMS, se daban a las enfermeras cada día cinco jeringuillas y cinco agujas que ni siquiera se podían esterilizar entre pacientes, sino que simplemente se enjuagaban después de un paciente para inyectar a otro. Varias personas que recibieron inyecciones desarrollaron síntomas similares en los días siguientes... y también fallecieron.

La enfermedad era un misterio. Sus primeros síntomas eran fiebre, debilidad extrema, dolores musculares, de cabeza y de garganta. Después se presentaban insuficiencias de los riñones y del corazón y, en algunos casos, sangrado interno y externo

Cuatro semanas después, el hospital cerró. Además de la muerte de numerosos pacientes, 11 de los 17 miembros del personal del hospital también habían fallecido de la misteriosa enfermedad. El 3 de octubre, el Ministerio de Salud de la República Democrática del Congo puso en cuarentena toda la zona de Bumba alrededor del hospital. Al detenerse las inyecciones, que habían sido la principal fuente de transmisión de la enfermedad, y aislando a las víctimas en los pueblos cercanos, la epidemia terminó el 24 de octubre. En menos de dos meses, 318 personas habían sido infectadas y sólo 38 habían sobrevivido, una alarmante tasa de muerte del 88% de los pacientes.

Al mismo tiempo, en Nzra, Sudán, otra epidemia similar venía desarrollándose más lentamente desde el 27 de junio, cuando un trabajador de una fábrica de ropa enfermó y murió nueve días después. A partir de entonces, y hasta noviembre, en la zona hubo 284 casos de la enfermedad, de los que fallecieron 156.

Los virus emergentes

Poco después se identificó a los responsables de la enfermedad, dos virus estrechamente emparentados a los que se les dio el nombre de “ebolavirus” virus del ébola, por el río que corre junto a Yambuku. El del Congo se llamó “ebolavirus Zaire” (Zaire era el nombre que entonces tenía la RDC) y el otro “ebolavirus Sudán”, o EBZ y EBS. Se trata de organismos pertenecientes a la familia “Filoviridae”, que significa “virus similares a hebras de hilo”.

El virus del ébola está estrechamente emparentado con el virus de Marburgo, que también es capaz de ocasionar estas enfermedades de fiebre hemorrágica, y que se identificó en 1967 por epidemias que se desarrollaron en Marburgo y Frankfurt, Alemania y en Belgrado, en la antigua Yugoslavia, que partieron de monos infectados que se habían importado de Uganda. 31 personas enfermaron y 7 de ellas murieron.

El depósito natural de estos virus son diversos animales, principalmente murciélagos, de los que puede pasar a los seres humanos. Entonces, la infección se extiende por contacto con los fluidos corporales de las personas infectadas: sangre, saliva, semen, etc.

Otra familia, los arenavirus, son responsables también de afecciones similares de fiebre hemorrágica, más comunes y menos mortales, como el virus de Lassa y el recientemente identificado virus de Lujo, además del LCMV, que causa meningitis. Estos tres virus infectan a roedores, de los que pasan al ser humano.

Y hay muchos otros virus poco frecuentes que pueden ocasionar fiebres hemorrágicas y afecciones igual de aterradoras con altas tasas de víctimas. Según los Centers for Disease Control, (Centros para el Control de Enfermedades, CDC) del gobierno estadounidense, el número de virus causantes de enfermedades está en aumento y esperan que la tendencia continúe conforme se describen nuevos virus procedentes principalmente de África, Asia y el continente americano.

Un problema adicional de estas enfermedades, inquietantes si bien poco frecuentes en general, es que los virus no se comportan siempre del mismo modo. Aparecen de modo impredecible en zonas nuevas, en muchas ocasiones como resultado del incremento de movilidad humana. Como ejemplos están los brotes del virus de fiebre hemorrágica de Crimea y el Congo, transmitido por garrapatas, en Oriente Medio, o la aparición del ebolavirus Reston, una mutación del virus del ébola que no se contagia a humanos, en monos usados para la investigación en Texas.

El que la descripción de estos virus sea reciente no debe confundirse con que se trate de enfermedades que no existían antes. En muchos casos son afecciones de las que hay vagos registros históricos, pero que sólo ahora han sido estudiadas científicamente.

Muchas de estas infecciones de las que ahora estamos muy conscientes son “zoonóticas”, es decir, que han pasado de distintos animales al ser humano. Según explica la Organización Mundial de la Salud, la aparición de estas infecciones zoonóticas pueden tener muchas causas: cambios en el medio ambiente, cambios en las poblaciones humanas y animales, cambios en las prácticas agrícolas y factores como los hábitos alimenticios y las creencias religiosas.

Lo más aterrador de éstas y otras infecciones virales es sin duda que no existen tratamientos contra ellas. La lucha contra los virus no tiene un arma como los antibióticos utilizados para infecciones bacterianas y su estudio se complica cuando son enormemente contagiosos y mortales. Es apenas en 2014 cuando hay noticias de los primeros medicamentos antivirales que han demostrado tener efectividad contra el ébola y que podrían ser el punto de partida para la esperanza de enfrentar también otras infecciones temibles.

Los niveles de la OMS

La Organización Mundial de la Salud tiene 4 grupos de riesgo para clasificar agentes infecciosos. 1: microorganismos que raramente o nunca pueden enfermar al ser humano. 2: los que pueden causar enfermedades y son poco contagiosos. 3: patógenos que pueden causar enfermedades graves y tampoco se contagian fácilmente. 4: agentes virales que causan enfermedades graves, son altamente contagiosos y para ellos, a diferencia de los de los grupos 2 y 3, no hay apenas medidas preventivas ni tratamientos efectivos. Las familias de virus causantes de fiebres hemorrágicas se clasifican en el grupo 4.

agosto 23, 2014

Caroline Herschel y sus cometas

La mujer que se puede considerar la primera científica profesional podía haber pasado sus días como una simple sirvienta en Hanover.

Caroline Herschel con su cometa.
(Imagen D.P. vía Wikimedia Commons) 
El destino de la mujer alemana en el siglo XVIII (y, para el caso, en prácticamente todo el mundo) era el matrimonio, con apenas el atenuante de que, a diferencia de lo ocurrido en el siglo anterior, podía opinar acerca de su futuro marido y no era siempre objeto de matrimonios convenidos por sus padres sin más.

Las mujeres empezaban a tener la posibilidad de ganarse la vida no sólo como criadas o prostitutas. El arte, la literatura, la costura, la enfermería y la industria textil eran espacios donde podían gozar de cierta independencia. Y las convulsiones de la ilustración que marcaría la segunda mitad del siglo traerían cambios irreversibles.

Caroline Lucrecia Herschel, nacida al mediar el siglo, el 16 de marzo de 1750 en Hanover, no tenía perspectivas demasiado halagüeñas. Como parte de la clase trabajadora, hija de un jardinero y músico y su tradicionalista mujer, había sufrido una infancia de enfermedades. La viruela le había dejado cicatrices en las mejillas y una leve deformación en un ojo, y también había padecido de tifus a los 10 años, por lo que su estatura nunca superó 1,30 metros. Sus posibilidades de casarse eran, pues, escasas. Su suerte tomó primero la forma de su padre, empeñado en darle a sus hijos una educación amplia. Eran cuatro varones y seis mujeres, y la educación de estas últimas enfrentó la oposición de su madre, tradicionalista y adusta, y que en el caso de Caroline, consideró más práctico convertirla en su criada, mientras Isaac, el padre, la educaba casi a escondidas.

El destino que parecía esperarle cambió cuando su hermano William decidió llevarla consigo a Bath, Inglaterra, donde tenía una buena posición como organista y director de orquesta. La llevó, sí, como sirvienta, pero además le enseñó inglés, matemáticas y música. Caroline pronto se reveló como una soprano de gran calidad que realizó un buen número de presentaciones ante el público, con su hermano como director de orquesta.

William Herschel era mucho más que músico, siguiendo los variados intereses de su padre que había experimentado una gran fascinación por el cielo. Cada vez fue interesándose más en la astronomía y Caroline empezó el camino de la ciencia con él, como su asistente, puliendo los espejos con los que su hermano construiría su primer telescopio. William descubrió el planeta Urano en 1871 y pronto fue nombrado caballero del reino y astrónomo real por el rey Jorge III.

Dedicado totalmente a la astronomía, William empezó una serie de observaciones de todo el cielo a través de su telescopio, que registraba cuidadosamente Caroline para después llevar a cabo los cálculos matemáticos que convertían las observaciones en datos precisos. Esas observaciones dieron como fruto el descubrimiento de más de 2.500 nebulosas (que hoy sabemos que son otras galaxias) y grupos de estrellas.

Caroline también empezó a hacer sus propias observaciones astronómicas con un telescopio que le regaló su hermano y el 26 de febrero de 1783 hizo su primer descubrimiento astronómico: un grupo de estrellas que hoy se conoce como NGC 2360. A ese acontecimiento seguiría el descubrimiento de 14 nuevas nebulosas.

El cometa de la primera dama

Sólo tres años después, ya como astrónoma por derecho propio identificó un objeto que se movía lentamente por el cielo. Era el 1º de agosto de 1786 y Caroline informó a otros astrónomos para que observaran el objeto que ella había hallado, un cometa... el primero descubierto por una mujer, denominado C/1786 P1 o, más poéticamente, “el cometa de la primera dama”. Poco después también descubriría otra nebulosa, NGC 205, galaxia compañera de nuestra más cercana vecina cósmica, la galaxia de Andrómeda.

Sus logros no pasaron desapercibidos y al año siguiente, 1787, el rey Jorge III empleó formalmente a Caroline como asistente de su hermano, un hecho que la convirtió en la primera mujer que recibió un pago por prestar servicios de carácter científico. Su asignación anual, sin embargo, era de 50 libras, la cuarta parte de las 200 que recibía su hermano.

Dependiente de William pese a todo, Caroline encontró su libertad científica finalmente cuando su hermano se casó en 1788 y su esposa se hizo cargo de las obligaciones de la casa, permitiéndole a la astrónoma dedicar más tiempo a sus observaciones y cálculos. En los siguientes años, Caroline Herschel descubriría otros siete cometas, el último en 1797. No sería sino hasta 1980 cuando otra mujer lograría romper su récord de descubrimientos: Carolyn Shoemaker, que ha descubierto la impresionante cantidad de 32 cometas, además de unos 800 asteroides, más que ningún otro ser humano, hombre o mujer.

Entre 1786 y 1797 se ocupó de hacer un nuevo catálogo de estrellas revisando, corrigiendo y adicionando con sus observaciones y las de su hermano, el que había desarrollado John Flamsteed, revisando las posiciones de las estrellas conocidas y agregando la de otros 650 astros. El catálogo sería publicado por la Royal Society en 1798.

Además de su trabajo personal, Caroline Herschel jugó un papel fundamental en la educación de su sobrino John, el hijo de William Herschel. Impulsó su curiosidad, influyó para que estudiara en Cambridge y trabajó con él al final de su vida como asociada en investigación.

Al morir su hermano en 1822. Caroline volvió a Hanover a vivir con su hermano menor y continuar su trabajo en el catálogo de todos los hallazgos que habían realizado ella y William, la abrumadora cantidad de 2500 nebulosas, que finalmente envió en 1828 a la Royal Astronomical Society. Esta sociedad científica, que había tenido una relación estrecha con Caroline durante años, tomó entonces la decisión sin precedentes de concederle su medalla de oro y hacerla miembro honorario de la organización. En 1838 también fue elegida miembro de la Real Academia Irlandesa y en 1846 el entonces rey de Prusia, Federico Guillermo IV, le otorgó la Medalla de Oro de la Ciencia.

Caroline Herschel murió el 9 de enero de 1848, poco antes de cumplir 98 años. Su epitafio, escrito por ella misma, dice “Los ojos de ella quien es glorificada aquí abajo se dirigieron a los cielos pletóricos de estrellas”. Y al dirigirlos a las alturas se convirtió en la científica más importante desde Hipatia de Alejandría, abriendo el camino a muchas otras astrónomas, astrofísicas y cosmólogas.

La fama y el baile

En los últimos años de su vida, Caroline Herschel fue una celebridad cuya compañía buscaban científicos y personajes de la élite europea, y disfrutaba la fama. Su sobrino, John, recordaba que a los 83 años recorría alegremente con él la ciudad y, por las noches, cantaba rimas antiguas y bailaba, una mujer feliz.