Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

abril 18, 2014

La pandemia de gripe de 1918, lecciones y temores

La gripe suele ser una molestia anual que pagamos como impuesto inevitable. Pero de cuando en cuando se puede convertir en uno de los peores genocidas que hemos conocido.

Hospital improvisado en Camp Funston, Kansas.
(Foto D.P. vía Wikimedia Commons)
En 1997, en Hong Kong, 18 personas sufrieron una infección de gripe y seis de ellas murieron.

Este acontecimiento disparó las alarmas epidemiológicas en todo el mundo. Lo especial de este caso no era la infección de gripe, ni que causara algunas muertes, sino que se trataba de un virus de la gripe que nunca antes, hasta donde sabemos, había infectado a seres humanos.

La denominación científica del virus es H5N1. Su nombre popular, gripe aviar, surgió porque el virus se había identificado en 1996 en gansos de la provincia de Guangdong, en China. Detectado en granjas avícolas y en mercados de animales vivos en Hong Kong, el virus de pronto dio el poco frecuente salto de las aves a los seres humanos causando la muerte del 33% de los afectados.

En 2003, el virus volvió a hacer su aparición en China y en la República de Corea, y en 2004 se detectó en Vietnam, Tailandia y Japón, provocando varias muertes. Un año después llegaba a Indonesia. Y en enero de 2014 se registró la primera muerte por gripe aviar en Norteamérica, en la provincia de Alberta, Canadá.

En el caso de la gripe aviar, así como en el caso de la gripe porcina o gripe A que provocó una gran preocupación en 2009 (preocupación que resultó excesiva, pero en el momento no había modo de saberlo y era mejor errar del lado de la precaución) el temor a la posibilidad de una pandemia se hallaba en uno de los capítulos más atroces de la enfermedad humana, la pandemia de gripe de 1918 que dejó a su paso el aterrador saldo de más de 50 millones de víctimas y probablemente hasta 100 millones, ocho millones de ellas en España. En sólo un año, se cobró tantas víctimas, o poco menos, como las que se estima que provocó la peste negra de 1348-51 en Europa.

La pandemia de 1918

Todos los inviernos, la gripe estacional provoca molestias, malestares y algunas muertes, principalmente entre niños con pocas defensa, gente mayor y personas que ya tienen problemas respiratorios o de inmunodepresión. Pero el invierno de 1918
era diferente, más virulenta, más contagiosa y, sobre todo, más mortal, especialmente para personas entre 15 y 35 años de edad.

Era una época en que la población europea había sido ya diezmada por los terribles combates de la Primera Guerra Mundial, iniciada en 1914 y que llegaría a su fin en noviembre de 1918. En total, más de 9 millones de seres humanos habían sucumbido en los combates de ésa que entonces se llamó la Gran Guerra. Y, de pronto, una enfermedad venía a complicar las cosas brutalmente.

Ya en 1889-90 otra pandemia de la llamada “gripe rusa”, causada por un virus H2N2 había recorrido el mundo desde oriente hasta Estados Unidos dejando un millón de muertos, la más terrible epidemia del siglo XIX. Este antecedente provocó preocupación cuando en la primavera de 1918 apareció un virus en los Estados Unidos que pronto saltó a Europa, infectando a grandes cantidades de jóvenes combatientes en el frente de batalla, la mayoría de los cuales se recuperaron sin problemas. Muchos, sin embargo, desarrollaron una agresiva neumonía frecuentemente mortal.

En sólo dos meses, la gripe, desusadamente contagiosa, pasó de la población militar a la civil y salió de Europa llegando a Asia, Áfica, Sudamérica y Norteamérica. Después de sufrir lo que al parecer fue una nueva mutación, en agosto se presentaron nuevos brotes en Europa, África y Estados Unidos, no sólo altamente contagiosos, sino desusadamente mortales.

Donde la gripe estacional sólo causaba la muerte del 0,01% de las personas infectadas, esta nueva cepa mataba al 2,5% de los afectados, aunque en países como India llegó a un índice de mortalidad del 5%. Y lo hacía de modo cruel, a través de una neumonía que literalmente asfixiaba a sus víctimas.

Finalmente, en la primavera de 1919 el mundo fue golpeado por un tercer brote pandémico, al término del cual, uno de cada cinco seres humanos de todo el mundo se habían contagiado. Y, por supuesto, la medicina en ese momento no tenía armas para enfrentar el problema, apenas podía tratar los síntomas y buscar que los pacientes sobrevivieran. No había vacunas, que aparecerían hacia 1940, ni medicamentos antivirales. La única terapia que tenía cierta efectividad era la transfusión de sangre a pacientes enfermos procedente de pacientes que se habían infectado y habían sobrevivido, y que funcionaba como una especie de vacuna.

Cada oleada de gripe duró unas 12 semanas: atacaba con fuerza y luego desaparecía, como lo hace la gripe estacional.

Curiosamente, una de las razones por las cuales se conoce a esta pandemia como la “gripe española” es que los informes sobre ella estaban cuidadosamente censurados en los países participantes en la Primera Guerra Mundial. Pero en la España neutral, donde incluso Alfonso XIII sufrió el contagio y llegó a enfermar gravemente, los diarios informaban libremente sobre la enfermedad, dando la impresión de que en España era mucho más grave que en el resto de Europa. Habiendo llegado de Francia, sin embargo, en España se le conoció como “gripe francesa”.

Desde entonces, los profesionales de la salud han estado preocupados por la posibilidad de que se repita una pandemia con esas características mortales. El temor se ha visto reavivado por otros brotes alarmantes: la pandemia de gripe asiática de 1957 causó 2 millones de muertes, y la de gripe de Hong Kong de 1968-1970 se cobró un millón más. Todo esto explica también las medidas, afortunadamente innecesarias, que se tomaron ante la gripe A que apareció en 2009 y sigue activa: una mutación del virus podría volver a poner en peligro a millones de personas.

El hecho de que el virus de la gripe tenga tendencia a mutar fácilmente, lo que le permite anular las defensas que el cuerpo humano pueda haber criado con anteriores infecciones, es su mayor peligro. Por ello, quizá sería razonable, cuando los organismos mundiales encargados de la salud dan la voz de alerta, pensar que están haciendo su mejor esfuerzo para evitar otra tragedia.

Clasificación de los virus de la gripe

El tipo más común de virus de la gripe en humanos es el A, que se clasifica según dos proteínas importantes en su envoltura exterior: la hemaglutinina y la neuraminidasa. Hay 16 subtipos de la primera y 9 de la segunda, y los anticuerpos para uno de ellos no afectan a los otros. Así, hay virus H1-H16 y N1-N9. El virus H1N1, de origen porcino y comúnmente llamado “gripe A” tiene los tipos 1 de ambas proteínas, y distintas variedades del mismo fueron responsables de las gripes de 1918 y de 2009. El ser humano sólo puede ser infectado por virus H1, 2, 3, 5, 7 y 9 y N1 y 2.

abril 11, 2014

El sistema de señales de tu cuerpo

Nuestro complejo sistema nervioso, nuestra ventana al mundo y la base de nuestra personalidad, es resultado de al menos 600 millones de años de evolución que aún no comprendemos del todo.

Representaciones de los distintos
sistemas nerviosos del reino animal.
(Ilustración CC de Xjmos, vía
Wikimedia Commons) 
Una parte decididamente importante de nosotros está formada por células, las neuronas, que reaccionan ante estímulos del medio ambiente: la luz, la temperatura, el sonido, el movimiento, la textura de las cosas, el olor... y se comunican con otras células que llevan la información a los centros de interpretación y procesamiento de nuestra cabeza, y que a su vez toman decisiones o actúan. Cuando emprendemos una acción, otras neuronas llevan información a tejidos como los músculos, estimulándolos para que se contraigan o relajen.

Son las células de nuestro sistema nervioso, nuestro aparato para interactuar con el mundo exterior e incluso con nuestro mundo interior, con sistemas de alarma como los de dolor o irritación... o de placer como al degustar un alimento que nos satisface.

Podemos argumentar que nuestro encéfalo, el centro de procesamiento y toma de decisiones, es el mecanismo más complejo que conocemos en todo el universo.

No sabemos aún exactamente cómo funciona. Hemos determinado qué función tienen algunas regiones, hemos descubierto cómo se transmiten los impulsos nerviosos de una neurona a otra mediante las sustancias llamadas neurotransmisores, pero estamos muy lejos de comprender a cabalidad cómo funciona ese órgano que es, finalmente, el que nos hace ser nosotros mismos.

Pero más allá de su funcionamiento, nos ofrece otro misterio no menos intrigante: ¿cómo evolucionó?

Los humildes orígenes

Todo animal multicelular necesita una forma de percibir su entorno y que sus células actúen coordinadamente para funcionar, su sistema nervioso.

Sólo el animal más primitivo, la esponja, carece de sistema nervioso. Después de todo, su única actividad es filtrar el agua que pasa por ella, y cada célula captura sus nutrientes. Pero para tener actividad, hace falta tener neuronas.

Todas las células perciben su entorno y reaccionan a él, de distintas formas. Los seres unicelulares ciliados, por ejemplo, se mueven activamente hacia la luz o el alimento y se retiran si perciben sustancias venenosas. Pero los seres multicelulares requirieron especializar distintas células en tejidos dedicados a funciones concretas como el movimiento, la digestión o la transmisión de impulsos.

Incluso unas pocas neuronas o células nerviosas pueden bastar para sobrevivir, como ocurre con los diminutos gusanos redondos llamados Caenorhabditis elegans o, como prefieren abreviar los biólogos, C. elegans. Los hermafroditas de esta especie tienen, todos y cada uno de ellos, únicamente 302 neuronas, y con ellas se las arreglan para sobrevivir. Parecen pocas, hasta que descubrimos que cada uno tiene únicamente 959 células (que aumentan a 1031 cuando se convierten en machos).

La uniformidad en el funcionamiento de las células nerviosas en todos los animales parece un indicio de que estas peculiares células todas provienen del mismo antecesor común. Uno de los mejores candidatos para serlo parece ser un organismo similar a los gusanos llamado Urbilateria, que vivió hace unos 600 millones de años.

El sistema nervioso más sencillo es la “red nerviosa” de animales como las medusas o las anémonas (los cnidarios). Sus neuronas nerviosas forman un sistema difuso donde la estimulación de cualquiera de ellas se transmite a todas las demás, que además se comunican en ambos sentidos. Es de suponerse que así fueron los primeros animales que tuvieron sistemas nerviosos.

A lo largo de la evolución, la comunicación entre las neuronas se “polarizó”, es decir, empezó a ocurrir sólo en un sentido: los impulsos visuales van por sus neuronas sólo de los ojos a la corteza visual, no de vuelta; hay otras neuronas encargadas de enviar impulsos para mover el ojo o contraer la pupila, pero ésas no reciben información a su vez.

Una característica singular del proceso evolutivo de nuestro sistema nervioso es que nos cuenta cómo llegamos a tener cabeza.

En la ciencia ficción o la fantasía es fácil pensar en un ser que tenga los ojos en el pecho o el sentido del olfato en los codos... o incluso el cerebro junto al hígado, por decir, algo. Pero los animales tienden a tener sus sentidos agrupados en la cabeza. Ésta es una tendencia evolutiva que los biólogos llaman “cefalización”, es decir, la concentración órganos sensoriales (como los ojos, la nariz y el oído) y el órgano nervioso más importante en la cabeza. Se especula que, dado que los animales se mueven hacia adelante, es ventajoso que los órganos sensoriales estén a la vanguardia, para evaluar su medio ambiente.

Conforme las redes nerviosas se fueron organizando y especializando, se alinearon en cordones organizados. Los animales que tienen simetría bilateral (es decir, que su lado izquierdo es imagen reflejada de su lado derecho) centralizaron estos cordones formando lo que se llama, precisamente, sistema nervioso central. En el caso de los vertebrados, alrededor del cordón dorsal se desarrolló una protección en forma de columna vertebral.

El camino evolutivo del sistema nervioso humano pasa por los pequeños primeros mamíferos que convivieron escurriéndose entre las patas de los dinosaurios hace unos 225 millones de años, dotados de pequeños cerebros como el de la musaraña, que pesa menos de dos décimas de gramo. A lo largo de este tiempo, la corteza cerebral fue ampliándose, creciendo junto con nuestro cráneo hasta asumir su forma actual, la más desarrollada de los primates, hace alrededor de 100.000 años. Somos, entonces, una especie joven con un encéfalo de aproximadamente kilo y medio, gris y de aspecto arrugado debido a los pliegues de la corteza que, se cree, permiten aumentar su superficie y las conexiones entre sus neuronas.

Finalmente, siempre conviene tener presente que, aunque identificamos al encéfalo con nuestra personalidad, voluntad y percepción, nuestro sistema nervioso está también a cargo de todo lo que hace nuestro cuerpo sin que nosotros lo asumamos conscientemente: el ritmo cardiaco, la respiración, el tono muscular, los movimientos de nuestros órganos digestivos, la secreción de hormonas, el hambre, el impulso sexual, y todo, todo lo que somos.

Nuestro encéfalo

El centro nervioso humano está formado por algo menos de cien mil millones de células nerviosas unidas por medio de, se calcula, al menos un billón de conexiones que nos permiten desde comer con cubiertos hasta resolver ecuaciones de la mecánica cuántica, disparar un balón con efecto al ángulo de la portería contraria o escribir un poema, abrazar a nuestros seres queridos y construir aviones cada vez más seguros. Y es la única estructura conocida que se ocupa en tratar de entenderse a sí misma.

abril 10, 2014

Las bacterias, ¿lado oscuro y lado luminoso?

Las pocas veces que hablamos de bacterias suelen ocuparse de las enfermedades causadas por estos seres unicelulares, pero sin ellas sería inconcebible nuestra propia vida.

Ejemplares de Eschirichia coli captados con un microscopio
electrónico.
(Foto DP NIAD, vía Wikimedia Commons)
Pese a que hay 40 millones de bacterias en un solo gramo de tierra y que biólogos como Michael Hogan calculan que la masa total de ellas en nuestro planeta es mayor que la masa de todas las plantas y animales que existen sumados, estos seres fueron desconocidos para la humanidad hasta 1676, cuando el holandés Anton Von Leeuwenhoek informó haber visto pequeños seres unicelulares, que llamó “animálculos”, con sus primitivos microscopios.

Pero esas formas de vida que luego se llamarían bacterias no son animales. Son una categoría de seres vivos unicelulares, que miden apenas unas micras (millonésimas de metro) y cuyo ADN no está agrupado en un núcleo, sino que existe en una sola, larga cadena. Por eso se les llama “procariotes” a diferencia de los “eucariotes”, células cuyo ADN sí está encerrado en un núcleo.

En los años siguientes a su descubrimiento, científicos como Louis Pasteur y Robert Koch demostraron que las bacterias eran causantes de muchas enfermedades, como la tuberculosis, la neumonía, la salmonelosis, el tétanos, la sífilis y muchas más. Y en el siglo XX Alexander Fleming desarrolló los primeros antibióticos salvadores de vidas ante estas afecciones.

Pero sólo el 1% de las bacterias que conocemos son nuestros enemigos biológicos. Muchas otras tienen una actividad que nos puede resultar beneficiosa, agradable o, incluso, esencial incluso para nuestra vida.

Nuestro cuerpo tiene, de media y según un cálculo publicado a fines de 2013, algo más de 37 billones (millones de millones, 37 con doce ceros) de células de todo tipo, desde los glóbulos rojos que llevan el oxígeno a todo el cuerpo hasta las neuronas que forman el sistema nervioso o las fibras musculares que nos permiten movernos. Por cada una de ellas, albergamos entre tres y diez bacterias que han evolucionado junto con nosotros durante millones de años, para bien y para mal, formando el pequeño ecosistema dinámico que somos nosotros.

Cuando hablamos de “flora intestinal”, por ejemplo, nos referimos a varios tipos de organismos, principalmente bacterias que cumplen varias funciones en nuestro aparato digestivo: ayudan a absorber nutrientes, apoyan el sistema inmune, producen enzimas que para digerir diversos alimentos, sintetizan vitaminas que necesitamos, como la K y la B12, y son importantes auxiliares en el combate contra organismos que nos provocan enfermedades, estimulando la producción de anticuerpos e impidiendo con su presencia que colonicen nuestro tracto intestinal.

Las muchas funciones de las bacterias en nuestro organismo es buena señal de la enorme variabilidad que tienen las bacterias en cuanto a su forma de supervivencia.

Algunas de ellas necesitan oxígeno para generar energía, pero otras no, por lo que se les llama anaeróbicas. Su respiración se realiza mediante el proceso que llamamos fermentación, que convierte los azúcares en ácidos, gases o alcohol sin presencia de oxígeno, de modo que se emplean para producir ácido láctico, acético, butírico, acetona, alcohol etílico e incluso hidrógeno, como posible forma de obtener este elemento para almacenar energía de modo limpio. La fermentación bacteriana más conocida convierte la lactosa de la leche en ácido láctico, el principio del proceso de fabricación del queso. Esta fermentación bacteriana es también la que se utiliza para producir el yogurt.

Algunas bacterias se alimentan de otros organismos, mientras que otras variedades pueden producir su propio alimento, ya sea mediante la fotosíntesis, como las plantas, o mediante la llamada síntesis química, que hacen bacterias como las llamadas “extremófilas”, que han llegado a los medios de comunicación en los últimos años debido a que son seres capaces de vivir en condiciones, precisamente, extremas, como las que viven en las profundidades heladas y oscuras en un lago que está bajo una enorme capa de hielo en la Antártida.

Pero también este proceso es el que usan las bacterias que, en las raíces de las plantas, convierten el nitrógeno de la atmósfera (el gas más abundante en nuestra atmósfera, de la que forma casi el 80%) en compuestos de nitrógeno fijo como los nitratos, que las plantas pueden utilizar en su metabolismo. Para valorar su importancia, recordemos que los fertilizantes aportan a las plantas nutrientes en forma de compuestos, principalmente de nitrógeno, además de otras sustancias como fósforo, potasio y azufre. Sin las bacterias nitrificantes, que producen el 90% del nitrógeno fijo del planeta, no podría vivir la mayoría de las plantas... ni, por tanto, nosotros.

Las bacterias fueron los primeros organisms modificados genéticamente, en este caso para sintetizar sustancias que necesitamos, a parti de 1978, cuando se insertó el gen humano que sintetiza la insulina en la bacteria E. coli. Así, desde principios de la década de 1980, la gran mayoría de la insulina que, en distintas variedades, utilizan los diabéticos para controlar su afección se produce así, lo cual es mucho mejor que usar insulinas procedentes de animales que no son exactamente iguales a la humana. Otras bacterias se han modificado para sintetizar hormona del crecimiento humano gracias a la cual se pueden tratar las formas de enanismo causadas por la deficiencia de esta hormona. Y también se utilizan a fin de producir factor de coagulación para el tratamiento de hemorragias como las provocadas por la hemofilia.

Entre las investigaciones que se están llevando a cabo actualmente sobre bacterias genéticamente modificadas destacan las orientadas a conseguir variedades que sean más eficientes en la producción de biocombustibles, haciéndolos económicamente competitivos frente a los destilados del petróleo.

Si la abundancia de bacterias es tal que, en palabras de Andy Knoll, investigador de Harvard, vivimos en el mundo de las bacterias más que ellas en el nuestro, el conocimiento que seguimos reuniendo sobre ellas nos permite vivir mejor en ese mundo, combatiendo las enfermedades que algunas nos provocan algunas y aprovechando las capacidades bioquímicas de otras.

En el principio...

Si bien no sabemos aún cómo comenzó la vida, sí sabemos que las bacterias son los primeros descendientes del ancestro común de todos los seres vivos. Las primeras bacterias aparecieron hace alrededor de 3.800 millones de años y dominaron la Tierra durante 2 mil millones de años antes de que hicieran su aparición las células con núcleo y, mucho después, los seres multicelulares. Es decir, todos los seres vivos, incluidos nosotros, tenemos como nuestro humilde origen un ancestro común que fue una bacteria. Somos bacterias con cientos de millones de años de evolución.

abril 09, 2014

Cuando Hubble descubrió el universo

Así concluía un camino desde los inicios de la civilización, cuando se creía que todas las estrellas estaban fijas en una esfera que giraba alrededor de la Tierra.

Edwin Hubble y el telescopio Hooker
del monte Wilson con el que descubrió
el corrimiento al rojo de las galaxias.
(Foto de Hubble DP, foto del
telescopio CC de Andrew Dunn,
vía Wikimedia Commons)
 
El 1º de enero de 1925 podría ser considerado como el primer día de la existencia del universo. O al menos el primer día que los seres humanos nos enteramos de ella.

El descubrimiento lo había hecho algo más de un año atrás un joven astrónomo, Edwin Powell Hubble, pero ese día se lo dio a conocer a los ochenta astrónomos de la Sociedad Astronómica Estadounidense que celebraban su reunión anual en la ciudad de Washington.

Los astrónomos sabían que existía el universo, claro, pero el concepto que tenían de él era muy distinto del que se tuvo desde ese día. La Vía Láctea era considerada como el universo entero. Esa banda luminosa del cielo nocturno era objeto de reflexión desde la antigua Grecia, cuando filósofos precursores de la ciencia como Anaxágoras y Demócrito especulaban que la formaban innumerables estrellas, pero Aristóteles discrepaba. Había sido Galileo quien, en 1610, confirmó que estaba formada por millones y millones de estrellas.

El problema lo planteaban ciertos manchones difusos de luz llamados “nebulosas” y que, en 1845, un aristócrata irlandés que se había permitido el mayor telescopio de su época, William Parsons, había descubierto que tenían forma de espiral. ¿Eran tales nebulosas espirales parte de la Vía Láctea o, como suponían algunos pocos, eran otros universos, otras galaxias?

En 1920, el tema fue objeto de un encuentro conocido simplemente como “El gran debate” entre Harlow Shapley y Heber Curtis, dos astrónomos estadounidenses. En ese momento, Estados Unidos ya era la mayor potencia astronómica al tener los mayores y mejor situados telescopios del mundo, y ambos científicos estaban en la vanguardia de la especialidad. El primero argumentaba, basándose en su interpretación de algunos datos, que las nebulosas espirales eran simplemente parte de la galaxia, posición mayoritaria. El segundo usaba otros datos y otras interpretaciones para sostener que eran otras muy lejanas galaxias.

Edwin Hubble estaba del lado de Curtis, y pronto tendría datos para demostrarlo.

El profesor insatisfecho

Edwin Powell Hubble nació en el Medio Oeste de los Estados Unidos, en el estado de Missouri, el 20 de noviembre de 1899. La familia se mudó a Chicago, donde el joven estudió el bachillerato y se enamoró de la joven literatura de ciencia ficción, especialmente del trabajo de Julio Verne y Henry Rider Haggard, además de desarrollar sus habilidades deportivas en el atletismo, el baloncesto y el boxeo.

Pese a haber obtenido su licenciatura en matemáticas y astronomía en 1910, cuando obtuvo una preciada beca para ir a la universidad de Oxford, en Inglaterra, prefirió dedicarse al derecho. Al volver a los Estados Unidos en 1913 se instaló como abogado, además de ser profesor de español y física en un instituto. Pronto confirmó que su vocación era la astronomía y volvió a estudiar.

Su carrera se vio interrumpida en 1917, apenas obtenido su título, cuando decidió enrolarse en el ejército debido a la Primera Guerra Mundial. Al terminar el conflicto en 1919 y con el grado de mayor del ejército, entró finalmente a ejercer su profesión como astrónomo en el observatorio del Monte Wilson, que tenía el que era en ese momento el telescopio más potente del planeta. Allí se encontró con Harlow Shapley, quien había conseguido ni más ni menos medir con precisión la Vía Láctea: 300.000 años luz. Que era, según creía, el tamaño de todo el universo.

En octubre de 1923, Hubble descubrió, en una de las nebulosas que observaba, un destello que creyó que se trataba de una nova, una estrella que estalla al final de su vida. Pero comparando diversas placas fotográficas tomadas por otros astrónomos determinó que se trataba de una estrella de la clase de las cefeidas, que se distinguen por ser variables.

El brillo de cada una de las cefeidas aumenta y disminuye en ciclos muy precisos. El de algunas dura uno o dos días terrestres, mientras que el de otras puede durar decenas de días. Dado que los cambios de las cefeidas dependen del brillo que tienen si se descuentan variables como la distancia o la interferencia de polvo interestelar, la astrónoma Henrietta Leavitt descubrió la relación entre el ciclo de cambios de brillo y la luminosidad intrínseca, lo que permite calcular la distancia a la que cada una de ellas está de nosotros.

La cefeida observada por Hubble en la nebulosa llamada M31 o, más popularmente, Andrómeda, se encontraba entonces a un millón de años luz... muy lejos de la Vía Láctea. Andrómeda era otra galaxia, otro cúmulo de estrellas como la nuestra.

Si Copérnico había sacado a la Tierra del centro del sistema solar y después habíamos descubierto que nuestro sistema solar no estaba en el centro de la Vía Láctea, Hubble había determinado que, además, nuestra galaxia era sólo una entre tantas, hoy sabemos que entre cientos de miles de millones de galaxias.

Una vez habiendo confirmado y reconfirmado sus cálculos, Hubble presentó su descubrimiento ese 1º de enero de 1925. De hecho, no lo hizo él. Por alguna causa que quedó en el misterio, dejó que fuera el astrónomo Henry Norris Russell quien lo hiciera saber al congreso de astrónomos, que en los siguientes meses confirmarían el hecho: “allá afuera” había un universo increíblemente más grande de lo que habían imaginado hasta entonces, más misterios por descubrir y más conocimientos qué obtener con sólo sus cinco sentidos.

En palabras de Edwin Hubble: “Equipado con sus cinco sentidos, el hombre explora el universo a su alrededor y llama a esta aventura Ciencia”.

La carrera de Hubble siguió cosechando logros asombrosos. En 1929 pudo demostrar que el universo estaba expandiéndose a una velocidad creciente, un logro quizá aún mayor y que fundó la cosmología moderna. Desarrolló un sistema de clasificación estelar, volvió al ejército para colaborar como científico en el esfuerzo aliado de la Segunda Guerra Mundial y después fue uno de los promotores de la construcción del observatorio del Monte Palomar, por lo que fue el primer astrónomo que utilizó su moderno telescopio. Murió poco después, el 28 de septiembre de 1953.

El Nobel esquivo

El gran sueño incumplido de Edwin Hubble fue la obtención de un premio Nobel. Incluso, según se cuenta, contrató a un publicista para que promoviera su imagen con vistas al premio. Pero no hay Nobel de astronomía, y fue por tanto el gran ausente en la larga lista de reconocimientos que recibió a lo largo de su vida y después. El que se diera su nombre al telescopio espacial que nos ha mostrado de modo impactante las maravillas del universo, sin embargo, probablemente lo ha hecho más conocido de lo que lo hubiera hecho ganar el Nobel.

marzo 14, 2014

¿El mundo es de los insectos?

Cálculos conservadores indican que hay al menos un trillón de insectos en el mundo, más de 140 millones de ellos por cada uno de los 7.000 millones de nosotros.

Gusanos de maguey (Aegiale hesperiaris) en un restaurante
mexicano, considerados una exquisitez.
(Foto DP de Andy Sadler, vía Wikimedia Commons)
En 1971 se estrenó una película que sembró la preocupación en todo el mundo: La crónica Hellstrom. En esta mezcla de ciencia, ciencia ficción y horror, un supuesto científico, Nils Hellstrom, presentaba escenas de la vida de diversos insectos nunca antes filmadas, y ofrecía afirmaciones pseudocientíficas para convencer al espectador que el ser humano sería eventualmente erradicado del planeta, vencido por los insectos en la lucha por la supervivencia.

Aunque era ficción, el filme subrayaba aspectos que distinguen a los insectos entre los demás seres vivos. Al tener una vida corta y ser capaces de reproducirse a enorme velocidad, son enormemente adaptables. Cualquier mutación o variación natural benéfica se puede difundir rápidamente y volverse patrimonio de toda la especie.

Los insectos son abundantes. Se conoce quizás un millón de especies de insectos (de un total de 1.300.000 especies vivas). Y los entomólogos, especialistas en el estudio de esta clase de animales, creen que ésta es sólo una pequeña muestra, como lo revela que, cada año se describen miles especies nuevas de insectos.

Pese a ese flujo constante de descubrimientos, se calcula que puede haber hasta 10 millones de especies de insectos más. Suficientes para mantener ocupados a los entomólogos durante varios miles de años en el futuro. Y esa diversidad se convierte, según estimaciones de la Universidad de Arizona, en unos 140 millones de insectos por cada ser

Los cálculos son admitidamente imprecisos por lo difícil que es incluso detectar algunos insectos. No los mayores, especialmente como los escarabajos rinoceronte y titán, o los wetas neozelandeses similares a saltamontes gigantescos, enormes insectos que pueden llegar a pesar hasta 100 gramos. Pero al otro extremo se encuentran insectos tan pequeños como las avispas parásitas de la familia Mymaridae, una de cuyas especies tiene un macho que mide apenas 139 micrómetros, algo más de una décima de un milímetro. Y sólo de esta familia se calcula que existen más de 1.400 especies.

La historia de estos seres se inicia hace unos 535 millones de años, cuando se produjo la diversificación de los seres que vivían en los océanos para dar lugar a variedades como los vertebrados, los moluscos o los artrópodos. Estos últimos se caracterizan por tener un exoesqueleto y extremidades articuladas. A diferencia de los vertebrados, que tienen la estructura rígida de sus cuerpos en el interior, en la forma de huesos, los artrópodos desarrollaron otra solución al problema que implicaba sostener los órganos internos. Su esqueleto está en el exterior, con lo que además cumple una importante función como protección contra las agresiones del exterior.

Los biólogos creen, con base en los datos de los que disponen, que los insectos debieron evolucionar de un ser parecido a una lombriz de tierra que desarrolló un par de patas en cada segmento, como los ciempiés (que tampoco son insectos). Eventualmente, sus muchos segmentos se unieron formando los tres que les son característicos, sus patas migraron al tórax y, hace más de 400 millones de años, por fin aparecieron los insectos, la clase más abundante y diversificada de los artrópodos. Sus características distintivas son la segmentación de su cuerpo en cabeza, tórax y abdomen, así como los tres pares de patas articuladas que tienen únicamente en el tórax, ojos compuestos y un par de antenas. Son parientes así tanto de los crustáceos que suelen ser apreciados como alimentos (las gambas, centollos, bugres y langostas) como de otras variedades que pese a su parecido no son insectos, como las arañas y los miriápodos.

A partir de ese momento, los insectos fueron diversificándose y evolucionando para ocupar prácticamente todos los nichos ecológicos del planeta. Sólo como ejemplos, los hemípteros, como las cigarras, los pulgones y las chinche, aparecieron hace entre 300 y 350 millones de años, mientras que los dípteros (cuyo más conocido representante es la mosca doméstica) hicieron su entrada 50 millones de años después. Las mariposas y las cucarachas surgieron hace entre 150 y 200 millones de años y los mantofasmatodeos son los benjamines, habiendo aparecido hace apenas unos 50 millones de años. Curiosamente, son también el orden de insectos más recientemente descubierto, en 2002.

Así como su esqueleto sustenta a todo el organismo del insecto, podemos decir, sin exagerar demasiado, que la vida en el planeta, considerada como un gran organismo, está sostenida por la estructura que forman los insectos, y que son mucho más que la plaga o la molestia con la que más fácilmente se les identifica. Por ejemplo, la polinización de muchas plantas depende de la visita de insectos como las abejas que se alimentan de su néctar o polen.

Los insectos son además la gran máquina de reciclaje del planeta, gracias a su variabilidad en cuanto a alimentación: si estuvo vivo, algún insecto lo comerá. Así, los insectos juegan un papel esencial en la descomposición de la materia orgánica tanto animal como vegetal, garantizando su reincorporación al ciclo alimentario.

Pero así como comen lo que sea, los insectos son también un socorrido alimento en el mundo vivo. Reptiles, anfibios, aves, peces, mamíferos, otros insectos y otros artrópodos como los ácaros y las arañas, e incluso algunas plantas comen insectos. Para algunos es su dieta básica y para otros es parte de una alimentación más variada.

En el caso del hombre, en las especies precursoras de la nuestra y en nuestros parientes más cercanos (como los chimpancés y bonobos) los insectos han sido una fuente de proteínas que sólo rechazamos hoy por motivos culturales, pese a que es costumbre en países de América Latina, África, Asia y Oceanía.

Aunque no los comamos directamente, distintos productos de los insectos son parte de nuestra dieta, empezando por la miel. Quizá en un futuro los insectos vuelvan al plato de las sociedades occidentales como algo más que una curiosidad, pero aún si no lo hacen, nunca está de más recordar que, individuo por individuo, kilo por kilo, los humanos somos habitantes de un mundo dominado por los insectos.

¿Las cucarachas o las avispas?

Uno de los mitos perdurables sobre los insectos es que sólo las cucarachas sobrevivirían a una guerra nuclear total. Sin embargo, los datos no han sustentado esa idea. Cierto, las cucarachas pueden sobrevivir a 10 veces más radiación que un ser humano, pero no son las campeonas en el mundo de los insectos. Esa distinción corresponde a las avispas del género Habrobracon, que pueden soportar hasta 200 veces más radiación que los seres humanos.

marzo 13, 2014

Neptuno, el planeta anunciado

El menos visitado de los planetas de nuestro sistema solar, el más lejano del sol, se descubrió sólo después de que cuidadosos cálculos matemáticos demostraran que debía existir.

Neptuno, fotografiado por la sonda espacial Voyager.
(Foto DP Nasa/JPL vía Wikimedia Commons)
Una de las descripciones más perdurables de nuestro planeta nos la ofreció el astrónomo y divulgador Carl Sagan. En 1990, pidió a la NASA que girara la cámara de la sonda Voyager 1 cuando estaba a más de 6 mil millones de kilómetros de la Tierra, y tomara una foto de nuestro hogar planetario. El resultado es una fotografía que se conoció como el “punto azul pálido”.

El color distintivo de nuestro planeta lo comparte con el azul claro de Urano y, sobre todo, con el profundo color azul de Neptuno, el planeta más alejado del sol, el último de los que conforman nuestro sistema solar. (Plutón se ha reclasificado como “planeta enano” después de que se encontraron otros cuerpos incluso mayores que él en el llamado “cinturón de Kuiper”, formado por millones de pequeños cuerpos celestes.)

Pero Neptuno es azul no debido al agua. No puede haber agua en estado líquido en ese lejano planeta, un gigante de gas cuya atmósfera está formada principalmente por hidrógeno, helio y metano, un gas formado por carbono e hidrógeno. Este metano es responsable, al menos en parte, del color del planeta, pues absorbe la luz roja y refleja la luz verde.

Sin embargo, los astrónomos no descartan que pueda haber otros compuestos, aún no identificados, que participen en el notable color de Neptuno, y que lo hacen mucho más profundo que el de Urano.

Debajo de la atmósfera, hay un océano formado por una mezcla líquida de hielos de agua, amoníaco y metano, y en su centro existe un núcleo de hierro que, se calcula, tiene una masa algo mayor que la de la Tierra. Pero, en su conjunto, Neptuno tiene 17 veces la masa de nuestro planeta en un volumen 58 veces mayor. Esto lo convierte en el tercer planeta más masivo, después de Júpiter y Saturno. Y al ser el planeta más lejano del sol es también el que tiene la órbita más prolongada: tarda 165 años en dar una vuelta alrededor del sol, de modo que desde su descubrimiento completó una órbita apenas en 2011.

Pero al acercarnos a Neptuno vemos que su color no es uniforme, que hay franjas de distintas tonalidades que hablan de tremendas turbulencias con vientos de hasta 2.100 kilómetros por hora y, cuando lo visitó la sonda Voyager 2, encontró una mancha de azul más oscuro, similar a la gran mancha roja de Júpiter y formada también por una colosal tormenta. En Neptuno, esas manchas azul oscuro aparecen y desaparecen cada pocos años.

Neptuno también tiene otras dos características que lo distinguen. Primero, como los otros gigantes de nuestro Sistema Solar, está rodeado por anillos, nueve de ellos y muy tenues. El más exterior muestra tres agrupamientos de material que destacan, y que se han llamado Libertad, Igualdad y Fraternidad, como homenaje a la revolución francesa. En segundo lugar, el campo magnético de Neptuno está inclinado a 47 grados del eje de su rotación, cuando en los demás planetas, salvo en Urano, el campo magnético está mucho más cerca del eje de giro.

Neptuno tiene 13 lunas conocidas hasta la fecha, algunas que tienen sus órbitas dentro de los propios anillos del planeta.

Descubrimiento y estudio

El 27 y 28 de diciembre de 1612, Galileo Galilei fue el primer ser humano que vio al planeta que hoy conocemos como Neptuno. Pero debido a su órbita, en ese momento parecía estar en un mismo lugar en los cielos, como las estrellas, cerca de Júpiter, y el genio florentino así lo consignó en sus notas. Precisamente lo que distinguía a los planetas desde la antigüedad era que se movían respecto del fondo de estrellas que parecían inmóviles. “Planeta” significa, precisamente, vagabundo, y cuando Galileo se encontró con Neptuno, no parecía vagabundear.

En 1821, el astrónomo francés Alexis Bouvard notó que las observaciones astronómicas de Urano se desviaban de los cálculos que había hecho sobre la órbita de ese planeta. Sus matemáticas eran sólidas, pues en 1808 había publicado tablas muy precisas sobre las órbitas de Saturno y Júpiter. El que sus cálculos fallaran con Urano le indicaban que “algo” estaba ejerciendo una atracción gravitatoria sobre el planeta, desviándolo de la órbita que debería seguir, y ese “algo”, claro, no podía ser sino otro planeta aún no descubierto, un octavo miembro de nuestro sistema solar.

Con la publicación del razonamiento de Bouvard se inició una pequeña carrera por encontrar al octavo planeta del sistema solar. Los antiguos conocían 6, y desde que se inició la observación astronómica sólo se había encontrado uno más, precisamente Urano, descubierto por el astrónomo William Herschel en 1781.

Sin embargo, tuvio que pasar un cuarto de siglo para que el planeta cuya masa causaba estas varicaciones. El problema era saber hacia dónde había que mirar. Otro astrónomo francés, Urbain Le Verrier, utilizó las posiciones observadas de Urano y un complejo desarrollo matemático calculando las pequeñas discrepancias de Urano, utilizando las leyes de la gravitación de Newton. El 31 de agosto de 1846, Le Verrier informó a la Academia Francesa dónde señalaban sus cálculos que debería estar el nuevo planeta (el logro es compartido por el británico John Couch Adams, quien dos días después envió por correo a la Royal Society sus propios cálculos, igualmente precisos). El 18 de septiembre, le envió sus datos a su colega, el astrónomo alemán Johann Gottfried Galle, quien los recibió el 23. Esa misma noche, Galle orientó el telescopio del Observatorio de Berlín hacia el punto previsto por Le Verrier y encontró a Neptuno.

Desde entonces, lo que hemos aprendido de Neptuno ha sido fundamentalmente por medio de diversos telescopios y gracias a la única sonda que ha visitado al gigante azul. En 1989 el Voyager 2, el mismo que un año después tomaría la fotografía del “punto azul pálido”, pasó a menos de 5.000 kilómetros de la capa superior de nubes de Neptuno, enviándonos una serie de fotografías del planeta y de su luna, Tritón.

Cualquier misión planeada para estudiar a Neptuno tardaría 12 años en llegar a su destino. Ése es uno de los motivos por los cuales en este momento ni la NASA ni la ESA tienen previsto ningún intento por enviar una sonda a estudiar más a fondo al planeta límite de nuestro sistema solar.

Tritón

La más grande luna de Neptuno es también la mayor de su pequeña constelación de satélites: Tritón. Es una de las sólo tres lunas del sistema solar que posee su propia atmósfera, pese a tener solamente dos tercios del tamaño de nuestra propia luna. Pese a las bajísimas temperaturas que privan en Tritón, cuenta con géiseres activos que lanzan el nitrógeno gaseoso que compone su atmósfera y crea vientos que dejan marcas en su gélida superficie.

Antivacunas: un desastre que está ocurriendo

La desinformación científica y el miedo están protagonizando cada vez más brotes de enfermedades que se creían erradicadas en occidente.

Estatua conmemorativa de la campaña mundial de vacunación
contra la viruela que erradicó esta enfermedad en 1980.
(Foto CC de Thorkild Tylleskar, vía Wikimedia Commons)
La vacunación es probablemente la más exitosa intervención médica de la historia humana.

Enfermedades que eran comunes e inevitables se han vuelto prevenibles, una de las enfermedades que más vidas humanas se cobraba año tras año, la viruela, fue totalmente erradicada en 1980. Y se investiga para prevenir y curar con vacunas enfermedades como la malaria o el VIH/SIDA.

Sin embargo, desde que Edward Jenner introdujo las vacunas en el siglo XVIII, ha habido oposición a ellas por diversos motivos, desde los religiosos hasta la ignorancia y la desinformación maliciosa.

Resulta asombroso que, pese a los beneficios probados y comprobados de las vacunas, y a la seguridad una y otra vez confirmada de su aplicación, en el siglo XXI sigue habiendo una propaganda antivacunas que está provocando el resurgimiento de algunas enfermedades.

Quienes nunca sufrieron esas enfermedades, protegidos por las vacunas, las consideran “leves” o “tolerables”, como el sarampión o la tos ferina, aunque no sólo hacen sufrir a quienes las padecen, principalmente niños, sino que tienen el potencial de causar la muerte y daños de por vida en algunos casos. Sólo en 2013, el sarampión mató todav´ía a más de 158.000 niños en el mundo, una cifra escalofriante.

El moderno movimiento antivacunas empezó en 1998, cuando el médico británico Andrew Wakefield publicó un estudio que relacionaba la vacuna triple vírica (sarampión, rubéola y paperas) con el autismo.

El riesgo que denunciaba era grave, y otros investigadores de inmediato intentaron confirmar los resultados. Sin embargo, nadie lo consiguió. Empezaron a sumarse decenas de estudios que no hallaban la correlación y sugerían que Wakefield había cometido un simple error. Pero, en 2004, ante la creciente evidencia de prácticas inadecuadas, diez de los investigadores que habían firmado el estudio se retractaron de él, y una investigación periodística descubrió que Wakefield no sólo había recibido dinero de abogados de familias que estaban demandando a empresas productoras de vacunas, sino que él mismo había solicitado una patente para un supuesto sustituto de la vacuna.

Wakefield no había cometido un error. Se comprobó que había falsificado los datos del estudio. En 2007, el Consejo Médico General del Reino Unido le retiró la licencia para practicar la medicina y, en 2010, la revista médica “The Lancet”, que había publicado el estudio original, decidió retractarlo.

Sin embargo, en la percepción popular, animada por la militancia de personas que a su sinceridad sumaban una enorme ignorancia sobre las vacunas y los estudios que sustentan su valor para salvar vidas.

Y el resultado ha sido que en muchos países están resurgiendo enfermedades prevenibles, con el sufrimiento que implican y con números crecientes de víctimas mortales o que sufren secuelas de por vida, como los daños cerebrales permanentes que puede ocasionar el sarampión.

Incluso políticos y personajes que deberían preocuparse por expresar opiniones bien informadas y basadas en estudios científicos sólidos han contribuido al miedo contra distintas vacunas, poniendo en riesgo a quienes podrían beneficiarse de ellas pese a que no hay estudios que indiquen que representan ningún riesgo especial o preocupante.

Los movimientos antivacunas ponen en riesgo avances innegables como la muy reciente declaración de erradicación de la poliomielitis de la India, donde había sido tradicionalmente endémica.

El resultado: cada vez más brotes de sarampión, tosferina o paperas en los últimos años, con la constante de que algunos afectados no habían sido vacunados por la mal aconsejada decisión de sus padres. En España en 2013 los casos de paperas fueron más del doble de 2012, en 2011 se denunció un repunte en los casos de tos ferina y a fines de 2013 se supo de brotes de varicela, principalmente en Madrid. La situación es más grave en países como Gran Bretaña y Estados Unidos.

La inmunidad de grupo

En la década de 1970, cuando se empezó a vacunar a niños contra las bacterias causantes de la neumonía y de meningitis (pneumococos y Haemophillus), se hicieron estudios con grandes cantidades de personas para determinar los efectos de las campañas. Y se descubrió que, conforme más niños eran vacunados, iban disminuyendo también las infecciones en adultos a los que ya no se podía vacunar con eficacia y en otras personas susceptibles a estas afecciones.

¿Qué ocurría? Que las personas no inmunizadas tenían menos probabilidades de encontrarse con una persona infectada que le pudiera contagiar la enfermedad, de modo que quedaban protegidos indirectamente por las campañas de vacunación.

A esto se le llama “inmunidad de grupo”.

La vacunación no es, pese a todo, una Hay niños que tienen deficiencias en el sistema inmune y no pueden ser vacunados. Lo mismo pasa con una pequeña cantidad de niños que son alérgicos a alguno de los componentes de las vacunas. Y además las vacunas sólo son eficaces en un 80-90% de los casos. Es decir, entre uno y dos de cada 10 niños vacunados no quedarán inmunizados ante la enfermedad y, si se les expone a cualquier persona en etapa contagiosa, enfermarán.

Pero si la mayoría de la gente a su alrededor está vacunada, es muy poco probable que se contagien. La gente inmunizada a su alrededor sirve como escudo que lo protege de los agentes infecciosos.

La inmunidad de grupo, además, se hace más relevante hoy en día, cuando la gente tiene una movilidad mayor que nunca en la historia, de país en país, de continente en continente. No es difícil que alguien infectado con sarampión o, mucho más grave, poliomielitis, viaje de países donde aún es común la enfermedad a países donde ya se considera erradicada. Por ejemplo, en España no ha habido casos de polio desde 1989. Pero tampoco los había habido en Siria desde 1999, y a fines de 2013 se habían confirmado diez casos de polio en el país, sumido en una terrible guerra donde es posible que algunos combatientes extranjeros trajeran la polio desde países como Afganistán o Pakistán, donde sigue siendo un problema. No es impensable que se trajera la enfermedad desde Siria, y entonces sólo la inmunidad de grupo impediría que se extendiera entre quienes no están inmunizados.

Por eso se dice que vacunar a un niño es también vacunar a los demás.

En la mira: la malaria y otros males

Estudios publicados en 2103 indican que una vacuna contra la malaria, un antiguo sueño de los inmunólogos, consiguió reducir a la mitad los casos en niños en Sudáfrica. De confirmarse los resultados, la esperada vacuna contra el mayor asesino de niños del mundo podría llegar a las farmacias en 2015.

febrero 14, 2014

El grafeno: una maravilla en su lápiz

Tiene sólo un átomo de espesor, está formado por uno de los elementos más comunes del universo y aún no tiene diez años de edad... pero tiene el potencial de cambiar profundamente nuestras vidas.

Un trozo de grafito (arriba), un transistor de grafeno (abajo) y
el dispensador de cinta adhesiva de Andre Gein con el cual
se logró aislar el grafeno en 2004. (Foto D.P. de Gabriel
Hildebrand, Museo del Nobel, vía Wikimedia Commons)
No pasa un mes sin que las noticias científicas traigan nuevas posibles aplicaciones del grafeno, una forma de carbono aislada en 2004 por Andre Geim y Konstantin Novoselov en la Universidad de Manchester, Inglaterra.

El grafeno es más fuerte que el diamante, es uno de los mejores conductores del calor conocidos, conduce la electricidad 20 veces mejor que el cobre y tiene otras muchas propiedades singulares.

El carbono es la base de toda la vida, y uno de los elementos más sorprendentes, gracias a su enorme capacidad de unirse con muchos otros elementos y consigo mismo, formando millones de compuestos, entre ellos las proteínas que nos forman, las vitaminas, las hormonas, las enzimas o el ADN que transmite la información genética de generación en generación. Somos esencialmente carbono.

Los átomos de carbono se pueden unir entre sí de muy distintas formas. En estructuras irregulares es el carbón común, llamado carbono amorfo. Cuando forma una estructura en la cual cada átomo está unido a otros cuatro formando tetraedros que a su vez componen una sólida red tridimensional, es el diamante, el mineral natural más duro que existe

Hay otras formas en que se pueden unir los átomos de carbono. Los fulerenos son formaciones esféricas similares a las estructuras geodésicas creadas por Buckminster Fuller (de ahí su nombre). Los nanotubos son largos cilindros formados por una red hexagonal de un átomo de espesor, o la nanoespuma de carbono.

Y la forma más conocida y común del carbono es el grafito, que conocemos principalmente por nuestros lápices. Al escribir vamos depositando carbono en el papel. El grafito está formado por capas de una estructura regular en forma de malla hexagonal, como las utilizadas comúnmente en las jaulas de aves de corral donde cada átomo está unido a otros tres.

El grafeno es una capa de grafito de un solo átomo de espesor que había sido propuesta como una posibilidad teórica en 1947. En 1984 había especulaciones teóricas sobre la enorme conductividad eléctrica que tendría de existir. Y en 1987 se utilizó por primera vez la palabra “grafeno”.

Obtener una capa de grafito individual era un desafío tecnológico enorme, y varios grupos de investigadores empezaron a intentarlo desde la década de 1970. Además, nadie sabía si realmente se podría conseguir esa capa o resultaría totalmente inestable y se colapsaría de inmediato en alguna de los otras formas como nanotubos o fulerenos.

Según relatan Geim y Novoselov, empleaban distintos procedimientos tecnológicamente complejos para tratar de separar una capa de una muestra de grafito, con resultados poco alentadores: las más delgadas tenían unos 10.000 átomos de espesor. En el laboratorio, utilizaban cinta adhesiva común y corriente para limpiar las superficies de las muestras de grafito que utilizaban en sus experimentos. Un colega ucraniano, Oleg Shklyarevskii señaló que las escamas de grafito que quedaban en la cinta adhesiva parecían más finas que las obtenidas con procedimientos de laboratorio. Geim y Novoselov empezaron a utilizar la cinta adhesiva para obtener grafeno, algo que consiguieron en 2003, publicando sus resultados en 2004.

El grafeno no era inestable, era estable y resultaba un material extremadamente fuerte. Y, como habían propuesto los teóricos, tenía una enorme capacidad de conducción de cargas debido a un efecto cuántico llamado “de Hall”. Esa fue la primera característica del nuevo material, que era además prácticamente transparente.

En realidad, como se ha visto después, cada vez que escribimos con un lápiz de grafito producimos un poco de grafeno... los trazos oscuros implican que hay muchas capas de grafito, los más claros nos dicen que hay menos capas y, por allí ocultas, hasy algunas escamas de este material. Pero entonces no se sabía.

Desde su descubrimiento, la exploración de las posibilidades del grafeno lo han convertido en uno de los materiales más rápidamente desarrollados de la historia, lo cual además promovió que en 2010, sólo seis años después de que su logro, Andre Geim y Konstantin Novoselov fueron galardonados con el Premio Nobel de Física.

Las peculiaridades del grafeno lo hacen un material con gran promesa en muy distintas aplicaciones. En 2008 se presentó el más pequeño transistor creado hasta la fecha, de grafeno, con un átomo de espesor y 10 átomos de ancho. Estos transistores, que sustituirían a los de silicio habituales en nuestros ordenadores, permitirían microprocesadores mucho más rápidos, que usen menos energía y despidan mucho menos calor. Al ser casi totalmente transparente (más del 97%) y muy flexible, sería ideal para hacer con él pantallas táctiles para nuestros dispositivos digitales, en lugar del óxido de estaño e indio que se utiliza en la actualidad.

Su transparencia y conductividad también lo convierten en un excelente candidato para utilizarse en paneles solares más eficientes y económicos, algo indispensable para que la energía solar se convierta en una opción más viable como energía limpia y sustentable.

Una de las aplicaciones inesperadas del grafeno es que ayuda a mejorar la producción de ADN que se realiza mediante el procedimiento llamado RCP, y que es el que se utiliza para multiplicar una pequeñísima muestra de ADN para poderla analizar, labor de gran relevancia en áreas como la paleontología y la criminalística. También se está explorando su utilización en los procesos de secuenciación genética, con la posibilidad de hacerlos más rápidos y menos costosos.

Utilizado como filtro, el grafeno guarda una gran promesa para diversos procedimientos industriales, ya que deja pasar el vapor de agua pero no otros líquidos y gases, lo que puede ser útil en procesos de destilado o desalinización de agua.

Con el entusiasmo por aprovechar el grafeno en muchas aplicaciones más como sensores o sistemas de control térmico, y buscando aplicaciones para otras características singulares como el cambio en el campo magnético que exhibe el grafeno cuando se le somete a tensión, es muy posible que en poco tiempo empecemos a encontrar el grafeno en nuestra vida diaria.

Fuera de los lápices, claro.

Grafeno sex

Una de las iniciativas de la Fundación de Bill y Melinda Gates es la creación de condones más fáciles de usar y más finos, para promover su uso con fines de prevención de enfermedades de transmisión sexual y de control de la natalidad. A fines de 2013, la fundación concedió unos 75.000 euros a un equipo de científicos de Manchester para que desarrollen un nuevo diseño de condones que utilizan grafeno mezclado con látex.

febrero 12, 2014

Severo Ochoa y las enzimas

Las enzimas, fundamentales para todos los procesos químicos de la vida, fueron el área de trabajo del último científico español que ha obtenido un Premio Nobel en el terreno de las ciencias.

Monumento a Severo Ochoa en la
Facultad de Medicina de la Universidad
Complutense de Madrid. Escultor:
Víctor Ochoa.
(Foto D.P. vía Wikimedia Commons) 
Como uno de los dos premios Nobel de Medicina o Fisiología (junto con Santiago Ramón y Cajal), Severo Ochoa es uno de los nombres más conocidos de la ciencia española, y de los pocos, si no el único, que ha sido objeto de una biopic, o película sobre su vida.

Nacido en Luarca, Asturias, donde reposan sus restos frente al mar, en 1905, Ochoa se vio inspirado por la figura de Ramón y Cajal, primero, para conseguir su doctorado en medicina en la Universidad de Madrid en 1929, pero sin intención de ejercer la medicina, sino como punto de partida para dedicarse a la investigación. La primera publicación científica de Ochoa data de ese año, exactamente, dedicada a la creatina, una sustancia que estimula el crecimiento de los músculos. El joven médico exploraba las fuentes de energía necesarias para la contracción de los músculos.

Su trabajo sobre la bioquímica y la fisiología de los músculos continuó en Heidelberg, a donde fue como investigador en el laboratorio de Otto Fritz Meyerhof en el instituto Kaiser Wilhelm. El asturiano volvió a su universidad en 1931 como profesor, para luego pasar dos años trabajando en Londres donde volvió su atención hacia el estudio de las enzimas. Una vez más volvió a Madrid en 1934, pero en 1936, debido al estallido de la Guerra Civil Española, sale definitivamente del país, primero regresando al laboratorio de Meyerhof y después a Oxford. La Segunda Guerra Mundial, finalmente, lo empuja a dejar Europa para establecerse definitivamente en los Estados Unidos.

Las enzimas

Las enzimas que se convirtieron en la pasión de toda la vida de Severo Ochoa son grandes moléculas producidas por los seres vivos que funcionan como catalizadores, es decir, como mediadores que aceleran las reacciones químicas. Dos moléculas que pueden unirse (o una molécula que puede descomponerse) necesitan una determinada cantidad de energía para llevar a cabo tales reacciones químicas. Un catalizador interviene para reducir la energía necesaria, facilitando la reacción química sólo con su presencia, sin desgastarse o agotarse.

Un catalizador metálico, por ejemplo, es el platino del convertidor catalítico que reduce las emisiones dañinas de los motores de combustión interna. Al quemarse el monóxido de carbono, los óxidos de nitrógeno y los hidrocarbonos en presencia de una pequeña cantidad de platino, experimentan reacciones químicas que las convierten en sustancias no contaminantes: nitrógeno, oxígeno, agua y bióxido de carbono. El platino no se desgasta ni se reduce en este proceso.

Las enzimas hacen lo mismo pero en los seres vivos. El ejemplo más común de enzimas, utilizadas en toda cultura humana, son las que tienen las levaduras, y que se utilizan para fermentar pan, vino y cerveza, facilitando la conversión de los azúcares de distintos productos en alcoholes.

Es fácil ver que las enzimas son uno de los principales componentes de la vida tal como la conocemos en nuestro mundo, ya que permiten sintetizar o crear materiales que necesitamos (por ejemplo, uniendo aminoácidos para crear proteínas), o degradándolos (como al digerir las proteínas de nuestros alimentos para descomponerlas en aminácidos que podamos utilizar) o bien produciendo energía para el funcionamiento de todo organismo.

Como ejemplo de algunas de los miles de enzimas que están activas en el cuerpo humano tenemos a la sucrasa, que digiere azúcares complejas y almidones; las proteasas, que digieren las proteínas de las carnes, nueces, huevo y queso o la lipasa, que descompone algunas grasas. La presencia o ausencia de determinadas enzimas puede ser determinante en muchos procesos. Por ejemplo, las personas que son intolerantes a la lactosa no pueden crear la enzima llamada, precisamente, lactasa, y por tanto no pueden digerir este azúcar comúnmente presente en la leche.

El trabajo de Ochoa lo llevó a aislar una enzima, procedente de una bacteria con la que consiguió crear ARN sintético por primera vez en la historia, un logro que abrió muchas puertas para la investigación genética. En un principio, se creyó que esta enzima era la ARN-polimerasa, que es necesaria para producir copias (transcripciones) en ARN utilizando el ADN como plantilla. El estudio relatando sus trabajos se publicó en 1955. Por entonces, un científico que había sido su alumno, Arthur Kornberg, consiguió igualmente producir ácido desoxirribonucleico sintético. El trabajo de ambos permitió entender cómo se forman las moléculas de ADN y ARN a partir de moléculas más pequeñas. Fue por ello que en 1959 se les informó que se les concedía el Premio Nobel de Medicina o Fisiología “por sus descubrimientos del mecanismo en las síntesis biológicas del ácido ribonucleico y ácido desoxirribonucleico”.

En 1960 se descubrió que esa enzima no era realmente ARN-polimerasa, sino que tenía el nombre de polinucléotido fosforilasa, y que en el interior de la célula no era la responsable de la transcripción del ARN, aunque podía crear moléculas de ARN fuera de la célula, mientras que las investigaciones lograron identificar a la ARN-polimerasa.

Pero esto no significaba demérito alguno al trabajo del asturiano. La enzima aislada y utilizada por Severo Ochoa fue utilizada para crear distintos tipos de ARN sintético que colaboraron de modo decisivo a descifrar el código genético.

Mientras tanto, el científico se había unido al Colegio Universitario de Medicina de Nueva York, en el que permaneció como director del Departamento de Bioquímica hasta su jubilación en 1974.

La jubilación, sin embargo, no detuvo su trabajo. Entre 1974 y 1985 fue investigador del Instituto Roche de Biología Molecular en Nueva Jersey. En 1975, además, al término de la dictadura franquista, volvió al fin a España, donde celebró sus 70 años de edad con una memorable reunión de científicos y artistas que culminó en Figueras, en la casa de Salvador Dalí.

Finalmente, a partir de 1985 fungió como asesor de política científica y volvió a dar clases, ahora en la Universidad Autónoma de Madrid, donde siguió trabajando hasta su muerte, por neumonía, a los 88 años de edad, en 1993.

Severo Ochoa por toda España

El nombre de Severo Ochoa es común en los callejeros de toda España, en calles, avenidas, plazas y bulevares. También llevan su nombre escuelas de todos los niveles y centros de investigación, y varios premios, uno de ellos concedido por la fundación que legó a España. Y al menos 5 estatuas o monumentos: en el CSIC y la Universidad Complutense de Madrid, el campus de Cantoblanco de la Universidad Autónoma de Madrid, el Hospital Clínico Universitario de Salamanca, Gijón y su natal Luarca.

enero 24, 2014

Ciencia de la moral

Una de las últimas fronteras de la ciencia es abordar las cuestiones del bien y el mal, de dónde surgen y cuáles son los imperativos morales para nuestra sociedad.

El etólogo Frans de Waal
(Foto GFDL de Chowbok, enWikimedia Commons)
El experimento es espectacular. Dos monos capuchinos de en un grupo se ponen en dos jaulas adyacentes donde se pueden ver uno a otro. Cuando le entregan una piedra al experimentador, se les premia con un trozo de pepino, y ambos realizan la tarea con entusiasmo. Cuando se cambia la situación y a uno de los monos se le empieza a dar una uva mientras que al otro se le sigue dando un trozo de pepino, el segundo se inquieta. Después de ver algunas veces que a su compañero le dan uva y a él pepino, rechaza el premio, lo arroja contra la experimentadora, agita las paredes de la jaula, golpea el suelo con la mano.

Para el diseñador del experimento, el estudioso holandés de la conducta animal Frans de Waal, la reacción del segundo mono indica de modo claro que éste comprende el sentido de la justicia. “Esto son las protestas en Wall Street”, comenta.

De hecho, en algunos casos, el primer mono empieza a negarse a hacer la tarea hasta que no se empieza a premiar a su compañero de la misma manera que a él, con una uva, con un comportamiento altruista: incomodarse de modo desinteresado para que otro ser se beneficie.

La cooperación entre animales es una necesidad, sobre todo en las especies sociales que deben trabajar en equipo para sobrevivir: los lobos que cazan, los babuinos que se defienden de los leopardos, los lémures de cola anillada que defienden su territorio de los invasores. Pero el altruismo va más allá de la cooperación, porque no implica en apariencia un beneficio individual para el ser altruista.

El único animal que tiene una moral desarrollada, un concepto de lo bueno y lo malo, es el ser humano, que puede reflexionar sobre esa justicia elemental que parecen practicar otros animales. Somos el animal que puede empatizar con otros congéneres aunque nunca los haya visto y estén en otro continente. Somos también el único animal que empatiza con todos los demás animales, teniendo mascotas a las que cuida, salvando especies enteras y estableciendo estrictos lineamientos para el uso de animales en la alimentación o la experimentación.

¿Cómo surge esa moral, esa visión de lo correcto y lo incorrecto? La pregunta ha ocupado gran parte del pensamiento humano a lo largo de la historia, desde los filósofos griegos de la antigüedad, que sugerían que la razón humana bastaba para entender lo que era bueno y lo que era malo, y por tanto a practicar lo primero y evitar lo segundo.

Sin embargo, la visión dominante de muchas culturas era que la moralidad venía de fuera, que no era parte constituyente del ser humano, sino que eran los monarcas o los dioses quienes determinaban lo bueno y lo malo, premiando las buenas acciones y castigando las malas. Esta visión suponía que el ser humano tenía una naturaleza malévola que sólo se controlaba mediante una moral impuesta.

El debate sobre el origen de la moral se mantuvo en el terreno especulativo hasta la aparición de la teoría de la evolución por medio de la selección natural de Charles Darwin y Alfred Russell Wallace a mediados del siglo XIXa.

Si las características físicas son resultado de un proceso de selección que favorece ligeramente, generación tras generación, ciertos rasgos que aumentan poco a poco la probabilidad de reproducción de quienes los tienen, ¿no es lógico que pase lo mismo con el comportamiento y con los conceptos morales?

Los estudios realizados en los últimos años parecen indicar que la respuesta es “sí”. Las ventajas evolutivas de un comportamiento altruista, de conocer lo bueno y lo malo, y los mecanismos sociales para recompensar el bien y castigar el mal en función de su beneficio para la comunidad parecen estar en las bases mismas de la evolución de los homininos hasta su forma actual, que somos nosotros.

Recientes descubrimientos en una fosa funeraria neandertal de La Chapelle-aux-Saints, por ejemplo, demuestran que esta especie humana, pariente de la nuestra y parte de cuyos genes llevamos en mayor o menor medida, cuidaba de los ancianos.

En la mayoría de las especies sociales, los animales viejos, enfermos o lesionados son una carga para el grupo y suelen ser las presas preferidas de los depredadores. Pero para estos neandertales no era así, como lo evidencia el hallazgo del esqueleto de un hombre que vivió hace unos 50.000 años, que apenas podía caminar, había perdido todos los dientes y fue cuidadosamente enterrado después de su muerte.

Este ejemplar, por cierto, que tenía una deformidad en la columna vertebral, fue el responsable de que se creara la leyenda del neandertal poco inteligente que caminaba inclinado y como un gorila. Hoy sabemos que nuestros parientes caminaban tan erguidos y tan eficientemente como nosotros... o más. Este hombre había sido cuidado hasta los 40 años de edad, más o menos, una edad provecta según los estándares de la especie. William Rendu, del Centro Nacional de Investigaciones Científicas de Francia, explicaba que sin dientes, probablemente otros miembros del grupo masticaban su comida, y con la cadera dañada y varias vértebras fusionadas, no se podía mover por sí mismo. Y sin embargo, el grupo lo llevaba consigo aún a riesgo de quedar más expuestos a los ataques de depredadores o de otros grupos de neandertales y, quizá, Homo sapiens.

Aunque los biólogos evolutivos, genetistas, paleoantropólogos, psicólogos y otros científicos aún están desentrañando los mecanismos mediante los cuales el ser humano desarrolló los conceptos abstractos de bien y mal, entre ellos algunos tan universales como el tabú contra el asesinato o el robo, lo que parece cierto es que, en palabras del Frans de Waal, la moral antecedió con mucho a las religiones organizadas y quizá el valor de éstas es, precisamente, no crear la moral, sino fortalecer su cumplimiento, como un mecanismo de fortalecer lo que las sociedades ya conceptuaban como bueno o malo.

El biólogo Edward O. Wilson había dicho, en 1975, que la ética algún día sería retirada de las manos de los filósofos e incorporada en la síntesis evolutiva de la biología moderna. Quizá ese día ya ha llegado, con el trabajo de estudiosos como Richard Dawkins, Steven Pinker, Sam Harris, Joshua Green o Elizabeth Phelps, entre otros, que tienen ahora la misión de desentrañar los mecanismos del bien y el mal entre los seres humanos.

Bienestar y moral

“La moralidad debe relacionarse, a algún nivel, con el bienestar de criaturas conscientes. Si hay formas más y menos efectivas mediante las cuales buscamos la felicidad y evitar la miseria en este mundo, y claramente las hay, entonces hay respuestas correctas e incorrectas a las cuestiones de la moral”. Sam Harris, neurocientífico.

enero 14, 2014

Cabello... ¿y plumas y cuernos de rinoceronte?

Una molécula casi indestructible, que une a prácticamente todos los seres vivos, y que a lo largo de la evolución se ha utilizado para los más diversos fines... incluso ponerse guapo.

Rinocerontes blancos pastando en el zoológico de Dublín,
a salvo de los cazadores furtivos que buscan sus cuernos.
(Foto CC de Aligatorek, vía Wikimedia Commons
El cabello... y también las plumas y la superficie de los picos de las aves, como los cuernos de rinoceronte y de otros animales, comparten una característica con todo el pelo y lana, uñas, garras, capas superiores de la piel y pezuñas del reino animal. Y añadamos las escamas de los reptiles y las conchas de las tortugas. Todos están formados por variantes de una familia de sustancias fibrosas estructurales que son esenciales para el cuerpo de los mamíferos, aves y reptiles: las queratinas.

Las queratinas tienen composiciones químicas variadas sobre una base común que, según el nivel de ciertos aminoácidos, les permiten ser extremadamente duras, como las pezuñas de un caballo, o flexibles y sedosas como el cabello de un bebé, sirviendo así para muchos usos: como armas, protección para caminar, abrigo, etc. Aunque las llamamos proteínas, los científicos prefieren decirles “polipéptidos”, pues sólo tienen entre 10 y 100 aminoácidos, mientras que las verdaderas proteínas serían las que tienen más de 100 aminoácidos.

En los anfibios, estas proteínas son poco frecuentes, sólo las ranas la tienen en sitios donde su piel se ve sometida a gran desgaste, como la boca y, entre los peces, sólo algunas clases tienen dientes hechos de queratina. Sus escamas, en cambio, a diferencia de los reptiles, pueden estar hechas de estructuras similares al hueso, dentina (la misma sustancia que protege nuestros dientes), un esmalte llamado vitrodentina o colágeno, entre otras sustancias.

Desde un punto de vista químico, la queratina es una molécula dura y totalmente insoluble formada por cadenas de aminoácidos como la lisina, la arginina y la cisteína, en forma de disulfato, que se disponen en hojas paralelas formando agrupaciones muy resistentes. La única sustancia similar en el mundo animal es la quitina, que forma el exoesqueleto de los atrópodos, desde los langostinos hasta las moscas. De la resistencia de la queratina dan fe las exhumaciones de gente que, cientos de años después de haber fallecido, conserva a su alrededor cabello y uñas. Esto se debe a que sólo algunos hongos y bacterias cuentan con las proteínas necesarias para digerir o descomponer la queratina.

Como detalle curioso, la presencia de azufre en el disulfato de cisteína es la responsable del olor desagradable que produce la queratina al quemarse, sea cabello, cuerno, uñas, etc.

Como seguramente usted sabe, su piel está formada por varias capas de células que se forman a nivel profundo y van subiendo hacia la superficie. Primero, las células son parte de la dermis, que es la que protege nuestro cuerpo y da elasticidad a la piel. Al paso del tiempo, las células pasan a una capa superior, la epidermis, y adquieren un nuevo nombre al cambiar sus funciones, llamándose queratinocitos o células de queratina. La epidermis está formada por varias capas y, mientras las células pasan a las superiores, se van “cornificando” al producir cada vez más queratina hasta que pierden su núcleo y órganos y mueren.

Esa capa superior de la piel es conocida como “estrato córneo”, precisamente porque está formado únicamente por la queratina de las células muertas, y nos protege de los elementos y el agua. La queratina también forma las callosidades de la piel, como respuesta a un exceso de frotamiento o presión en un punto determinado de la piel, como las puntas de los dedos de guitarristas y otros músicos que tocan instrumentos de cuerda, los labios de quienes tocan algunos instrumentos de viento como la trompeta, o las manos de los obreros que hacen intenso trabajo manual. Los callos son queratina.

Liso o rizado, y otros misterios

El cabello, por su parte, está formado por otro tipo de queratina capaz de formar largos cables que cubren todo el cuerpo de muchos animales, aunque en nosotros, los “monos desnudos” como nos llamó el etólogo Desmond Morris, el cabello más importante es el que crece en nuestras cabezas.

Por cierto, una de las características más llamativas del cabello es que cada una de las más o menos 100.000 hebras que hay en nuestras cabezas (salvo que suframos alguna forma de calvicie) puede ser completamente liso y recto o rizado apretadamente como sacacorchos. Esta diferencia se debe a la forma de nuestros folículos pilosos, los pequeños órganos de nuestra epidermis que producen cada hebra de cabello, y del ángulo respecto de la piel al cual se produzca. Los folículos pilosos circulares y que producen pelo que crece casi perpendicular al cuero cabelludo dan como resultado cabello totalmente liso. Si los folículos pilosos tienen una forma de óvalo muy alargado y el pelo crece en un ángulo muy agudo, el cabello es rizado.

No hay nada qué hacer para cambiar esto, porque la forma de nuestros folículos pilosos está determinada genéticamente, es decir, es resultado de la mezcla de genes de nuestro padre y nuestra madre. Y, en general, se considera que el cabello rizado es dominante sobre el liso, es decir, si alguno de nuestros padres tiene el cabello rizado, lo más probable es que nosotros también lo tengamos así.

Por cierto, en el mundo de los supuestos alimentos funcionales y la charlatanería cosmética existen diversos alimentos y suplementos que afirman contener queratina, y que prometen por tanto que esa queratina se aportará a nuestro cabello para hacerlo más resistente, grueso y atractivo. Sin embargo, el aparato digestivo humano no puede digerir la queratina, al carecer la enzima (proteinasa-K) necesaria para descomponer esa proteína, ni la absorbe para llevarla al cabello, simplemente la elimina con las heces. También, como ocurre con quienes padecen “tricofagia”, literalmente “comer pelo”, y algunos animales, se pueden formar en el estómago bolas de pelo que pueden incluso tenerse que retirar quirúrgicamente.

Una de las grandes dudas que parecen haberse resuelto últimamente respecto de esta resistente proteína es que, al parecer, los picos de algunos dinosaurios estaban hechos de queratina, una innovación que mejoraba la estabilidad del cráneo al alimentarse, característica que transmitieron a sus descendientes: las aves.

El cuerno de rinoceronte

El cuerno del rinoceronte, al cual diversas supersticiones le atribuyen propiedades mágicas provocando la cacería furtiva de este animal, no está formado por un núcleo de hueso recubierto de queratina, como los cuernos de los vacunos, las cabras o los antílopes. Pero tampoco es una agregación de pelo como se creía en el pasado: es queratina como la de las pezuñas de los caballos, con depósitos de calcio que le dan fuerza y rigidez. Y, por supuesto, no es un afrodisiaco.

enero 08, 2014

Pasado y futuro de los cometas

Espectaculares y fascinantes, los cometas que rasgan el cielo ocasionalmente son mensajeros de los confines de nuestro sistema solar y claves para conocer el universo.

El cometa ISON camino al sol el 21 de noviembre
de 2013. (Foto CC de Juan Carlos Casado,
vía Wikimedia Commons)
Los cometas son ciertamente fenómenos cósmicos enormemente atractivos, impredecibles (salvo excepciones de cometas periódicos como el Halley), espectaculares y de aspecto distinto a todo lo demás que observamos. Por ello, para muchas culturas precientíficas, contradecían el orden del universo que tan intensamente observa la humanidad desde el principio de la agricultura. El movimiento de los objetos en el cielo es predecible y exhibe ciclos muy específicos. Pero los cometas aparecían de pronto, se movían a gran velocidad con su brillante cuerpo y su alargada cola, y por ello era frecuente que se les considerara avisos o presagios, generalmente de acontecimientos negativos.

Uno de los más antiguos relatos de la humanidad, la “Epopeya de Gilgamesh”, escrita hace al menos 2.000 años en Mesopotamia, advertía que la llegada de los cometas traía consigo incendios, azufre e inundaciones, mientras que los Yakut de Mongolia los llamaban “hijas del diablo”. El temor a los cometas fue una constante y se les culpaba, previsiblemente, de toda tragedia ocurrida cuando uno era visible, desde el asesinato de Julio César hasta la peste negra en Inglaterra durante la Edad Media. Sólo en China, considerados como “estrellas viles”, se registró más desapasionadamente la aparición de cometas a lo largo de los siglos.

Todo cometa que tenga la posibilidad de ser visible desde la superficie de nuestro planeta es noticia, ya sea el Gran Cometa de Marzo de 1843, visible durante el día y que exhibió una cola de una longitud de dos veces la distancia entre la Tierra y el Sol, un cometa que vuelve a la vecindad del sol cada 75-76 años como el Halley o cometas que han resultado decepcionantes por haberse destruido al pasar cerca del sol, como el Kohoutek o el ISON de 2013.

Pero incluso cometas que no han pasado cerca de nuestro planeta pueden capturar nuestra imaginación. El Shoemaker-Levy 9, por ejemplo, se rompió en julio de 1994 al pasar cerca de Júpiter y sus fragmentos cayeron al planeta gaseoso, lo que permitió adquirir una enorme cantidad de conocimientos sobre el gigante de nuestro sistema solar, atrayendo una enorme atención de los medios de comunicación. Aunque hay evidencias de cometas chocando con los planetas, incluido el nuestro, era la primera vez que los astrónomos podían ver un acontecimiento así.

El nombre de ese cometa también llama la atención. ¿Por qué Shoemaker-Levy? Porque fue un cometa descubierto simultáneamente por Eugene y Carolyn Shoemaker, una pareja de astrónomos profesionales, y David Levy, astrónomo aficionado. Han codescubierto varios cometas, el noveno de los cuales protagonizó el célebre choque contra Júpiter.

Los cometas pueden ser descubiertos por aficionados o profesionales, ya sea con telescopios o mediante la observación de fotografías realizadas por satélites como el SOHO, dedicado a la observación del Sol. Los cometas suelen ser llamados de acuerdo a sus descubridores. La palabra “cometa”, por cierto, significa “el que tiene cabello”, pues su cola parece una larga cabellera
Fue hacia el siglo XV, con la revolución científica, que los cometas pasaron definitivamente del terreno de la superstición al del estudio ordenado y metódico, mismo que a su vez permitió determinar que los cometas son cuerpos que giran alrededor del sol como los planetas, pero lo hacen, según pudo comprobar Issac Newton con sus cálculos, en elipses muy, muy alargadas. Al calcular las elipses se pudo ver que algunos cometas provenían de muy lejos, de los bordes exteriores del sistema solar.

Hoy, la hipótesis más aceptada es que algunos cometas provienen de una capa esférica de objetos de hielo que rodea el sistema solar a una distancia de entre 5.000 y 100.000 veces la que hay entre el sol y nuestrso planeta. Esta nube de cometas se conoce como Nube de Oort, por haber sido propuesta por el astrónomo Jan Oort. Las perturbaciones gravitacionales serían las responsables de que algunos de esos cuerpos caigan hacia la parte interior del Sistema Solar. Su órbita puede tardar miles de años en completarse y por ello se les llama cometas de período largo.

Por contraste, los comentas de período corto tardan menos de 200 años en completar una órbita alrededor del sol, y se cree que proceden de un disco de cuerpos llamado Cinturón de Kuiper, que estaría más allá de la órbita de Neptuno.

Tanto unos como otros son, se cree, restos de la formación de nuestro sistema solar hace más de 4.600 millones de años, y por tanto su composición es la misma y puede revelar datos sobre las condiciones de ese acontecimiento. El núcleo de un cometa es una mezcla de hielo, polvo y roca que raras veces tiene más de 50 km de diámetro y que al acercarse al sol se calienta. Esto provoca que el hielo que contiene se sublime formando una nube de gases volátiles alrededor del núcleo, llamada “coma”. La cola está formada por gases y polvo que son empujados por el viento solar, de modo parecido a una estela. Por ello, la cola siempre apunta en dirección contraria al sol, de modo que al dar la vuelta alrededor del sol y empezar a alejarse, la cola apunta en la dirección de su movimiento, como una barba más que una cabellera.

Hasta hoy, el momento culminante del estudio de los cometas ocurrió en abril de 2005, cuando la sonda “Impactor” de la misión Deep Impact (“impacto profundo”) se estrelló contra el cometa Tempel I, procedente de la Nube de Oort, para estudiar por primera vez directamente la composición de un cometa. Esta hazaña deberá ser superada por la nave espacial Rosetta de la Unión Europea, lanzada en 2004, y que en noviembre de 2014 deberá hacer descender una sonda suavemente en el cometa 67P/Churyumov/Gerasimenko, y hacer un estudio prolongado de la composición del cometa con diversos instrumentos robóticos.

Así, antes que presagios malignos, los cometas nos traen información sobre nuestro sistema solar y el comportamiento del universo que nos rodea, además del disfrute innegable de la belleza y majestuosidad de uno de estos cuerpos cruzando la bóveda celeste y recordándonos los verdaderos misterios que hay allá afuera.

Morir por el cometa

Las supersticiones alrededor de los cometas, sin embargo, no han desaparecido del todo. Cuando apareció el cometa Halle-Bopp en 1997, una secta adoradora de los ovnis y sus supuestos tripulantes extraterrestres, Puerta del Cielo decidió que una nave espacial extraterrestre viajaba detrás del cometa, oculto por él. El 26 de marzo de 1997, 39 miembros del grupo se suicidaron en grupo con la idea de que sus almas serían recogidas por la nave y llevados a un plano superior de existencia.