Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

junio 21, 2014

Pensar que el otro piensa

Para prosperar como especie, es necesario que podamos comprender lo que los demás piensan y sienten, saber que son como nosotros y formar con ellos una comunidad.

"El pensador", bronce de Auguste Rodin.
(Foto GDL de Nicolás Pérez, vía Wikimedia Commons)
Uno de los más grandes misterios del universo se encuentra en nosotros mismos, en el propio órgano que nos permite saber que existen el universo y los misterios, y buscar resolverlos: nuestro cerebro. Con él percibimos, procesamos, sentimos y actuamos, pero estamos lejos de comprenderlo en su colosal complejidad. Unos cien mil millones de neuronas, conectadas cada una con otras miles, en billones de conexiones. Neuronas que a su vez viven inmersas en un tejido de células estructurales diez veces más numerosas y que tampoco hemos comprendido aún.

Además del estudio de las conexiones y las zonas funcionales de nuestro encéfalo, podemos estudiarlo a través de nuestras emociones, sensaciones, memoria, idioma, cálculo, razonamiento, resolución de problemas, toma de decisiones y otras funciones. Lo que llamamos mente, palabra que apenas está vagamente definida.

Podemos saber con razonable certeza que, efectivamente, la mente es producto del funcionamiento del encéfalo, de la transmisión de impulsos entre las conexiones de nuestras neuronas. Cuando por un accidente, lesión o enfermedad se pierde el uso de ciertas zonas del encéfalo, perdemos las capacidades relacionadas con esas zonas. Así hemos podido saber qué zonas se ocupan de la vista, del habla, de la audición, de ciertas emociones y de ciertos procesos de razonamiento.

Conocemos esos procesos porque los convertimos en expresiones observables, en comportamientos, palabras, acciones o expresiones que otras personas pueden medir. Pero si no los expresáramos, como ocurre en ocasiones, voluntariamente o forzados, ocurren sólo en lo que llamamos nuestra vida interior, sabemos que el sentimiento de alegría está allí aunque reprimamos la risa; sabemos que el deseo de comer está allí aunque no extendamos el brazo para llevarnos un trozo de comida a la boca; entendemos lo que nos dicen aunque no respondamos.

El problema de esa vida interior es que cada uno de nosotros sabe que la tiene, pero no existe un modo objetivo, medible, físico y certero para saber que otras personas a nuestro alrededor sienten, perciben, piensan, recuerdan o deciden del mismo modo que nosotros.

Pese a ello, nuestra vida en sociedad depende precisamente de que todos nosotros tenemos la “teoría” (en sentido informal, no científico) de que los demás son como nosotros, que su mente, su vida interior son semejantes a las nuestras, que cuando lloran sienten una tristeza parecida a la que sentimos nosotros cuando lloramos, y que cuando vemos un paisaje estamos percibiendo lo mismo.

A esto se le llama “teoría de la mente”, no es una teoría que explique la mente, sino la teoría que tenemos nosotros de que la mente de los otros es como la nuestra. Esto también explica nuestra sorpresa y, a veces, rechazo, cuando vemos que otros sienten o piensan de modo muy distinto al nuestro.

Rizando el rizo, surge la pregunta de si todos tenemos una teoría de la mente. ¿A qué edad la desarrollamos?

Dos psicólogos diseñaron un experimento a principios de la década de 1980 para determinarlo, conocido como la tarea de la “falsa creencia”. Se cuenta o escenifica una historia en la cual un personaje llamado Maxi guarda una barra de chocolate en un cajón y se va de paseo. Mientras está fuera de la casa, su mamá toma un trozo de chocolate para cocinar y guarda la barra en un armario. Maxi vuelve a casa. La pregunta es: “¿Dónde va a buscar el chocolate Maxi?”

Los niños menores de 3 años suelen responder que Maxi va a buscar el chocolate en el armario, suponiendo que Maxi sabe lo mismo que ellos saben. No pueden imaginar que otras personas tengan un conocimiento distinto del de ellos. Pero entre los 3 y los 4 años, los niños desarrollan la capacidad de atribuirle a Maxi un estado mental acorde con la experiencia de Maxi, una falsa creencia. Es decir, los niños “se ponen en los zapatos de Maxi” y piensan según la experiencia de Maxi. Saben que buscará el chocolate en el cajón porque allí es donde cree que está. Le han “leído la mente” a Maxi, de cierto modo.

A partir de ese momento, los niños pueden ver más allá de sí mismos para vivir y comprender los deseos, necesidades y estados mentales y emocionales de los demás. Es psicología práctica para leer la mente de otros. No, ciertamente, como pretenden hacerlo los mentalistas o los videntes que engañan mediante técnicas como la lectura en frío, sino de un modo más directo. Si sabemos que alguien ha ganado un premio podemos “saber lo que piensa y siente”, una gran alegría. Ver la actitud de otras personas puede bastarnos para suponer que están tristes, y evocar la pregunta “¿qué te pasa?”... y además permitirnos saber que mienten cuando dicen “nada”.

Es cuando menos plausible pensar que una habilidad tan singular como la teoría de la mente es producto, como otros comportamientos, sensaciones y formas de pensar, producto de nuestra evolución como especie. Es una capacidad que ofrece claras ventajas para los individuos en una sociedad como la humana, que depende tan estrechamente de la cooperación y el altruismo, dos aspectos que exigen que los miembros de la comunidad tengan esa teoría.

No sabemos cómo evolucionó esta capacidad, pero hay hipótesis como la de la “inteligencia maquiavélica”, según la cual además de sus ventajas sociales favoreciendo la cooperación, la teoría de la mente nos permite también hacer manipulaciones sociales, mentir y engañar. De hecho, el concepto de “teoría de la mente” surgió hacia 1978 de estudios sobre la capacidad de primates como los chimpancés de comprender las motivaciones de otros miembros de su especie.

Los primeros estudios lo ponían en duda, pero investigaciones posteriores han determinado que otros animales parecen tener una teoría de la mente, entre ellos los chimpancés y orangutanes, los elefantes, cetáceos como los delfines y algunas aves como los córvidos (la familia de los cuervos). La evidencia no es, sin embargo, concluyente.

Ceguera a la mente

Algunas personas no pueden asumir la perspectiva de otros, no tienen una teoría de la mente o la tienen incompleta o defectuosa. Se ha propuesto que ésa es una de las características del autismo y, por tanto, una forma de diagnosticarlo, pues los autistas no pueden determinar fácilmente las intenciones de otras personas y tienen problemas en sus interacciones sociales. Quienes padecen esquizofrenia o están bajo la influencia de sustancias que alteran la química cerebral, como las drogas, son también ciegos a la mente de los demás. Y, por supuesto, los psicópatas son incapaces de asumir que el dolor que sufren otros es igual al dolor que ellos mismos pueden llegar a sufrir.

junio 20, 2014

La Luna, su origen y su futuro

Es la presencia nocturna más llamativa, que ha inspirado por igual a filósofos, artistas y científicos. Pero, estando tan cerca, aún no hemos podido resolver el acertijo de su origen.

La Luna distorsionada por una hoguera
de la noche de San Juan.
(Foto © Mauricio-José Schwarz)
Al ver la luna llena en la noche resulta todavía difícil apreciar, aunque lo sepamos, que estamos viendo un cuerpo celeste sólido, esencialmente una gran roca semiesférica, suspendida en el espacio, girando alrededor de nuestro planeta y debe su singular color plateado y sus fases a la luz que refleja del sol.

Incluso más que el Sol, la Luna ha sido además el gran puente entre el conocimiento y el arte, entre la astronomía y los poemas y canciones que desde los inicios de la cultura el hombre ha dedicado a ese peculiar cuerpo que le permitió, antes de que dominara el fuego y otras fuentes de iluminación, moverse y actuar durante al menos algunas noches en cada ciclo lunar.

Hoy sabemos mucho acerca de la Luna, su composición, su movimiento, su posición... A lo largo de 6 visitas que sumaron un total de más de 330 horas en la superficie lunar, 12 astronautas estadounidenses del programa Apolo, además de diversas sondas robóticas tanto estadounidenses como soviéticas recogieron muestras de distintas zonas del satélite, lo fotografiaron, lo midieron e incluso dejaron en su superficie reflectores, el llamado experimento LLR (siglas en inglés de Medición Lunar por Láser) que hasta hoy utilizan varios laboratorios para determinar la distancia exacta a la que se encuentra nuestro satélite lanzando desde la Tierra un láser, recibiendo su reflejo y calculando la distancia a partir del tiempo que pasa entre que la luz sale hasta que vuelve, una media de 1,282 segundos.

Resulta extraño pensar, sin embargo, que hubo una época, una larga época de la historia de nuestro planeta, en que la luna simplemente no estuvo allí.

Y mucho más extraño resulta pensar que, en un futuro, la luna dejará de estar iluminando la noche.

La órbita de la Luna, que nos parece constante y uniforme a lo largo de toda la historia, es sin embargo tremendamente dinámica y cambiante.

A lo largo de miles de millones de años, las fuerzas de marea debidas a la atracción gravitacional mutua entre la Luna y la Tierra han provocado que se ralentice la rotación de la Luna hasta que su período de rotación es igual a órbita alrededor de nuestro planeta, de modo que nosotros sólo podemos ver un lado de la Luna, y para conocer el otro hemos tenido que lanzar observatorios y sondas robóticas. La Luna también afecta la rotación de la Tierra, ralentizándola. Hace 900 millones de años el día duraba sólo 18 horas y el año tenía 468 de ellos. Durante la época de los dinosaurios, el año contaba con 398 dias de 22 horas.

El propio experimento LLR nos ha permitido determinar, a través de una serie de mediciones realizadas desde 1969 hasta la fecha, que la Luna se está alejando paulatinamente nuestro planeta... alrededor de 3,8 cm cada año. Lo cual también nos dice que en el pasado la Luna estuvo mucho más cerca que ahora, ofreciendo un espectáculo aún más asombroso que, por desgracia, no había nadie que disfrutara.

Esto presenta un problema adicional. Si hacemos el cálculo inverso, y suponemos que la Luna estaba 3,8 cm más cerca cada año en el pasado, la luna no podría tener más de 1500 millones de años de antigüedad. Sin embargo, calculando la posibilidad de que la órbita de la luna hubiera cambiado al paso de los años, se ha calculado que su antigüedad es de aproximadamente 4 mil millones de años... 500 millones de años más joven que el planeta, cuya edad se calcula en 4.540 millones de años.

¿De dónde vino la Luna y a dónde va?

Fue el nieto de Charles Darwin, George Howard, quien propuso en 1878 la que sería la primera teoría del origen de la Luna. Imaginó que, en los años juveniles de la Tierra, el planeta giraba tan rápido que se le desprendió un enorme fragmento, que sería la Luna. Esta teoría, recibida con entusiasmo, se aderezó pronto con la idea de que la cuenca del océano Pacífico era el lugar del que se había desprendido la Luna.

La seductora teoría se mantuvo como explicación plausible hasta principios del siglo XX. En 1909, el astrónomo Thomas Jefferson Jackson propuso que la luna era un cuerpo que vagaba por el espacio y había sido atrapado por la gravedad de la tierra, quedando en órbita a su alrededor. Poco después, el astrónomo Eduard Roche propuso una tercera hipótesis: la tierra y la luna se habían formado independientemente al mismo tiempo, dos cuerpos unidos por la gravedad desde los inicios del sistema solar.

Sólo el conocimiento de la composición de la Luna y los detalles de su historia han permitido ir desechando estas hipótesis. La primera, por ejemplo, exigiría que la composición de la Luna y la Tierra fueran mucho más parecidas de lo que son según demuestran, sobre todo, el estudio de las muestras de suelo y rocas lunares traídos por los astronautas del programa Apolo y tres robots del programa Luna de la Unión Soviética.

La hipótesis que actualmente se considera más plausible se conoce como la del Gran Impacto. En resumen, propone que durante la formación de nuestro sistema solar, un planeta pequeño, más o menos del tamaño de Marte, chocó con la Tierra, lanzando al espacio una nube de materiales mezclados de ambos cuerpos que, eventualmente, se acumularon hasta formar nuestro satélite. Sin embargo, es una hipótesis con varios problemas y no está en modo alguno confirmada.

Hoy no sabemos todavía exactamente por qué tenemos ese espectáculo nocturno maravilloso.

Sabemos sin embargo algo más acerca de su futuro. De continuar las tendencias observadas actualmente, la Luna se alejará de nuestro planeta hasta que su rotación a su alrededor alcance los 47 días. Para entonces, ambos cuerpos habrían quedado enlazados gravitacionalmente, dando los dos la misma cara hacia el otro, de modo que el día en la Tierra duraría también 47 días. Es decir, sólo la mitad de la Tierra miraría hacia la Luna, y la mitad de nuestro planeta se quedaría para siempre sin Luna.

Este sería el escenario dentro de 50 mil millones de años. Pero es sólo una especulación, pues muchísimo antes, dentro de aproximadamente 5 mil millones de años, el desarrollo del Sol lo convertirá en una estrella gigante roja que previsiblemente engullirá a ambos cuerpos.

Mucho antes de entonces, esperamos, habremos podido resolver el misterio del origen de nuestra Luna y, quizá, tener en ella las bases habitadas que ha soñado la ciencia ficción.

Datos vitales de la Luna

Diámetro: 3.475 kilómetros, aproximadamente el 27% del de la Tierra. Distancia de nuestro planeta: un promedio de 384.400 km. Gravedad: 17% de la de la Tierra. Período orbital: 29,5 días para dar una vuelta alrededor de la Tierra. Duración del día: 708 horas. Temperatura: entre -233 y 123 ºC.

junio 18, 2014

Los zorros plateados de Belyaev

Uno de los más grandes y prolongados experimentos de la historia de la biología, que empezó en 1957 y sigue hoy, ha reproducido, aceleradamente, el proceso de domesticación que convirtió al lobo en perro.

Dmitri Belyaev con sus zorros domesticados.
Es difícil imaginarse que investigar ciencia pueda ponerle a uno en peligro de muerte. Más en el siglo XX. Pero así fue en la antigua Unión Soviética durante el reinado de terror de Trofim Lysenko, pseudocientífico defensor de una variedad del lamarckismo (la idea de que las experiencias de un organismo se transfieren genéticamente a su descendencia).

Lysenko empezó en 1927 a hacer promesas delirantes de duplicar o triplicar el rendimiento de los cultivos, con una “ciencia soviética” que superaba a la falsa “ciencia burguesa” de Mendel y Darwin. Era lo que quería escuchar Joseph Stalin, que lo puso al frente de la Academia de Ciencias Agrícolas en 1935. Durante los años siguientes, la fuerza política de Lysenko le permitiría expulsar, encarcelar y hasta matar a todos los biólogos que no aceptaran su pseudociencia. Detuvo así el avance de la genética en la URSS hasta que en 1964 lo denunció como pseudocientífico el físico Andrei Sakharov.

Entre las víctimas de Lysenko estaba el biólogo Dmitry Belyaev, despedido del Departamento de Cría de Animales para Peletería en 1948. Fue el año en que se prohibió la genética y se cambiaron los libros de texto para sustituirla por los delirios políticamente exitosos de Lysenko. El hermano de Belyaev, también genetista, fue arrestado y ejecutado de un disparo.

Pero Belyaev buscó la forma de seguir trabajando en su pasión: los mecanismos de la domesticación. El perro proviene del lobo. De hecho, genéticamente es un lobo. Y sin embargo, todo el comportamiento y desarrollo de un perro son distintos de los de un lobo. Todos los animales domesticados por el hombre, como mascotas, para trabajo o para su aprovechamiento, tiene esas notables diferencias que ya había observado Darwin.

La hipótesis de Belyaev era audaz: el perro no había surgido de la cuidadosa selección de distintas características por parte de los humanos que lo domesticaron, sino que se había seleccionado naturalmente con la sola característica de la mansedumbre. Todos los demás cambios observados en el animal serían consecuencia de ese sencillo principio.

Para probarlo, tenía que domesticar animales. Pero no mediante la enseñanza o el condicionamiento, sino seleccionándolos, replicando de modo acelerado el proceso. Decidió utilizar zorros plateados, un animal con el que estaba familiarizado. Seleccionó como base de su experimento a 130 zorros especialmente tranquilos en granjas de pieles donde se les había criado durante medio siglo.

Pero un experimento genético en ese momento implicaba jugarse la libertad, el empleo e incluso la vida. El estudio de la fisiología de los zorros plateados, por el gran valor económico que les dan sus pieles, fue el pretexto encubridor del experimento en domesticación

Desde que los zorros tenían un mes de edad hasta su madurez sexual más o menos a los ocho meses, se valoraban sus reacciones ante un experimentador con unos pocos criterios objetivos: ¿se dejaban tocar si se les ofrecía comida o trataban de morder al experimentador?, ¿tendían a pasar su tiempo en compañía de otros zorros o de humanos? No se les adiestraba ni pasaban demasiado tiempo con los experimentadores para evitar que los cambios observados fueran producto de la experiencia y no de la genética. Los que exhibían menos agresión y miedo hacia los seres humanos se cruzaban entre sí, menos del 20% de la población. Como grupo de comparación o control, Belyaev crió separadamente a los zorros más temerosos y agresivos de cada generación.

Belyaev llevó a cabo su trabajo en relativo secreto desde 1957 hasta 1959, cuando a la muerte de Stalin empezaron a cambiar los vientos soviéticos y se le nombró director del Instituto de Citología y Genética de la Academia Rusa de Ciencias. Allí continuó su experimento, que empezó a mostrar resultados a las pocas generaciones. Cuando habían pasado 40 generaciones, los cambios eran notables.

En cuanto a comportamiento, los zorros preferían estar con los humanos, gemían para llamar la atención, olían y lamían a sus cuidadores y movían la cola cuando estaban contentos o emocionados... todas ellas características comunes en los perros. En cuanto a su forma, empezaron a tener orejas caídas, cola enroscada, temporadas de reproducción más prolongadas y cambios en la forma del cráneo, las mandíbulas y los dientes. Y su color se hizo más claro que el de sus ancestros no domesticados. Estos cambios también tenían una contraparte fisiológica: los zorros de Belyaev tenían niveles reducidos de adrenalina, la hormona que controla el miedo y se produce como respuesta a la tensión.

El siguiente paso sería determinar cuáles son las diferencias genéticas de estos zorros respecto de los más agresivos, cuáles genes están implicados en el proceso de domesticación.

Y si se podía hacer esto con zorros, resultaba plausible pensar que los perros se habían domesticado también por selección natural, no humana: los menos temerosos hallaban más fácil acercarse a los grupos humanos que podían darles las sobras de su comida, y al paso de un tiempo indeterminado, se habrían integrado a la sociedad como mascotas y animales de trabajo (principalmente de caza).

Y se pudo hacer. Belyaev continuó trabajando hasta su muerte en 1985, pero el experimento continúa, hoy bajo la dirección de Lyudmilla Trut. Los zorros domesticados continúan siendo objeto de estudios no sólo de su instituto, sino de biólogos evolutivos, genetistas y fisiólogos de todo el mundo que visitan a la manada de un centenar de zorros. Belyaev consideraba que el experimento habría terminado cuando los zorros pudieran ser adiestrados como los perros, y su mapa genético nos pudiera decir cuáles genes están implicados (por cambiar ellos o su expresión) en el fenómeno de la domesticación. Y se han emprendido otros estudios como uno que se está realizando en Dinamarca criando minks americanos para domesticarlos.

El experimento de Belyaev aún tiene mucho por ofrecer en cuanto al conocimiento de la genética, la evolución y el comportamiento. Un experimento resultado de la valentía de la búsqueda del conocimiento ante los enemigos del pensamiento.

La neotenia

Muchas características de los zorros de Belyaev y de los perros son aspectos juveniles que se prolongan hasta la edad adulta. Así, la selección de la mansedumbre provocó este proceso, conocido como “neotenia”. Los mamíferos, por ejemplo juegan cuando son cachorros y dejan de hacerlo al volverse adultos. Pero los perros, los zorros de Belyaev y nosotros mismos, jugamos toda la vida. Porque nosotros también somos como somos debido a la neotenia.

mayo 16, 2014

Jacob Bronowski, el inspirador de Cosmos

Escritor, poeta, matemático, apasionado de la ciencia y el humanismo, Jacob Bronowski fue lo más cercano a un hombre del renacimiento en el siglo XX.

Jacob Bronowski en el campo de exterminio de
Auschwitz, en su serie El ascenso del hombre.
(Imagen © BBC)
Quienes hoy disfrutan Cosmos, una odisea del espacio tiempo, presentada por el astrofísico Neil DeGrasse Tyson quizá saben que la serie nació en 1980 de la mano del también astrofísico Carl Sagan, con el nombre Cosmos, un viaje personal. Pero el principio está más atrás, en 1973, en los trece capítulos de El ascenso del hombre de Jacob Bronowski, poeta y científico.

Jacob Bronowski nació en 1908 en Lodz, hoy territorio de Polonia, vivió la Primera Guerra Mundial con sus padres en Alemania y se mudó definitivamente a Inglaterra en 1920.

Estudió el bachillerato en la Central Foundation School de Londres, y ya allí tuvo claro que no entendía ni aceptaba la separación entre “arte” y “ciencia”. En sus propias palabras “Crecí volviéndome indiferente a la distinción entre la literatura y la ciencia, que en mi adolescencia eran simplemente dos idiomas de la experiencia que aprendí juntos”.

Fue a estudiar matemáticas con una beca a Cambridge, al Jesus College, alma mater de personalidades como el poeta Samuel Taylor Coleridge o el Premio Nobel de Química Peter Mitchell. A lo largo de sus estudios logró ser alumno de primera clase por sus buenas notas en 1928. Ese mismo año fundó la revista literaria Experiment con un compañero de carrera. En 1930, se le reconoció como alumno destacado de primera clase en 1930, y permaneció en el colegio hasta recibir su doctorado en geometría en 1933. De allí pasó a un puesto de catedrático e investigador del University College Hull de la Universidad de Londres.

En sus propias palabras, Bronowski vivía en un momento de lo más estimulante. De una parte, le apasionaban los avances en la física cuántica, la división del átomo y el descubrimiento del neutrón. Pero también le entusiasmaba que “la literatura y la pintura se rehicieran debido al choque del surrealismo, y el cine (y después la radio) creció hasta convertirse en un arte”.

Habiendo pasado tiempo en Mallorca con amigos de los mundos de las matemáticas y la poesía, Bronowski fue uno de los muchos intelectuales que tomaron partido, en su caso desde la poesía, durante la guerra civil española, participando en el libro Poemas para España con el poema “La muerte de García Lorca”. De hecho, el primer libro de Bronowski, La defensa del poeta, es una serie de ensayos sobre algunos de los grandes poetas británicos.

Después de trabajar en el esfuerzo de guerra británico y escribir un nuevo libro sobre el poeta William Blake, Bronowski fue uno de los científicos ingleses que fue a Nagasaki en noviembre de 1945 para evaluar los daños de la bomba atómica. Como a muchos científicos de su época, la experiencia llevó a Bronowski a replantearse la ética de la ciencia y la necesidad de que ésta se disociara de las decisiones política. Pero, sobre todo, la necesidad de que la ciencia se acerque a la gente común.

Comenzaría entonces otra faceta de su producción literaria: El sentido común de la ciencia de 1951, donde defendía que el arte y la ciencia no son incompatibles y, de hecho, la humanidad no habría progresado si lo fueran. Le siguió El rostro de la violencia de 1954 y Ciencia y valores humanos de 1956 lo fueron convirtiendo en un comunicador de la ciencia, un divulgador y popularizador, con un dominio del idioma que le permitía explicar de modo extremadamente sencillo lo más complejo. Empezó entonces también a participar en radio y en televisión como un intelectual a nivel de calle.

En 1964 se mudó a California como Director de Biología del Instituto Salk, fundado y encabezado por el descubridor de la vacuna contra la polio, Jonas Salk. Esto le permitió a Bronowski trabajar en la herencia genética humana, lo que daría lugar al libro La identidad del hombre, después de otros volúmenes sobre poesía y ciencia. Este trabajo era consecuencia del uso que hizo de sus conocimientos estadísticos para analizar el cráneo del niño de Taung en 1950 y diferenciar sus dientes de los de otros primates, para ubicar a los australopitecos en la línea del origen del hombre.

El ascenso del hombre

En 1973, el naturalista, documentalista y por entonces interventor de la BBC, David Attenborough, decidió hacer una contraparte científica de la serie de 1969 Civilización, una visión personal de Kenneth Clark sobre arte y filosofía occidentales, y le propuso a Bronowski escribirla y presentarla. El resultado fue El ascenso del hombre, una visión personal de J. Bronowski, que recorrió por igual la evolución del hombre, la ciencia, el conocimiento y la ética del saber. El nombre elegido por Bronowski era un giro al título del segundo libro de Charles Darwin, El origen del hombre, en inglés The Descent of Man.

La producción de El ascenso del hombre fue enormemente ambiciosa. Los 13 capítulos se filmaron a lo largo de tres años en más de 20 países, con la idea de que Bronowski hablara de distintos acontecimientos históricos en el lugar mismo donde habían ocurrido. Así, viajó del lugar en Islandia donde se reunía el más antiguo parlamento democrático de Europa, el Althing, hasta el campo de exterminio de Auschwitz, desde el centro ceremonial maya de Copán a la Venecia de Galileo hasta el observatorio construido para Carl Friedrich Gauss en Gottingen. Y en cada lugar ofrecía profundos monólogos, totalmente improvisados, según sus productores.

La personalidad de Bronowski, su pasión, fueron esenciales para el éxito de la serie. Marcaron también el punto culminante de su carrera y de su vida: el 22 de agosto de 1974 murió en Nueva York víctima de un ataque cardiaco.

Su legado continuaría con un joven astrofísico que trabajaba en la NASA.

Entre el lanzamiento de las sondas marcianas Viking en 1975 y las sondas interplanetarias Voyager, Carl Sagan se dio el tiempo para plantearse una serie personal inspirada en el trabajo de Bronowski. Contrató a Adrian Malone, productor de El ascenso del hombre para empezar a diseñar y escribir la serie, y presentarla a posibles productores. Adrian Malone sería el productor ejecutivo de Cosmos, un viaje personal, la serie de ciencia más exitosa de la historia de la televisión del siglo XX. Sus 13 capítulos se transmitieron a fines de 1980.

Seguramente, Bronowski habría sonreído.

La ciencia de Bronowski

“La ciencia es una forma muy humana de conocimiento. Estamos siempre en el borde de lo conocido; siempre tanteamos hacia adelante en busca de lo que se espera. Todos los juicios en la ciencia estan en el borde del error, y es personal. La ciencia es un tributo a lo que sí podemos conocer pese a que somos falibles.” (Palabras de Bronowski en el campo de exterminio de Auschwitz)

mayo 13, 2014

Ni niño ni niña

La variabilidad cromosómica en la especie humana es mucho más asombrosa, compleja y desafiante de lo que no hace muchas décadas creíamos.

Cromosomas de una persona con síndrome de Turner, abajo
a la derecha está el cromosoma X y el espacio vacío del
cromosoma Y faltante. (Imagen CC-GFDL de The Cat,
vía Wikimedia Commons)
Los seres humanos solemos buscar fronteras precisas que no existen en la realidad. Quisiéramos saber dónde empieza una especie y empieza otra, pero nos encontramos una infinidad de gradaciones. Esperábamos que el electrón girara en una órbita precisa alrededor del núcleo del átomo, y lo que hay es una nube de probabilidad donde el electrón aparece y desaparece desafiando al sentido común. La atmósfera de la Tierra no termina en un punto para dar lugar al espacio interplanetario, sino que se va desvaneciendo.

En el terreno del sexo, tan delicado por el equipaje moral y emocional que nos acompaña, vamos aprendiendo a romper esquemas rígidos, por ejemplo con la aceptación creciente de la homosexualidad y la bisexualidad, siempre presentes aunque históricamente reprimidas culturalmente, así como de la posibilidad de que una persona tenga una identidad sexual distinta de la que dictan sus cromosomas.

Incluso en esos casos podríamos buscar consuelo pensando que, más allá de las preferencias, gustos o percepciones de uno mismo, se nace genéticamente niño o niña, o XY o XX.

Pero más o menos 1 de cada 400 niños que nacen en el mundo no son ni XY ni XX.

Los variables cromosomas

Las células germinales, óvulos y espermatozoides, se desarrollan a partir de células con la dotación genética completa de nuestra especie: 23 pares de cromosomas. Al desarrollarse, estas células se dividen en dos, cada una de ellas con sólo uno de cada par de cromosomas. Esos 23 cromosomas se unirán a los 23 de la otra célula germinal para dar lugar a una dotación genética totalmente nueva, recombinando los cromosomas del padre y de la madre.

Pero en el proceso de desarrollo de los óvulos o espermatozoides, puede haber errores al momento de esta división, y que en las células resultantes falte o sobre algún cromosoma, un trastorno que tiene el nombre de aneuploidía. Estos trastornos pueden ser monosomías, cuando sólo está presente uno de los cromosomas del par; trisomías, cuando hay tres cromosomas en lugar de dos, y tetrasomías o pentasomías que, como su nombre lo indica, cuando hay cuatro o cinco copias de los cromosomas.

Generalmente, cuando los cromosomas faltantes o sobrantes son de los primeros 22 pares, los que no intervienen en la determinación del sexo, el ser resultante no puede sobrevivir. Hay algunas trisomías con las que algunas personas pueden sobrevivir ocasionalmente, pero con notables trastornos. La más conocida es la trisomía 21, donde hay tres copias del cromosoma 21, y que provoca el Síndrome de Down. Un ser humano también puede sobrevivir con trisomía 18, que provoca el síndrome de Edwards con malformaciones en órganos como los riñones o el corazón, o trisomía 13, causante del síndrome de Patau que presenta diversas graves malformaciones en el encéfalo, la médula espinal y el desarrollo.

Cuando los cromosomas afectados son los del par 23, el que determina nuestro sexo biológico, los trastornos pueden ser más benignos. Puede haber personas con un sólo cromosoma X, que padecen diversos trastornos conocidos como el síndrome de Turner, pero no es posible vivir sólo con el cromosoma Y. El X lleva una gran cantidad de genes que resultan esenciales para la vida, mientras que el cromosoma Y solamente lleva algunas decenas de genes, uno de los cuales determina el sexo biológico.

Además, en cuanto a cromosomas excedentes, es posible tener todas las combinaciones de tres, cuatro o cinco cromosomas del par 23, siempre y cuando al menos uno de ellos sea X.

Es muy probable que usted conozca a algunas personas que tengan tres cromosomas del par 23: XXX, XYY o XXY. En el primer caso, se trata de mujeres que pueden tener algunas anormalidades del aprendizaje y suelen tener una estatura superior a la media. Las personas con trisomía XYY son hombres de aspecto normal, también con una estatura superior a la media, y que pueden tener problemas de aprendizaje. La trisomía XXY es un poco más seria y da lugar a hombres estériles, con bajos niveles de testosterona, algunos problemas de masa muscular y genitales muy pequeños, La gran mayoría de quienes tienen estas trisomías no son diagnosticados nunca, ya que su aspecto y conducta están dentro de la variación normal. Las tetrasomías y pentasomías, menos frecuentes, suelen dar como resultado mujeres con serias anormalidades físicas y mentales.

Se estima que 1 de cada 1000 niñas son XXX y 1 de cada 1000 niños son XYY.

Aún así hay variaciones adicionales, no tan poco comunes pero sí muy poco conocidas, en las que una misma persona puede tener en su cuerpo algunas células con distintas cargas genéticas, lo que se conoce como mosaico genético o “mosaicismo”. Por ejemplo, algunas células son XX y otras son XY, y la determinación del sexo en cuanto a los genitales puede ser poco clara, una condición llamada hermafroditismo donde pueden estar presentes órganos sexuales femeninos y masculinos, generalmente no funcionales o con sólo uno de ellos capaz de funcionar para la reproducción. El hermafroditismo se trata quirúrgicamente para dar al paciente genitales adecuados a su preferencia sexual.

Así, el 30% de las mujeres con Síndrome de Turner muestran algún nivel de mosaico genético, donde tienen células XX y otras donde sólo está el cromosoma X.

Y, para demoler nuestra esperanza de tener alguna claridad, existe un fenómeno adicional mucho menos común en humanos: el quimerismo. Se llama “quimera”, por el mítico animal formado de partes de otros varios, a los seres vivos que tienen celulas genéticamente diferentes, un fenómeno que se produce cuando se fusionan dos óvulos fecundados con cargas genéticas totalmente distintas. En el caso de los cromosomas sexuales, hay personas que tienen a la vez células XX y células XY. Si la cantidad de ambas es la misma, la persona es un verdadero hermafrodita.

Como tantos otros dominios de la ciencia, la genética ha demostrado que la variabilidad de la vida es mucho mayor de lo que suponíamos en el pasado. No hay fronteras claras, y no siempre existe la “normalidad” como la quisiéramos idealmente.

Lo cual es una lección que todos podemos aprender, no sólo en cuanto a genética y biología, sino en cuanto a lo impreciso de nuestras propias preconcepciones ante una realidad compleja.

El mito XYY

Dos estudios con serios problemas metodológicos llevaron en las décadas de 1960 a la creencia de que los hombres con trisomía XYY eran especialmente agresivos y con tendencias delictivas, algo que la prensa divulgó con igual poco rigor. Aunque ya en 1970 nuevos estudios demostraban que el comportamiento medio de los hombres XYY no era distinto del de los XY, el mito ha persistido.

mayo 05, 2014

Conductores y superconductores

Nos sirven para desentrañar los misterios de las partículas elementales, detectar alteraciones en nuestro cuerpo, ahorrar energía y levitar, todo ello con la buena y vieja electricidad.

Levitación de un imán sobre un superconductor.
(Foto CC de Mariusz.stepien vía Wikimedia Commons)
Cuando uno se somete a una resonancia magnética que crea imágenes precisas del interior de nuestro cuerpo usadas en diagnósticos, se beneficia de la superconducción eléctrica.

Su historia comienza hacia 1720. Un astrónomo aficionado y científico que experimentaba con electricidad estática, descubrió que ésta no sólo estaba en el vidrio que frotaba para producirla y atraer objetos pequeños. También el corcho podía hacerlo. Conectó al corcho una serie de varitas, y luego un hilo, observando que la “virtud eléctrica” se transmitía por ellos y seguía atrayendo objetos pequeños. Pronto estaba tendiendo hilos en las casas de sus conocidos y probando distintos materiales, hasta conseguir que su electricidad estática viajara unos 250 metros. Esto también le permitió determinar que algunos materiales eran conductores y otros aislantes.

Stephen Gray, había dado un salto enorme entre quienese trabajaban con la electricidad desde 1600, cuando el también británico William Gilbert la había descrito y nombrado.

La conducción eléctrica no se refiere sólo a la corriente que alimenta nuestros aparatos y dispositivos. Por ejemplo, el manejo de pequeñas corrientes eléctricas en los materiales semiconductores descritos por Michael Faraday en 1833, como el silicio, ha permitido la existencia de todo el universo de la informática y las telecomunicaciones.

¿De qué depende que un material sea conductor, semiconductor o aislante? Dado que la electricidad no es más que una corriente de electrones en movimiento, los conductores serán los materiales que permitan que los electrones se muevan con mayor libertad, algo para lo cual son ideales metales como el cobre, el aluminio o el oro.

Los aislantes impiden el flujo de electricidad a lo largo de un material, actuando de hecho como barreras, por la forma en que están unidas sus moléculas, como ocurre con el látex o los plásticos. Los semiconductores, por su parte, están en un punto intermedio entre los otros dos. La capacidad de conducción es inversamente proporcional a la resistencia que tiene un material al flujo de corriente.

El salto al superconductor

La resistencia eléctrica de todos los materiales es lo que permite que la corriente eléctrica, al ser obstaculizada por ella, se convierta en luz en una bombilla incandescente, en calor en un hornillo, en ondas electromagnéticas dentro de un microondas o en un campo de inducción en grandes hornos de acero o en cocinas de inducción.

Pero la resistencia eléctrica es también un problema: la corriente eléctrica se va debilitando y convirtiendo en otras formas de energía, principalmente calor, conforme va recorriendo cualquier material, por buen conductor que sea. Transportar energía eléctrica implica una pérdida de corriente.

En 1911, el físico holandés Heike Kamerlingh Onnes hizo un descubrimiento tan trascendente como el de la conducción eléctrica de Stephen Gray. Onnes probaba la conducción eléctrica del mercurio a distintas temperaturas, pues se sabía que la resistencia de los materiales bajaba proporcionalmente a la temperatura. Pero al enfriar el mercurio a -269 grados centígrados, la temperatura del helio líquido, su resistencia cayó súbicamente a cero, simplemente desapareció, y el mercurio se convirtió en algo nuevo: un superconductor capaz de transmitir electricidad sin pérdidas. Así, si se aplica corriente a un anillo superconductor, ésta puede dar vueltas eternamente a su alrededor. El descubrimiento le valió a Onnes el Premio Nobel de física de 1913.

¿Para qué sirven los superconductores? En los años siguientes, multitud de investigadores realizaron trabajos con distintos materiales para determinar cómo y a qué temperatura se podrían convertir en superconductores. Entre ellos, dos alemanes descubrieron que los superconductores repelían los campos magnéticos en movimiento. Lo que esto significaba en la práctica era que se podía hacer que un imán levitara sobre un superconductor.

Esta propiedad, llamada “maglev” o levitación magnética, fue una de las primeras aplicaciones de los superconductores, en trenes cuyas vías están formadas de bobinas que crean un campo magnético que repele unos imanes de la parte inferior del tren y lo hace avanzar flotando o levitando sobre las vías, permitiéndole moverse con seguridad y suavidad a velocidades de hasta 500 km/h. Si los imanes son de superconductores enfriados con nitrógeno líquido, que es de coste relativamente bajo, se obtiene una mayor eficiencia en el uso de la energía.

Entre las aplicaciones de los superconductores se cuentan dispositivos como circuitos digitales de gran velocidad para tener ordenadores más rápidos, filtros de microondas que se pueden emplear en bases de telefonía móvil, motores y generadores eléctricos con un gasto de energía mucho menos que los convencionales y enormes electroimanes de gran potencia que igual se utilizan en los escáneres médicos que en detectores de partículas como los que emplea el Gran Colisionador de Hadrones (LHC) del CERN.

El LHC es, esencialmente, un par de grandes tubos circulares en cuyo interior se disparan protones que se aceleran utilizando electroimanes que también les obligan a curvar su trayectoria hasta, finalmente, colisionar a velocidades cercanas a las de la luz. El enorme dispositivo emplea 1232 electroimanes principales, cada uno de ellos de 15 metros de longitud y con un peso de 35 toneladas. Otros gigantescos electroimanes superconductores se utilizan en los detectores del LHC para poder percibir y registrar las colisiones que están desvelándonos algunos de los secretos del mundo subatómico.

Una de las búsquedas más intensas en la física de los superconductores es la búsqueda de materiales que puedan exhibir propiedades superconductivas a temperaturas “altas”. Actualmente se han desarrollado superconductores capaces de funcionar a -139 ºC. El santo grial de esta búsqueda sería el mítico “superconductor a temperatura ambiente”, que haría más por la conservación de energía en el mundo que ninguna otra tecnología imaginable.

¿Y el escáner?

Los escáneres de diagnóstico como la resonancia magnética están formados por un “donut” o anillo donde entra el paciente y que es un electroimán en cuyo interior hay una bobina con helio e hidrógeno líquido con una fuerza magnética 60 mil veces más potente que la de la Tierra que obliga a que los protones del agua de nuestro cuerpo se alineen según el campo magnético. Al quitar el campo, los protones vuelven a su posición normal emitiendo pequeñas cantidades de energía que son interpretadas como detallados gradientes de luz en las imágenes de la resonancia.

mayo 03, 2014

La ciencia al servicio de la pintura

Estudiar los problemas que sufre nuestro legado artístico y cultural y hacer lo posible por conservarlo de la mejor manera también es una forma de hacer ciencia.

Retrato del Dux Giovanni_Mocenigo, pintura de Gentile Bellini,
1480, antes y después de su restauración.
(Fotos D.P.  vía Wikimedia Commons)
La pintura es un arte efímero.

Quienes tienen en su poder las grandes obras pictóricas del pasado enfrentan continuamente el desafío de defenderlas de los numerosos factores que pueden degradarlas, distorsionarlas o destruirlas de muy diversas maneras.

Bien conocido es el caso de la Capilla Sixtina pintada al fresco por Miguel Ángel entre 1508 y 1512, que acumuló durante más de 450 años el humo de las velas y de los incensarios, la humedad y el bióxido de carbono emitidos por millones de visitantes. Para quien contempló la obra maestra antes de su restauración (llevada a cabo entre 1980 y 1999), el techo era una obra maestra evidente pero oscura, amarillenta y opaca. La restauración implicó el uso de técnicas muy cuidadosas para tratar de retirar las capas de hollín, sales y otros materiales sin afectar los trazos de Miguel Ángel.

Otro fresco que ha sido imposible rescatar en su esplendor original es el pintado por Leonardo Da Vinci alrededor de 1495 en el refectorio del convento de Santa Maria delle Grazie en Milán, “La última cena”. Dado que la pintura se realizó en una pared exterior, fue afectada rápida y profundamente por la humedad.

La pintura, finalmente, no es sino la aplicación de diversos pigmentos a una superficie empleando un medio que eventualmente desaparecerá (secándose o curándose) de modo tal que los pigmentos queden adheridos permanentemente. En la pintura al fresco, el medio es el agua y los pigmentos son absorbidos por la escayola sobre la que se pinta. En la pintura al óleo, el medio es algún aceite secativo, que puede ser de linaza, de semillas de amapola, de nuez o de cártamo, y que al secarse forma una superficie dura e impermeable

Belleza en peligro

La conservación del arte echa mano de diversas disciplinas científicas precisamente por la enorme variedad de amenazas que penden sobre todo cuadro desde el momento en que se termina. Aunque, por supuesto, el daño se produce muy lentamente al paso de muchos años, lo que en su momento generó la ilusión de que las pinturas al óleo, principalmente, tenían la posibilidad de ser permanentes en su textura y colorido.

El primer enemigo de una pintura son los elementos del medio ambiente, su atmósfera y su temperatura. La superficie al óleo se contrae y expande como reacción a los cambios de temperatura, y lo hace de modo poco uniforme, por lo que este simple ciclo presente día tras día y a lo largo de las estaciones del año, es uno de los responsables de las grietas que aparecen en las pinturas al óleo. Igualmente, el exceso de humedad o la excesiva sequedad, afectan la estructura de la superficie de la pintura.

Lo mismo ocurre con el sustrato sobre el cual se ha aplicado la pintura. Los más tradicionales son tablas de madera y lienzos o telas de distintas fibras vegetales. Las tablas (como aquélla sobre la que está pintada La Gioconda de Leonardo) pueden deformarse o rajarse al paso del tiempo y como consecuencia de los factores medioambientales, además de que son susceptibles a los ataques de insectos que comen madera. La tela, en cambio, puede aflojarse y crear pliegues en presencia de altos niveles de humedad, o hacerse más tenso, provocando el desprendimiento de escamas de pintura.

El barniz con el que solían cubrirse algunos óleos puede oscurecerse al paso del tiempo adoptando una tonalidad marrón o amarillenta. Y claro, el hollín, el dióxido de carbono y otros contaminantes pueden incluso incrustarse en la pintura afectándola de modo permanente

Finalmente, la exposición al sol directo o a la luz ultravioleta puede producir alteraciones en los pigmentos, cambiando su brillo, su tono, su luminosidad. Al paso de los siglos se han cambiado diversos pigmentos para obtener mejores y más duraderos resultados. Por ejemplo, el blanco que se hacía originalmente con plomo se amarilleaba fácilmente y para el siglo XIX se había sustituido por óxido de zinc. Pero no existe el pigmento perfecto. Así como los carteles que se dejan al sol van desvaneciéndose por la luz, así lo están haciendo lentamente todos los cuadros que podemos ver en El Prado o el Louvre.

Y todo ello sin contar con los daños físicos (golpes, talladuras, caídas) que puede sufrir un cuadro en su existencia.

Éstos son los motivos por los cuales los museos tienen controles ambientales y de luz muy estrictos y en algunos casos imponen limitaciones como ver ciertas obras con una luz muy tenue, para prolongar su vida. Por ello mismo, también, todas las pinturas que tienen tanto museos como particulares son sometidas a revisiones y restauraciones periódicas que principalmente constan de repintar zonas dañadas, fortalecer la capa de pintura y limpiar la superficie. Y, en un futuro muy cercano, la limpieza se podrá hacer con rayos láser finamente ajustados para, mediante disparos precisos, eliminar el barniz y la suciedad... como se usa para eliminar tatuajes no deseados

Restauración de El Greco

El Greco pintó sus primeros cuadros usando témpera de huevo sobre tablas de madera, para después preferir el óleo sobre tela, principalmente de lino. Uno de los más recientes trabajos de restauración importantes realizados por el Museo del Prado es el de “El expolio de Cristo”, un cuadro de El Greco propiedad de la Catedral de Toledo donde se recuperaron pequeñas zonas donde se había caído la pintura, se aplicaron sustancias para consolidar la superficie e impedir que se siguiera descamando y limpiando el barniz del recubrimiento para mostrar los colores, luces y sombras originales del cuadro.

mayo 02, 2014

Así está hecha la estación espacial internacional

Desde el año 2000 hay seres humanos habitando de modo permanente la estación espacial internacional, un logro tecnológico singular en el que han confluido conocimientos, voluntarios... y los más diversos materiales.

La Estación Espacial Internacional tomada desde el
transbordador espacial en 2009.
(Foto D.P. NASA vía Wikimedia Commons)
En 1998 se lanzaron y empezaron a montar los primeros componentes de la estación espacial internacional, ISS por su nombre en inglés. Era la culminación, y al mismo tiempo el principio, de uno de los más grandes esfuerzos compartidos por distintos países en la exploración espacial a través de las agencias espaciales de Estados Unidos, Canadá, Rusia, Europa y Japón.

La ISS está formada por módulos fabricados por distintos países en los quevive y trabaja la tripulación, como los laboratorios y módulos de servicio, zonas de carga y observatorios, unidos entre sí con piezas llamadas “nodos”. En ellos se acoplan las naves que llevan y traen a la estación personal y suministros.

Tanto los metales como todos los demás componentes de la ISS han tenido que responder a estándares extremadamente estrictos en cuanto a aspectos como su resistencia a la corrosión, su durabilidad y su comportamiento en caso de incendio, lo que incluye que no sean inflamables, que no produzcan chispas accidentalmente y que al someterse a altas temperaturas no emitan gases tóxicos, ya que debe proteger al máximo a los habitantes de la estación, que no pueden abandonarla de emergencia.

Y, además, deben ser tan ligeros como sea posible, ya que poner en órbita cada kilogramo de material tiene un elevado coste. Cuando se comenzó a construir la ISS, se calcula que ese coste era de alrededor de 24.000 dólares.

Ya terminada, la ISS tiene un peso de 450 toneladas. O lo tendría en tierra, por supuesto, no en su situación, la llamada “órbita terrestre baja”, a unos 400 km de la superficie del planeta. Y todo ese colosal peso, algo menos del que tiene un Boeing 747, tuvo que ser transportado desde tierra.

Lo primero que vemos en la ISS es un recubrimiento exterior que tiene precisamente por objeto protegerla de choques de pequeños objetos. Es el escudo MM/OD, siglas de “micrometeoritos y desechos orbitales”. En los módulos fabricados por Estados Unidos el escudo es una hoja de aluminio de 1,3 mm de espesor, separada 10 centímetros del casco de presión, formado por aluminio más resistente y de más de 3 mm de espesor, incluso 7 mm en algunas zonas más expuestas.

Ese espacio de 10 centímetros está ocupado por varias capas de un tejido cerámico de gran resistencia, el nextel, y una segunda capa de un tejido similar al kevlar, material utilizado para fabricar chalecos antibalas y otras protecciones. Esta disposición tiene por objeto que cuando el escudo exterior sea atravesado por un desecho orbital, éste se rompa en pequeños fragmentos que sean absorbidos o ralentizados por los tejidos para llegar al casco de presión en forma de una nube de partículas, disipando la energía del choque a lo largo de un área mucho mayor.

Otros módulos utilizan otros diseños. Los rusos, por ejemplo, emplean una estructura de panal de aluminio sobre una segunda capa de plástico para disipar los choques y que es, se calcula, aún más eficiente.

Para todo efecto práctico, todos los módulos presurizados, que son de forma cilíndrica, actúan como una lata de aluminio para refrescos a gran escala.

El vidrio del que están hechas las ventanas de la ISS es, igual que el de nuestras ventanas, fundamentalmente de silicio, fusionado con otra variedad de vidrio de silicio y trióxido de boro para fomar el material llamado “borosilicato”, un vidrio mucho más resistente y que se contrae y expande menos que el común al verse sometido a cambios de temperatura. La ventana en sí está formada por cuatro capas de vidrio que tienen un espesor de hasta 3 centímetros: una exterior para protección contra choques de pequeños objetos, dos gruesos paneles de vidrio de presión, uno de los cuales es sólo protección adicional pues según los cálculos uno solo de ellos bastaría para garantizar la seguridad de la nave, y finalmente un panel interno resistente a rayaduras y otras marcas. Las ventanas tienen además la protección adicional de contraventanas, al estilo de las casas más rústicas, fabricadas con aluminio, Nextel y Kevlar.

El brazo robótico europeo, construido por la Agencia Espacial Europea, permite la manipulación y traslado de pequeñas cargas, trabajando con los astronautas cuando están realizando caminatas extravehiculares, e incluso para transportarlos a los lugares del exterior donde tienen que trabajar, ahorrándoles esfuerzo y tiempo. También sirve para inspeccionar, instalar y reemplazar los paneles solares. Sus componentes principales son tubos de fibra de carbono, como la utilizada en los autos de Fórmula 1, unidos por segmentos de aluminio, terminando en ambos extremos en “manos” o efectores metálicos. También el Canadarm2, brazo robótico construido por la organización espacial canadiense. El tercer brazo robótico de la ISS, es de termoplástico con fibra de carbono, en 19 capas superpuestas para obtener la mayor resistencia posible. El poco peso y, por tanto, poca inercia de estos brazos robóticos son indispensables porque, a diferencia de otros manipuladores y grúas de la ISS, éstos no están fijos en una base, sino que se pueden desplazar por el exterior de la ISS fijando una mano en agarraderas especiales mientras mueven la otra, ya sea para sus manipulaciones o para avanzar a la siguiente agarradera, como orugas moviéndose sobre la estación.

A ambos lados del conjunto central de módulos de la ISS se encuentran unos enormes conjuntos de paneles solares sostenidos que le proporcionan la energía necesaria para accionar sus diversos sistemas y le dan su aspecto distintivo. La Estructura de Armazón Integrada (ITS en inglés) está formada por tubos de aluminio extruido que además de sostener las celdillas fotovoltaicas albergan el sistema de distribución eléctrica, además del sistema de refrigeración, en una interesante paradoja: en el frío espacial casi absoluto, la ISS captura energía del sol pero la convierte en calor en su interior con el funcionamiento del equipo e incluso de los astronautas y es fundamental irradiar ese calor al espacio para mantener una temperatura adecuada en la estación.

Otros materiales

Además del aluminio y los plásticos reforzados con fibra de carbono, los materiales más abundantes en la ISS son el hidruro de níquel que utilizan las baterías de la estación, plásticos, titanio para la fontanería, que permite recuperar todos los desechos y el vapor de agua para reciclarlos, magnesio, elastómeros (polímeros elásticos como la goma) y el cloruro de polivinilo (PVC), todos ellos producidos y aplicados bajo estrictas especificaciones.

Lise Meitner

Lise Meitner venció los prejuicios de la Europa de principios del siglo XX para convertirse en una de las grandes figuras de la física nuclear. Pero los prejuicios del XXI aún la mantienen en una injusta oscuridad.

Lise Meitner en Viena alrededor
de 1906. (Foto D.P. vía
Wikimedia Commons)
El 11 de febrero de 1939, Lise Meitner publicaba en la revista Nature, junto con su sobrino, el físico Otto Frisch, el estudio “Desintegración del uranio por neutrones: un nuevo tipo de reacción nuclear”. Explicaba por qué un átomo de uranio golpeado por un neutrón no lo absorbía, transmutándose en un elemento más pesado (los elementos se identifican por su número de protones, que le dan sus características únicas). Por el contrario, el resultado eran elementos más ligeros como el bario y el kriptón.

Meitner y Frisch proponían que el choque del neutrón dividía, rompía, al átomo de uranio en dos átomos más ligeros. Parte de la masa original del uranio se convertía en energía según la ecuación de Einstein E=mc^2, que dice que la energía en la que se puede convertir la materia es igual a su masa multiplicada por la velocidad de la luz al cuadrado.

El artículo llamó a este nuevo tipo de reacción “fisión nuclear”, y es la fuente de la energía nuclear, ya sea usada en bombas atómicas o para la paz en aplicaciones médicas, científicas, tecnológicas, nucleoeléctricas, etc.

Los resultados que desentrañaba Lise Meitner procedían de experimentos que había diseñado con Otto Hahn y que había llevado a cabo este químico junto con Fritz Strassman.

El descubrimiento de la fisión nuclear era uno de los más importantes en la súbita expansión que tuvo la física nuclear en las primeras décadas del siglo XX. Tanto que en 1944 se le concedió el premio Nobel a Otto Hahn “por su descubrimiento de la fisión de los núcleos pesados”. Ni la Academia ni Hahn hicieron mención a Lise Meitner, que había sido, cuando menos, tan importante como Hahn en toda la investigación. Una omisión que, junto con su ausencia durante muchos años de los relatos de la historia de la física atómica, es de las grandes –y frecuentes– injusticias contra las mujeres de la ciencia.

De Viena a Cambridge, por Copenhague

Lise Meitner nació en 1878 en Viena, hija de una familia de raíces judías, pero no practicante de la religión.

Su poco común historia educativa se debió a la revolucionaria convicción de su padre Philipp de que sus ocho hijos debían recibir la misma educación fueran varones o mujeres. Lise exhibió pronto facilidad y gusto por las matemáticas, y su padre se encargó de que la desarrollara con profesores privados, ya que las chicas no podían estudiar en los bachilleratos para chicos. Con esas bases, en 1901 Lise consiguió convertirse en la primera mujer en ser admitida a las clases de física y laboratorios de la Universidad de Viena, donde estudió con algunos de los grandes nombres de la física de entonces, como Anton Lampa y Ludwig Boltzmann.

En 1906 fue la segunda mujer que obtenía un doctorado en física de esa universidad. Aunque era un logro, vale la pena tener presente que tres de sus hermanas eventualmente obtendrían también doctorados. Sin embargo, una cosa era tener el título y otra conseguir un puesto en la investigación. En 1907, Max Planck la invitó a que fuera a Berlín para hacer su postdoctorado. Pero la única forma de hacerlo fue como investigadora sin sueldo que, además, no podía entrar a los laboratorios de química del instituto donde trabajaba, pues se temía que el cabello de las mujeres se incendiara.

A su llegada conoció a Otto Hahn, con quien colaboraría durante las siguientes tres décadas. Su trabajo acerca de los procesos radiactivos se desarrollaba en la frontera entre la química y la física, la primera disciplina a cargo de Hahn y la segunda de Meitner. En su trabajo conjunto descubrieron el elemento protactinio en 1917 y desarrollaron nuevos métodos de investigación de la desintegración radiactiva.

Pero no fue sino hasta 1912 cuando el grupo de investigación fue trasladado al Instituto Kaiser Wilhelm, donde Otto Hahn fue nombrado director del instituto de la radioactividad y, finalmente, con el apoyo y admiración de colegas como Max Planck, Lise Meitner fue reconocida en 1918, gracias a su trabajo en la radiactividad, como directora del departamento de física del institituto. En 1923 descubrió un efecto en el cual, si se arranca un electrón de una órbita inferior en un átomo, es reemplazado por uno de una órbita superior, emitiendo en el proceso un fotón u otro electrón. Este mismo efecto fue descrito poco después de modo independiente por Pierre Auger, pero injustamente hoy se le conoce como “efecto Auger”. Por sus logros, en 1926 fue la primera mujer nombrada profesora de física en la Universidad de Berlín.

Para 1930, había publicado más de 80 investigaciones y había sido nominada ocho veces al Nobel junto con Hahn entre 1924 y 1934, además de obtener el Premio Leibniz y el AAAWS, conocido como el “Nobel para Mujeres”.

Pese a haber adoptado la fe evangélica y trabajar como enfermera del ejército austriaco durante la Primera Guerra Mundial, para cuando Alemania se anexó Austria en marzo de 1938 tuvo que huir a Suecia, donde el Nobel de Física de 1924, Manne Siegbahn, la recibió. Pero el científico no era partidario de que las mujeres trabajaran en ciencia, de modo que le escatimó los recursos necesarios para investigar.

En noviembre de ese año, Hahn y Meitner se reunieron clandestinamente en Copenhague para planificar el experimento que llevaría al descubrimiento de la fisión nuclear. Lise Meitner, además, previó la posibilidad de una reacción en cadena que podría provocar la súbita liberación de una cantidad colosal de energía: la bomba atómica. Tanto Estados Unidos como Alemania emprendieron proyectos para crear esa arma, que Meitner lamentaría que hubiera tenido que existir.

Ignorada por la Academia Sueca y por Otto Hahn en el Nobel de Química de 1944, en los años posteriores a la guerra trabajó en la aplicación de la energía nuclear para la paz, participando en la creación del primer reactor nuclear sueco en 1947.

Lise Meitner no volvió a Austria o Alemania. Al jubilarse como investigadora en Suecia se mudó al Reino Unido con algunos familiares como su sobrino Otto Frisch. Murió en Cambridge el 27 de octubre de 1968. Su epitafio, compuesto por Frisch, dice: “Lise Meitner: una física que nunca perdió su humanidad”.

A falta del Nobel

A partir de 1946 Lise Meitner recibió una gran cantidad de reconocimientos, doctorados honoris causa, la Medalla Max Planck de la Sociedad Alemana de Física, la inclusión en la Real Academia Sueca de Ciencias y en la Royal Society de Londres, entre otras muchas academias, y el Premio Enrico Fermi. Además, su nombre se ha dado a asteroides y cráteres tanto de la Luna como de Venus y, en 1997, el elemento 109 recibió el nombre de meitnerium, en su honor.

abril 18, 2014

La pandemia de gripe de 1918, lecciones y temores

La gripe suele ser una molestia anual que pagamos como impuesto inevitable. Pero de cuando en cuando se puede convertir en uno de los peores genocidas que hemos conocido.

Hospital improvisado en Camp Funston, Kansas.
(Foto D.P. vía Wikimedia Commons)
En 1997, en Hong Kong, 18 personas sufrieron una infección de gripe y seis de ellas murieron.

Este acontecimiento disparó las alarmas epidemiológicas en todo el mundo. Lo especial de este caso no era la infección de gripe, ni que causara algunas muertes, sino que se trataba de un virus de la gripe que nunca antes, hasta donde sabemos, había infectado a seres humanos.

La denominación científica del virus es H5N1. Su nombre popular, gripe aviar, surgió porque el virus se había identificado en 1996 en gansos de la provincia de Guangdong, en China. Detectado en granjas avícolas y en mercados de animales vivos en Hong Kong, el virus de pronto dio el poco frecuente salto de las aves a los seres humanos causando la muerte del 33% de los afectados.

En 2003, el virus volvió a hacer su aparición en China y en la República de Corea, y en 2004 se detectó en Vietnam, Tailandia y Japón, provocando varias muertes. Un año después llegaba a Indonesia. Y en enero de 2014 se registró la primera muerte por gripe aviar en Norteamérica, en la provincia de Alberta, Canadá.

En el caso de la gripe aviar, así como en el caso de la gripe porcina o gripe A que provocó una gran preocupación en 2009 (preocupación que resultó excesiva, pero en el momento no había modo de saberlo y era mejor errar del lado de la precaución) el temor a la posibilidad de una pandemia se hallaba en uno de los capítulos más atroces de la enfermedad humana, la pandemia de gripe de 1918 que dejó a su paso el aterrador saldo de más de 50 millones de víctimas y probablemente hasta 100 millones, ocho millones de ellas en España. En sólo un año, se cobró tantas víctimas, o poco menos, como las que se estima que provocó la peste negra de 1348-51 en Europa.

La pandemia de 1918

Todos los inviernos, la gripe estacional provoca molestias, malestares y algunas muertes, principalmente entre niños con pocas defensa, gente mayor y personas que ya tienen problemas respiratorios o de inmunodepresión. Pero el invierno de 1918
era diferente, más virulenta, más contagiosa y, sobre todo, más mortal, especialmente para personas entre 15 y 35 años de edad.

Era una época en que la población europea había sido ya diezmada por los terribles combates de la Primera Guerra Mundial, iniciada en 1914 y que llegaría a su fin en noviembre de 1918. En total, más de 9 millones de seres humanos habían sucumbido en los combates de ésa que entonces se llamó la Gran Guerra. Y, de pronto, una enfermedad venía a complicar las cosas brutalmente.

Ya en 1889-90 otra pandemia de la llamada “gripe rusa”, causada por un virus H2N2 había recorrido el mundo desde oriente hasta Estados Unidos dejando un millón de muertos, la más terrible epidemia del siglo XIX. Este antecedente provocó preocupación cuando en la primavera de 1918 apareció un virus en los Estados Unidos que pronto saltó a Europa, infectando a grandes cantidades de jóvenes combatientes en el frente de batalla, la mayoría de los cuales se recuperaron sin problemas. Muchos, sin embargo, desarrollaron una agresiva neumonía frecuentemente mortal.

En sólo dos meses, la gripe, desusadamente contagiosa, pasó de la población militar a la civil y salió de Europa llegando a Asia, Áfica, Sudamérica y Norteamérica. Después de sufrir lo que al parecer fue una nueva mutación, en agosto se presentaron nuevos brotes en Europa, África y Estados Unidos, no sólo altamente contagiosos, sino desusadamente mortales.

Donde la gripe estacional sólo causaba la muerte del 0,01% de las personas infectadas, esta nueva cepa mataba al 2,5% de los afectados, aunque en países como India llegó a un índice de mortalidad del 5%. Y lo hacía de modo cruel, a través de una neumonía que literalmente asfixiaba a sus víctimas.

Finalmente, en la primavera de 1919 el mundo fue golpeado por un tercer brote pandémico, al término del cual, uno de cada cinco seres humanos de todo el mundo se habían contagiado. Y, por supuesto, la medicina en ese momento no tenía armas para enfrentar el problema, apenas podía tratar los síntomas y buscar que los pacientes sobrevivieran. No había vacunas, que aparecerían hacia 1940, ni medicamentos antivirales. La única terapia que tenía cierta efectividad era la transfusión de sangre a pacientes enfermos procedente de pacientes que se habían infectado y habían sobrevivido, y que funcionaba como una especie de vacuna.

Cada oleada de gripe duró unas 12 semanas: atacaba con fuerza y luego desaparecía, como lo hace la gripe estacional.

Curiosamente, una de las razones por las cuales se conoce a esta pandemia como la “gripe española” es que los informes sobre ella estaban cuidadosamente censurados en los países participantes en la Primera Guerra Mundial. Pero en la España neutral, donde incluso Alfonso XIII sufrió el contagio y llegó a enfermar gravemente, los diarios informaban libremente sobre la enfermedad, dando la impresión de que en España era mucho más grave que en el resto de Europa. Habiendo llegado de Francia, sin embargo, en España se le conoció como “gripe francesa”.

Desde entonces, los profesionales de la salud han estado preocupados por la posibilidad de que se repita una pandemia con esas características mortales. El temor se ha visto reavivado por otros brotes alarmantes: la pandemia de gripe asiática de 1957 causó 2 millones de muertes, y la de gripe de Hong Kong de 1968-1970 se cobró un millón más. Todo esto explica también las medidas, afortunadamente innecesarias, que se tomaron ante la gripe A que apareció en 2009 y sigue activa: una mutación del virus podría volver a poner en peligro a millones de personas.

El hecho de que el virus de la gripe tenga tendencia a mutar fácilmente, lo que le permite anular las defensas que el cuerpo humano pueda haber criado con anteriores infecciones, es su mayor peligro. Por ello, quizá sería razonable, cuando los organismos mundiales encargados de la salud dan la voz de alerta, pensar que están haciendo su mejor esfuerzo para evitar otra tragedia.

Clasificación de los virus de la gripe

El tipo más común de virus de la gripe en humanos es el A, que se clasifica según dos proteínas importantes en su envoltura exterior: la hemaglutinina y la neuraminidasa. Hay 16 subtipos de la primera y 9 de la segunda, y los anticuerpos para uno de ellos no afectan a los otros. Así, hay virus H1-H16 y N1-N9. El virus H1N1, de origen porcino y comúnmente llamado “gripe A” tiene los tipos 1 de ambas proteínas, y distintas variedades del mismo fueron responsables de las gripes de 1918 y de 2009. El ser humano sólo puede ser infectado por virus H1, 2, 3, 5, 7 y 9 y N1 y 2.

abril 11, 2014

El sistema de señales de tu cuerpo

Nuestro complejo sistema nervioso, nuestra ventana al mundo y la base de nuestra personalidad, es resultado de al menos 600 millones de años de evolución que aún no comprendemos del todo.

Representaciones de los distintos
sistemas nerviosos del reino animal.
(Ilustración CC de Xjmos, vía
Wikimedia Commons) 
Una parte decididamente importante de nosotros está formada por células, las neuronas, que reaccionan ante estímulos del medio ambiente: la luz, la temperatura, el sonido, el movimiento, la textura de las cosas, el olor... y se comunican con otras células que llevan la información a los centros de interpretación y procesamiento de nuestra cabeza, y que a su vez toman decisiones o actúan. Cuando emprendemos una acción, otras neuronas llevan información a tejidos como los músculos, estimulándolos para que se contraigan o relajen.

Son las células de nuestro sistema nervioso, nuestro aparato para interactuar con el mundo exterior e incluso con nuestro mundo interior, con sistemas de alarma como los de dolor o irritación... o de placer como al degustar un alimento que nos satisface.

Podemos argumentar que nuestro encéfalo, el centro de procesamiento y toma de decisiones, es el mecanismo más complejo que conocemos en todo el universo.

No sabemos aún exactamente cómo funciona. Hemos determinado qué función tienen algunas regiones, hemos descubierto cómo se transmiten los impulsos nerviosos de una neurona a otra mediante las sustancias llamadas neurotransmisores, pero estamos muy lejos de comprender a cabalidad cómo funciona ese órgano que es, finalmente, el que nos hace ser nosotros mismos.

Pero más allá de su funcionamiento, nos ofrece otro misterio no menos intrigante: ¿cómo evolucionó?

Los humildes orígenes

Todo animal multicelular necesita una forma de percibir su entorno y que sus células actúen coordinadamente para funcionar, su sistema nervioso.

Sólo el animal más primitivo, la esponja, carece de sistema nervioso. Después de todo, su única actividad es filtrar el agua que pasa por ella, y cada célula captura sus nutrientes. Pero para tener actividad, hace falta tener neuronas.

Todas las células perciben su entorno y reaccionan a él, de distintas formas. Los seres unicelulares ciliados, por ejemplo, se mueven activamente hacia la luz o el alimento y se retiran si perciben sustancias venenosas. Pero los seres multicelulares requirieron especializar distintas células en tejidos dedicados a funciones concretas como el movimiento, la digestión o la transmisión de impulsos.

Incluso unas pocas neuronas o células nerviosas pueden bastar para sobrevivir, como ocurre con los diminutos gusanos redondos llamados Caenorhabditis elegans o, como prefieren abreviar los biólogos, C. elegans. Los hermafroditas de esta especie tienen, todos y cada uno de ellos, únicamente 302 neuronas, y con ellas se las arreglan para sobrevivir. Parecen pocas, hasta que descubrimos que cada uno tiene únicamente 959 células (que aumentan a 1031 cuando se convierten en machos).

La uniformidad en el funcionamiento de las células nerviosas en todos los animales parece un indicio de que estas peculiares células todas provienen del mismo antecesor común. Uno de los mejores candidatos para serlo parece ser un organismo similar a los gusanos llamado Urbilateria, que vivió hace unos 600 millones de años.

El sistema nervioso más sencillo es la “red nerviosa” de animales como las medusas o las anémonas (los cnidarios). Sus neuronas nerviosas forman un sistema difuso donde la estimulación de cualquiera de ellas se transmite a todas las demás, que además se comunican en ambos sentidos. Es de suponerse que así fueron los primeros animales que tuvieron sistemas nerviosos.

A lo largo de la evolución, la comunicación entre las neuronas se “polarizó”, es decir, empezó a ocurrir sólo en un sentido: los impulsos visuales van por sus neuronas sólo de los ojos a la corteza visual, no de vuelta; hay otras neuronas encargadas de enviar impulsos para mover el ojo o contraer la pupila, pero ésas no reciben información a su vez.

Una característica singular del proceso evolutivo de nuestro sistema nervioso es que nos cuenta cómo llegamos a tener cabeza.

En la ciencia ficción o la fantasía es fácil pensar en un ser que tenga los ojos en el pecho o el sentido del olfato en los codos... o incluso el cerebro junto al hígado, por decir, algo. Pero los animales tienden a tener sus sentidos agrupados en la cabeza. Ésta es una tendencia evolutiva que los biólogos llaman “cefalización”, es decir, la concentración órganos sensoriales (como los ojos, la nariz y el oído) y el órgano nervioso más importante en la cabeza. Se especula que, dado que los animales se mueven hacia adelante, es ventajoso que los órganos sensoriales estén a la vanguardia, para evaluar su medio ambiente.

Conforme las redes nerviosas se fueron organizando y especializando, se alinearon en cordones organizados. Los animales que tienen simetría bilateral (es decir, que su lado izquierdo es imagen reflejada de su lado derecho) centralizaron estos cordones formando lo que se llama, precisamente, sistema nervioso central. En el caso de los vertebrados, alrededor del cordón dorsal se desarrolló una protección en forma de columna vertebral.

El camino evolutivo del sistema nervioso humano pasa por los pequeños primeros mamíferos que convivieron escurriéndose entre las patas de los dinosaurios hace unos 225 millones de años, dotados de pequeños cerebros como el de la musaraña, que pesa menos de dos décimas de gramo. A lo largo de este tiempo, la corteza cerebral fue ampliándose, creciendo junto con nuestro cráneo hasta asumir su forma actual, la más desarrollada de los primates, hace alrededor de 100.000 años. Somos, entonces, una especie joven con un encéfalo de aproximadamente kilo y medio, gris y de aspecto arrugado debido a los pliegues de la corteza que, se cree, permiten aumentar su superficie y las conexiones entre sus neuronas.

Finalmente, siempre conviene tener presente que, aunque identificamos al encéfalo con nuestra personalidad, voluntad y percepción, nuestro sistema nervioso está también a cargo de todo lo que hace nuestro cuerpo sin que nosotros lo asumamos conscientemente: el ritmo cardiaco, la respiración, el tono muscular, los movimientos de nuestros órganos digestivos, la secreción de hormonas, el hambre, el impulso sexual, y todo, todo lo que somos.

Nuestro encéfalo

El centro nervioso humano está formado por algo menos de cien mil millones de células nerviosas unidas por medio de, se calcula, al menos un billón de conexiones que nos permiten desde comer con cubiertos hasta resolver ecuaciones de la mecánica cuántica, disparar un balón con efecto al ángulo de la portería contraria o escribir un poema, abrazar a nuestros seres queridos y construir aviones cada vez más seguros. Y es la única estructura conocida que se ocupa en tratar de entenderse a sí misma.

abril 10, 2014

Las bacterias, ¿lado oscuro y lado luminoso?

Las pocas veces que hablamos de bacterias suelen ocuparse de las enfermedades causadas por estos seres unicelulares, pero sin ellas sería inconcebible nuestra propia vida.

Ejemplares de Eschirichia coli captados con un microscopio
electrónico.
(Foto DP NIAD, vía Wikimedia Commons)
Pese a que hay 40 millones de bacterias en un solo gramo de tierra y que biólogos como Michael Hogan calculan que la masa total de ellas en nuestro planeta es mayor que la masa de todas las plantas y animales que existen sumados, estos seres fueron desconocidos para la humanidad hasta 1676, cuando el holandés Anton Von Leeuwenhoek informó haber visto pequeños seres unicelulares, que llamó “animálculos”, con sus primitivos microscopios.

Pero esas formas de vida que luego se llamarían bacterias no son animales. Son una categoría de seres vivos unicelulares, que miden apenas unas micras (millonésimas de metro) y cuyo ADN no está agrupado en un núcleo, sino que existe en una sola, larga cadena. Por eso se les llama “procariotes” a diferencia de los “eucariotes”, células cuyo ADN sí está encerrado en un núcleo.

En los años siguientes a su descubrimiento, científicos como Louis Pasteur y Robert Koch demostraron que las bacterias eran causantes de muchas enfermedades, como la tuberculosis, la neumonía, la salmonelosis, el tétanos, la sífilis y muchas más. Y en el siglo XX Alexander Fleming desarrolló los primeros antibióticos salvadores de vidas ante estas afecciones.

Pero sólo el 1% de las bacterias que conocemos son nuestros enemigos biológicos. Muchas otras tienen una actividad que nos puede resultar beneficiosa, agradable o, incluso, esencial incluso para nuestra vida.

Nuestro cuerpo tiene, de media y según un cálculo publicado a fines de 2013, algo más de 37 billones (millones de millones, 37 con doce ceros) de células de todo tipo, desde los glóbulos rojos que llevan el oxígeno a todo el cuerpo hasta las neuronas que forman el sistema nervioso o las fibras musculares que nos permiten movernos. Por cada una de ellas, albergamos entre tres y diez bacterias que han evolucionado junto con nosotros durante millones de años, para bien y para mal, formando el pequeño ecosistema dinámico que somos nosotros.

Cuando hablamos de “flora intestinal”, por ejemplo, nos referimos a varios tipos de organismos, principalmente bacterias que cumplen varias funciones en nuestro aparato digestivo: ayudan a absorber nutrientes, apoyan el sistema inmune, producen enzimas que para digerir diversos alimentos, sintetizan vitaminas que necesitamos, como la K y la B12, y son importantes auxiliares en el combate contra organismos que nos provocan enfermedades, estimulando la producción de anticuerpos e impidiendo con su presencia que colonicen nuestro tracto intestinal.

Las muchas funciones de las bacterias en nuestro organismo es buena señal de la enorme variabilidad que tienen las bacterias en cuanto a su forma de supervivencia.

Algunas de ellas necesitan oxígeno para generar energía, pero otras no, por lo que se les llama anaeróbicas. Su respiración se realiza mediante el proceso que llamamos fermentación, que convierte los azúcares en ácidos, gases o alcohol sin presencia de oxígeno, de modo que se emplean para producir ácido láctico, acético, butírico, acetona, alcohol etílico e incluso hidrógeno, como posible forma de obtener este elemento para almacenar energía de modo limpio. La fermentación bacteriana más conocida convierte la lactosa de la leche en ácido láctico, el principio del proceso de fabricación del queso. Esta fermentación bacteriana es también la que se utiliza para producir el yogurt.

Algunas bacterias se alimentan de otros organismos, mientras que otras variedades pueden producir su propio alimento, ya sea mediante la fotosíntesis, como las plantas, o mediante la llamada síntesis química, que hacen bacterias como las llamadas “extremófilas”, que han llegado a los medios de comunicación en los últimos años debido a que son seres capaces de vivir en condiciones, precisamente, extremas, como las que viven en las profundidades heladas y oscuras en un lago que está bajo una enorme capa de hielo en la Antártida.

Pero también este proceso es el que usan las bacterias que, en las raíces de las plantas, convierten el nitrógeno de la atmósfera (el gas más abundante en nuestra atmósfera, de la que forma casi el 80%) en compuestos de nitrógeno fijo como los nitratos, que las plantas pueden utilizar en su metabolismo. Para valorar su importancia, recordemos que los fertilizantes aportan a las plantas nutrientes en forma de compuestos, principalmente de nitrógeno, además de otras sustancias como fósforo, potasio y azufre. Sin las bacterias nitrificantes, que producen el 90% del nitrógeno fijo del planeta, no podría vivir la mayoría de las plantas... ni, por tanto, nosotros.

Las bacterias fueron los primeros organisms modificados genéticamente, en este caso para sintetizar sustancias que necesitamos, a parti de 1978, cuando se insertó el gen humano que sintetiza la insulina en la bacteria E. coli. Así, desde principios de la década de 1980, la gran mayoría de la insulina que, en distintas variedades, utilizan los diabéticos para controlar su afección se produce así, lo cual es mucho mejor que usar insulinas procedentes de animales que no son exactamente iguales a la humana. Otras bacterias se han modificado para sintetizar hormona del crecimiento humano gracias a la cual se pueden tratar las formas de enanismo causadas por la deficiencia de esta hormona. Y también se utilizan a fin de producir factor de coagulación para el tratamiento de hemorragias como las provocadas por la hemofilia.

Entre las investigaciones que se están llevando a cabo actualmente sobre bacterias genéticamente modificadas destacan las orientadas a conseguir variedades que sean más eficientes en la producción de biocombustibles, haciéndolos económicamente competitivos frente a los destilados del petróleo.

Si la abundancia de bacterias es tal que, en palabras de Andy Knoll, investigador de Harvard, vivimos en el mundo de las bacterias más que ellas en el nuestro, el conocimiento que seguimos reuniendo sobre ellas nos permite vivir mejor en ese mundo, combatiendo las enfermedades que algunas nos provocan algunas y aprovechando las capacidades bioquímicas de otras.

En el principio...

Si bien no sabemos aún cómo comenzó la vida, sí sabemos que las bacterias son los primeros descendientes del ancestro común de todos los seres vivos. Las primeras bacterias aparecieron hace alrededor de 3.800 millones de años y dominaron la Tierra durante 2 mil millones de años antes de que hicieran su aparición las células con núcleo y, mucho después, los seres multicelulares. Es decir, todos los seres vivos, incluidos nosotros, tenemos como nuestro humilde origen un ancestro común que fue una bacteria. Somos bacterias con cientos de millones de años de evolución.