Ha muerto una de las mentes más privilegiadas de todos los tiempos, un hombre que supo vencer cualquier reto físico y mental para iluminarnos con su sabiduría infinita. Ofrecemos un breve homenaje al científico que quiso explicarlo todo.

Stephen Hawking contaba que su hija Lucy tenía apenas unos días de nacida cuando las musas que cuidan de los genios llegaron con el “momento eureka”. Era 1970. Me atrevo a apostar que fue Urania, la musa de la astronomía y de las ciencias exactas, la que llegó en el momento preciso en el que el físico se metía a su cama para descansar. En su autobiografía My Brief History (2013), Hawking explica que fue entonces cuando su trabajo sobre los agujeros negros cobró sentido.

El joven científico descubrió que podía aplicar la teoría de estructura causal que había desarrollado para los teoremas de singularidad, “en particular, [en] el área del horizonte, el límite del agujero negro, que siempre aumentaría”, menciona Hawking. “Cuando dos agujeros negros chocan y se unen, el área del agujero negro final es más grande que la suma de las áreas de los agujeros negros originales”.

Con esta hipótesis, Hawking describió la naturaleza de los agujeros negros de forma transgresora. Propuso que estos tienen entropía (que comúnmente se explica como el grado de desorden de un sistema, porque es la incapacidad de la energía térmica para ser convertida en trabajo mecánico), lo cual contradecía las creencias de la comunidad científica del momento: si un agujero negro tiene entropía, entonces tiene temperatura, y por lo tanto puede brillar como lo hace un cuerpo caliente. ¡Vaya idea!

Las propuestas del inglés causaron tal revuelo en la comunidad científica, que Hawking llegó a cruzar apuestas con físicos de la talla de John Preskill y Kip Thorne, este último galardonado con el Nobel de Física 2017 y responsable del increíble andamiaje teórico de la película Interestelar. Uno de los envites más memorables tiene que ver con la hipótesis de que los agujeros negros emiten energía.

En un principio, cuando Hawking llegó a esta idea, pensó que sus cálculos estaban mal —algo muy común entre los científicos: el propio Einstein murió pensando que una parte de su teoría de la relatividad no estaba bien—. Después de una revisión cuidadosa, se convenció de que el fenómeno descrito efectivamente sucede, pues dicha emisión de energía es lo que permite identificar el área del horizonte de un agujero negro (es decir, su límite), junto con su entropía. Con esto, Hawking también demostraba la estrecha relación que hay entre la gravedad y la termodinámica de estos cuerpos misteriosos.

Si la radiación de un agujero negro lo hace disipar energía, también perderá masa y se encogerá; eventualmente, se evaporará por completo y desaparecerá. El mismo Hawking reconoció que esto era problemático si se veía a la luz de la mecánica cuántica. La hipótesis se convirtió en una paradoja discutida durante treinta años, hasta que él mismo llegó a una solución: aquello que está contenido dentro de un agujero negro no se pierde, solo que no se regresa al universo en una manera que pueda ser utilizada. “Es como quemar una enciclopedia: la información contenida en ella no se pierde si uno se queda con las cenizas y el humo, aunque será muy difícil de leer”.

La apuesta por esta hipótesis quedó caballerosamente consignada en la siguiente carta:

Mientras Stephen Hawking y Kip Thorne creen firmemente que la información absorbida por un agujero negro se esconde por siempre del universo, y nunca puede ser revelada incluso si el agujero se evapora y desaparece por completo… y mientras que John Preskill cree firmemente que un mecanismo para que la información se libere por la evaporación de un agujero negro debe ser y se encontrará en una teoría correcta de gravedad cuántica… Preskill ofrece, y Hawkings/Thorne aceptan, una apuesta en la que: cuando un estado cuántico puro inicial pasa por un colapso gravitacional para formar un agujero negro, el estado final al término de la evaporación de este siempre será un estado cuántico puro. El (los) perdedor(es) recompensarán al (a los) ganador(es) con una enciclopedia de la elección del (los) ganador(es), de la cual se puede recuperar información.

Finalmente, la dupla Hawking/Thorpe tuvo que darle a Preskill una enciclopedia sobre béisbol; aunque Hawking reconoció que, para que el pago hubiera sido justo, le tendrían que haber dado solo las cenizas de la misma.

Como esta, las anécdotas de la construcción del conocimiento científico de Hawking son  copiosas y apasionantes, lo mismo que su vida personal y académica. Se ganó la gloria entre la comunidad científica desde que comenzó a pasear por los pasillos de Oxford. Debido a que entró a la universidad cuando tenía 17 años, y a que sus compañeros eran mucho más grandes por haber hecho el servicio militar, los tres años ahí fueron solitarios y aburridos. Para hacer amigos, decidió unirse al club de remo de su colegio, una etapa que él narraba como “desastrosa”.

En Oxford, según contaba, se esperaba que uno fuera brillante sin esfuerzo alguno, o que aceptara sus limitantes y obtuviera un grado sin méritos. “Una vez calculé que hice mil horas de trabajo en tres años, un promedio de una hora por día. No estoy orgulloso de esta falta de trabajo, pero en ese tiempo compartía esta actitud con la mayoría de mis compañeros estudiantes”, relata en su autobiografía.

Al final, cuando estaba por obtener su título de licenciatura, estaba tan nervioso por su último examen que no durmió bien y su evaluación estuvo lejos de la excelencia. Posteriormente, en la entrevista final se le preguntó por su futuro. “Les contesté que quería hacer investigación. Si me daban el primer grado académico, les dije, me iría a Cambridge. Si me daban el segundo, me quedaba en Oxford. Me dieron el primero”. Fue ahí donde le diagnosticaron la enfermedad neurodegenerativa motora, y en donde conoció a Jane Wilde, su primera esposa y madre de sus hijos. “Ella me dio una razón para vivir”.

Hawking revolucionó a la física como pocos lo han hecho. Aportó al conocimiento de las ondas gravitacionales, de los agujeros negros, a la teoría del Big Bang y, por tanto, al origen del universo y del tiempo. Que la película sobre su vida tenga por nombre La teoría del todo (2014) no es en absoluto trivial. Hawking también arrojó luz al debate de la inteligencia artificial y, en su faceta política, apoyó diversos movimientos diplomáticos, siempre en búsqueda de la paz. Junto con otros dos gigantes de su tiempo, Carl Sagan y Richard Feynman, escribió los libros más importantes de divulgación de la física, del universo y de la ciencia.

Su mente inigualable, su historia de vida y su  calidad humana le han concedido a Stephen Hawking un lugar privilegiado en la historia. A pesar de haber tenido un diagnóstico de desahucio, vivió con harto provecho para hacer de este un mundo mejor. En su autobiografía, Hawking cuenta que, cuando le diagnosticaron la enfermedad, “de pronto me di cuenta que había muchísimas cosas que podría hacer si era indultado. Un sueño que tuve varias veces fue que podría sacrificar mi vida para salvar a otros. Después de todo, si iba a morir de cualquier manera, bien podría hacer algo bueno”. Y lo hizo con creces.

Sofía Flores
Maestra en Comunicación de la Ciencia por la Universidad de Sheffield, Inglaterra.

Leer completo
A días de que deje la presidencia, recordamos una de las herencias más reconocidas de Obama: cómo defendió la práctica médica y el medio ambiente desde las revistas arbitradas.

The world is what it is;
men who are nothing,
who allow themselves to become nothing,
have no place in it.
A bend in the river. V.S. Naipaul

A Barack Obama la lectura le da la posibilidad de ponerse en los zapatos del otro. De ahí que el inicio de A bend in the river se le quedara grabado en la memoria. Además, como le dijo a The New York Times en una entrevista publicada este mes, leer le permite desacelerar y obtener perspectiva.

obama

En esa misma entrevista, Obama confiesa que la lectura le ha dado la capacidad autodidacta de la escritura, lo que explica facultad discursiva. Basta con escuchar sus pronunciamientos públicos para detectar que se trata de un hombre culto, fluído en ideas, con reflexiones que se extienden a distintas audiencias y capaz de establecer una conexión íntima con un público objetivo.

Las plataformas mediáticas en las que se ha expresado, que van desde las presentaciones frente a cientos de personas hasta los artículos científicos publicados en revistas arbitradas, son las que han legitimado sus palabras. Incluso antes de llegar a la presidencia, Obama tenía claro que el conocimiento científico es un buen repositorio de los datos duros.

Antes de Obama un par de presidentes estadunidenses ya habían sido autores de comentarios en revistas científicas. Pero él fue el primero en escribir un artículo científico —que se diferencia de los comentarios por presentar evidencia basada en la experiencia—, y desde entonces lo ha hecho con creces. Tanto es así que en un recuento realizado por el Centro de Investigaciones Pew, en donde se enumeran a los artículos científicos más discutidos en 2016, se obtuvo que el presidente es el autor del artículo científico que ocupa el primer lugar en el ranking, con un valor de atención que casi duplicó al del segundo lugar de la lista. De los campos de estudio que más impacto tuvieron destacan el universo, la evolución, y uno de los puntos centrales en la gestión Obama: la política del cuidado de la salud.

En el artículo mencionado, publicado en su último año de gobierno, Obama da evidencia a favor del Affordable Care Act, ACA, también llamado Obama Care, el cual presentó en 2008 en un comentario en la revista Journal of the American Medical Association .

Con evidencia se muestra que gracias al ACA, la tasa de individuos sin seguro médico en Estados Unidos se redujo en un 43% entre los años 2010 y 2015, lo que implica un cambio de 49 millones a 29 millones de personas. Los datos, además de demostrar que los beneficios han apoyado al sector público de manera directa, también muestran haber sido provechosos para el privado; la tasa de condiciones médicas adquiridas en los hospitales —como infecciones o eventos por medicamentos— se ha reducido en un 17%; además, el número de pacientes que vuelven a ser internados en los 30 días después de haber sido dados de alta cambió de un 19% a un 17.8% en cinco años. En general, la evidencia muestra que el ACA fue provechoso para desacelerar el aumento de los costos y traer mejoras en la calidad del cuidado de la salud.

Luego de enumerar los aprendizajes obtenidos por la implementación del ACA, y de mencionar algunas acciones en su detrimento que ya comienzan a ser implementadas por los Republicanos, Obama sostiene que la continuación de uno de sus más grandes proyectos traería grandes beneficios a largo plazo.

Sin embargo, no es sino hasta un artículo publicado también en la Journal of the American Medical Association (2017), en donde Obama le pone nombre al líder Republicano que busca eliminar el ACA. Desde el primer párrafo es clara la razón por la cual Obama busca defender uno de sus logros presidenciales más grandes en una revista científica: “Lo que los últimos 8 años nos han enseñado es que una reforma del cuidado de la salud requiere un acercamiento cuidadoso, basado en la evidencia, motivado por lo que es mejor para los estadunidenses”.

A través de argumentos sostenidos con datos duros —como que nunca antes tantos estadunidenses habían tenido un seguro médico, o que el ACA ha desacelerado los costos de la salud a una fracción histórica y mejorado la calidad del cuidado para los pacientes—, Obama señala que los políticos deben desarrollar un plan que se sostenga sobre lo que funciona antes de deshacer al anterior. “Este enfoque de ‘eliminar antes, y reemplazar después’ es, simplemente, irresponsable”.

Los resultados de desechar los esfuerzos, señala en este artículo, traerán distintas consecuencias: las compañías aseguradoras evitarán participar en el mercado asegurador para el siguiente año; las prácticas médicas dejarán de apostar por aquellas que son novedosas; los pacientes con condiciones preexistentes perderán sus beneficios e incluso se alcanzará una cifra de personas sin seguro mucho más grande que la que existía antes del ACA (esto de acuerdo con datos de un análisis realizado por el Urban Institute). Finalmente, concluye que “los políticos deberían acatar el juramento médico: primero, no hagas daño”.

La salud fue, sin duda alguna, una de las banderas que llevaron a Obama a ocupar la presidencia. Y también para esto utilizó a los artículos científicos como plataforma. En mayo de 2006, cuando era senador, publicó un artículo en New England Journal of Medicine, en coautoría con la entonces también senadora Hillary Clinton. A pesar de que el argumento central de este trabajo era la necesidad del mejoramiento de la seguridad del paciente, el discurso gira en torno a una política incluyente, en la que se asegure la generación de un sistema que provea prácticas médicas de calidad para los más. La semilla de lo que evolucionaría en el ACA fue presentada en un artículo científico, en una revista de medicina prestigiosa. En éste, Obama y Clinton hablaban del National Medical Error Disclosure and Compensation (MEDiC), un proyecto de ley para otorgarle dinero y asistencia técnica a los médicos, hospitales, aseguradores y al sistema de salud para la implementación de programas que aseguraran la revelación de información de manera confidencial, así como un manejo adecuado de las indemnizaciones otorgadas a los pacientes y a sus familias. Los autores demostraron que MEDiC se basa en “acercamientos que protegen a los pacientes y a los médicos, mientras se mejora la calidad del cuidado de la salud”, además de reducir los costos administrativos y legales de todos los actores involucrados en el sistema sanitario.

Junto con las políticas en torno al cuidado de la salud, la protección del medio ambiente fue también un bastión importantísimo en la administración Obama, y que también defendió en una revista arbitrada —Science—, ante la inminente llegada de un reemplazo que niega la existencia del cambio climático.

En el artículo publicado a once días del pase de la estafeta, Obama sostiene con evidencia cuatro argumentos por los que la tendencia hacia el uso de energías limpias es irreversible. Primero, da cuenta de que la economía de una nación puede crecer sin que se vea comprometida la reducción de las emisiones contaminantes a la atmósfera. De hecho, demuestra que desde 2008 y hasta 2015, la nación a su cargo presentó reducciones de dióxido de carbono en un 9.5%, mientras que la economía creció más del 10%. Segundo, muestra que el sector privado se beneficia por la reducción de producción de gases de efecto invernadero: General motors, por ejemplo, busca reducir el uso de energía en un 20% para el 2020. Tercero, el mercado está forzando a la industria hacia un sector energético limpio. Si tomamos en cuenta que el costo de la energía renovable se ha abaratado de manera precipitada entre 2008 y 2015, o que, por ejemplo, para el 2015 el 12% de la energía utilizada en Texas provino del viento, comprenderemos que empresas como Google están planeando que el total de sus operaciones sean cubiertas por energía renovable al finalizar el 2017. Cuarto y último, muchas naciones se comprometieron con el Acuerdo de París, en 2015, a generar políticas climáticas. En este último punto, subraya el peligro de que Estados Unidos incumpla su parte pues, de hacerlo, abriría la puerta a otros países de actuar igual.

A estos argumentos se suman distintas acciones emprendidas por el mandatario en torno al cuidado del medio ambiente. Por ejemplo, en 2016, Obama declaró al Monumento Nacional de Papahanaumokuakea como la mayor área protegida del planeta, luego de haberse encargado de cuadriplicar el tamaño de la zona. También, en su último movimiento hacia el cuidado del medio ambiente, entregó 500 millones de dólares al Fondo Verde del Clima, el cual busca ayudar a los países en desarrollo para que abonen con la mitigación de los efectos del cambio climático y logren adaptarse a éste (es importante destacar que Estados Unidos se comprometió a dar un total de 3 mil millones de dólares, por lo que aún falta el pago de 2 mil millones restantes).

A pesar de que Obama enfrentó innumerables negativas políticas en la implementación de sus proyectos novedosos, en el ámbito de la salud y de la protección del medio ambiente habrá de ser juzgado y recordado como un tomador de decisiones interesado en el conocimiento científico y su evidencia, para generar resoluciones audaces e inteligentes.

 

Sofía Flores
Maestra en comunicación de la ciencia por la Universidad de Sheffield, Inglaterra.

 

Biblografía:

Ansede, M. (2016) Obama presenta el mayor paraíso del planeta. El País. [En línea] (Revisado el 10 de enero de 2017).

Clinton, H. & Obama, B. (2006) Making patient safety the centerpiece of medical liability reform. The New England Journal of Medicine, p. 2205-2207.

Hitlin, P. (2016) Health issues topped the list of scientific studies reaching wide audiences in 2016. Pew Research Center. [En línea] (Revisado el 3 de enero de 2017).

Kakutani, M. (2017) Obama’s secret to surviving The White House years: books. The New York Times. [En línea] (Revisado el 16 de enero de 2017).

Obama, B. (2008) Affordable Health Care for all Americans. The Obama-Biden plan. Journal of the American Medical Association, 300 (16).

Obama, B. (2016) United States health care reform, progress to date and next steps. Clinical review & Education, p. 525-532.

Obama, B. (2017) The irreversible momentum of clean energy. Science, p. 1-4.

Obama, B. (2017) Repealing the ACA without a replacement – The risk to American Health Care. The New England Journal of Medicine, p. 1-3.

Pear, R. (2017) Muted response from health lobby as Affordable Care Act faces repeal. The New York Times. [En línea] (Revisado el 10 de enero de 2017).

Salas, J. (2017) Obama usa la ciencia para poner “verde” a Trump. El País. [En línea]
(Revisado el 10 de enero de 2017).

Slezak, M. (2017) Barack Obama transfers $500m to Green Climate Fund in attempt to protect Paris deal. The Guardian. [En línea] (Revisado el 17 de enero de 2017).

Leer completo

Cuando Jocelyn Bell Burnell formaba parte del laboratorio de Antony Hewish, en Cambridge, una de sus responsabilidades era la de interpretar datos de las transmisiones de radio provenientes del espacio, obtenidos a través de un telescopio que ella ayudó a construir. Una madrugada detectó ondas de radio pulsantes. Sus asesores pensaron que se trataba de señales de vida alienígena, pero ella notó que dichas oleadas provenían de un tipo de estrellas llamadas pulsares. Para entonces, Jocelyn tenía 24 años y su descubrimiento fue publicado en Nature, una de las revistas científicas de más prestigio en el mundo.

Este trabajo, que abonó al conocimiento que tenemos del ciclo de vida de las estrellas, y que además es uno de los responsables de que Jocelyn se convirtiera en Presidenta de la Sociedad Real de Astronomía más tarde, hizo que Antony Hewish ganara el premio Nobel de Física en 1974, justamente por el hallazgo de la radiación electromagnética emitida por estas estrellas de neutrones.

Más que tratarse de un caso aislado, la anécdota de la doctora Jocelyn es una de tantas en la historia de la ciencia. A pesar de que el número de estudiantes mujeres en carreras científicas ha ido en aumento en una importante cantidad de universidades durante los últimos años, actualmente sólo casi 3 de cada 10 investigadores en el planeta son mujeres, de acuerdo a datos de la UNESCO. En México, el 32% de los investigadores son mujeres. Esto significa que la inequidad que existe en las esferas más altas del ámbito científico es un hecho generalizado.

mujeres

La evidencia que existe en torno a este tema es amplia. De acuerdo con un trabajo realizado en 2008, en el área de ecología, el número de autoras aumentó de forma importante después de que una revista arbitrada en el tema decidiera esconder el nombre de los investigadores responsables de los artículos que sometían a revisión. Algo similar sucede con Nature. A pesar de que las mujeres representan el 20% de la fuerza laboral en el campo de las ciencias ambientales, en esta revista sólo un 3.8% del total de sus artículos en el tema han sido publicados por mujeres.

Si esto es así para la biología, un campo de estudio al que se le ha estereotipado como amable para el género femenino, el camino es un tanto más complicado para aquellas que se abren paso en áreas como la ingeniería, las matemáticas, o la física –incluida la astronomía–. Para probar esto, este año un grupo de investigadores del Instituto de Astronomía de la Escuela Politécnica Federal de Zúrich utilizó un algoritmo con el propósito de conocer la proporción de citas que recibe un artículo dependiendo el género del primer autor. Contaron la cantidad de veces que otros artículos hicieron referencia a una publicación en específico, dependiendo de si el autor principal del estudio era hombre o mujer.  Del análisis de dos mil artículos científicos en el área de la astronomía, los resultados mostraron que los trabajos de hombres son retomados como evidencia científica valiosa en su gran mayoría, a diferencia de los trabajos de autoras. Esto sin importar que el número de aquellos escritos por mujeres como autores principales haya aumentado nada menos que un 20% en los últimos cincuenta años –un número que ha crecido de forma bastante lenta sobre todo en Science y Nature.

El mensaje de esta investigación es simple pero profundo: la comunidad científica fundamenta y confía su trabajo, al menos en la astronomía, dependiendo del género del autor de las investigaciones que consulta. Podría decirse, entonces, que la evidencia científica mostrada por un científico es más apreciada en la comunidad y las casas editoriales que la difunden por el simple hecho ser hombre.

Estos resultados son consistentes con otros trabajos. En un estudio publicado en 2014, se mostró que, luego de que las científicas utilizacen el telescopio Hubble para desarrollar sus investigaciones, las hipótesis que generan como parte de su trabajo tienen menos posibilidad de ser aceptadas por la comunidad científica, a diferencia de si las hiciera un investigador.

Dicho esto, es probable que el género de Jocelyn hubiera estado relacionado con el número mismo de sus publicaciones. ¿Cuántos artículos habrá deseado publicar, pero se quedaron en la imprenta producto de su género?

Es verdad que existe la posibilidad de que su carrera, incluso con los obstáculos impuestos por ser mujer, la investigadora tuviera las publicaciones suficientes para que se posicionara como una de las investigadoras más representativas en el campo de la astronomía. Existe el escenario de que, por escribir su primer artículo solamente – el que publicara en Nature a sus 24 años–, hubiera alcanzado la gloria en el ámbito de la astronomía.

Tomemos como ejemplo el caso del físico teórico Frank Wilczek. En 1973, cuando era un estudiante de la Universidad de Princeton halló, junto con el jefe de su laboratorio, que  cuando los quarks están más cercanos entre ellos, la interacción nuclear fuerte –la fuerza que mantiene a los átomos unidos– es menor. A esto lo nombraron “libertad asintótica”. Por dicho trabajo, el primero de su carrera y que publicó cuando tenía 22 años, Wilczek ganó el premio Nobel en Física en 2004 junto con el entonces jefe de su laboratorio. Esto a diferencia de Jocelyn.

¿Será que mientras más jóvenes sean los investigadores, sus trabajos tienen mayor impacto? De acuerdo con un estudio publicado este mismo año, dicha situación está lejos de ser una regla. Tenemos a John B. Fenn, un químico que se hizo acreedor al Nobel de Química en 2002 por un artículo que publicó en los años noventa, en el que propone un método novedoso para la detección de moléculas biológicas. Dicho trabajo se publicó cuarenta años después de su primer estudio difundido en una revista arbitrada. De hecho, para el momento en que salió de la imprenta el artículo que lo hizo acreedor al Nobel, la Universidad de Yale ya lo había obligado a retirarse, pues el investigador tenía más de 70 años. Con esto queda claro que tanto el primer artículo como el último puede ser igual de importante para bañar de éxito a los autores.

Según un estudio del 2016 presentado en Science y que analiza si la publicación de ese “artículo dorado” tiene patrones predecibles –como que mientras más joven el científico, más probabilidad de que su trabajo sea relevante–, estudia si el impacto y la productividad cambian a lo largo del tiempo en una carrera científica. Los resultados del análisis demostraron que, efectivamente, la productividad de un científico cambia a lo largo de su carrera, y que el crecimiento de dicho rendimiento es más rápido si el susodicho es individuo de alto impacto. Esto significa que si una persona de ciencia tiene trabajos de relevancia considerable para su campo de estudio, su productividad tendrá un crecimiento acelerado. Concentrarse en que se amplíe la habilidad o la excelencia, en lugar de enfocarse en la productividad es una mejor forma para de que el impacto de un científico aumente durante su carrera.

Sin embargo, también es cierto que una carrera exitosa temprana tiene sus ventajas. Trabajar por publicaciones que aseguren la entrada de recursos monetarios acarreará en consecuencia más estudios exitosos y publicaciones de alto impacto. Por tanto, se calcula que los primeros 10 artículos de la carrera de un científico están asociados con la longevidad de su carrera, o lo que es lo mismo, con la probabilidad de quedarse en la Academia. Eston además resalta un dato importante: la habilidad de mantenerse publicando artículos de interés está lejos de relacionarse con la suerte, o sólo con un buen artículo, sino que es cuestión de mantener un alto rendimiento a lo largo de toda la carrera.

Pero cuando se trata de predecir el momento en que se publicará el trabajo de más alto impacto, la incertidumbre ataca. En realidad, es imposible predecir en qué instante de la carrera de un científico vendrá ese trabajo que lo coloque en el pedestal de los ganadores. Por el contrario, lamentablemente sí se sabe que el camino al éxito es más tortuoso para las mujeres.

El mundo de la ciencia puede estar plagado de Wilczeks y de Fenns, pero también de Jocelyns que diariamente se enfrentan a ser segregadas simplemente por su género. A pesar de que una carrera científica pueda ser tan exitosa y productiva como se plantee el científico en cuestión, también es verdad que otros factores pueden afectar el crecimiento. Sin importar su edad, las mujeres continúan golpeando paredes esperando que éstas se conviertan en puertas, aun cuando cuentan con todas las herramientas intelectuales a su favor. En un mundo lleno de desigualdades, es deseable que la ciencia aspire a generar oportunidades para todas las personas de ciencia por igual.

Bibliografía:

Budden, A., et al (2008) Double-blind review favours increased representation of female authors. Trends in Ecology and Evolution, 23(1), 4-6.

Caplar, N., et al. (2016) Quatitative evaluation of gender bias in astronomical publications from citation counts. arXiv.

Mujeres en ciencia. Unesco. [Revisada el 15 de noviembre de 2016].

Reid, N. I. (2014) Gender-correlated systematics in HST proposal selection. The Astronomical Society of the Pacific, 126 (944).

Sinatra, R., et al. (2016) Quatifying the evolution of individual scientific impact. Science, 14 (6312).

The Nobel Prize [Revisada el 11 de Noviembre de 2016].

Leer completo

Correr es uno de los actos más naturales en los seres humanos. Sin pretensiones, muestra nuestra verdadera personalidad y el estado en el que nos encontramos: con nuestra postura, la respiración y la facilidad del movimiento se notan el esfuerzo, la constancia y la experiencia.

correr

Sólo viéndolo correr se distingue a un aficionado de un profesional. Éste último, según menciona el escritor Haruki Murakami en De qué hablo cuando hablo de correr, se gana el título cuando recorre un mínimo de sesenta kilómetros a la semana. Es la práctica la que diferencia al que casi nunca piensa en nada serio cuando corre, del que corre en medio del vacío. Casi flotando. “Los más vigorosos, los que corren golpeando con fuerza el suelo y cortando el viento al avanzar, parece que los persigue una cuadrilla de bandoleros. Por otro lado, están los corredores entrados en carnes, que corren con enorme sufrimiento: los ojos entornados, los hombros caídos y resoplando ruidosamente”, dice el autor.

Cuando digo que correr es uno de los actos más naturales, lo hago en el estricto sentido de la palabra. Tan natural como lo es rascarse cuando se tiene comezón, o temblar cuando se tiene frío. La responsable de esto es entonces la evolución de nuestra especie, que a lo largo del tiempo ha desembocado en que corramos como lo hacemos.

Usain Bolt es esa excepción que confirma la regla de que los Homo sapiens y el resto de los simios somos malos velocistas. De ahí que el correr, en términos teóricos, se haya considerado como algo poco valioso en la evolución biológica de los humanos.

Sin embargo, hay una característica en este arte deportiva que sí distingue a nuestra especie: somos muy buenos en la carrera de resistencia. Tan es así, que se ha estimado que esta cualidad apareció en el género Homo hace 2 millones de años. Y para muestra del aguante está la población mexicana que en el nombre lleva el correr: los Rarámuris. “Pies ligeros” es el significado del nombre de la población a la que también se le conoce como Tarahumaras. Su impresionante capacidad de recorrer hasta más de 300 kilómetros en un par de días es una clara muestra de la resistencia humana en esta actividad. Su exposición a las carreras de larga distancia desde que son niños los ubica entre las pocas poblaciones en el mundo que conservan este comportamiento más bien como parte de una tradición.

Es la respuesta de su cuerpo lo que resulta impresionante. En un estudio realizado en 2014 por investigadores mexicanos y europeos, se les pidió a 10 personas pertenecientes a esta población del norte del país que recorrieran la nada despreciable distancia de 78 kilómetros. Para conocer las características de su respuesta cardíaca, renal, y sanguínea se les tomaron muestras de sangre en distintos intervalos de tiempo, antes y después del ejercicio físico. Los resultados mostraron que una vez terminada la carrera, existían distintos daños a nivel sistémico. Se vio daño cardíaco, un detrimento en la capacidad de los riñones para llevar a cabo una filtración adecuada, y daño en el músculo esquelético -el que permite movernos-, por mencionar algunos resultados negativos.

Sin embargo, a pesar de que las condiciones de su corazón, riñones y sangre mostraron valores alarmantes por el deterioro antes mencionado, después de correr una distancia que casi duplicó un maratón, éstas regresaron a los números iniciales tan sólo dos días después de finalizada la actividad física. De esto hablo cuando hablo de correr en el vacío. Sin duda es un resultado que deja mal parado a Filípides, el soldado griego sobre el que descansa el mito fundador del maratón, y que junto a los Trahumaras, hace que su muerte, luego de correr 37 kilómetros, parezca más bien una excentricidad.

Con esto, los investigadores mencionan que el daño a los órganos después de correr es más bien una característica transitoria, como resultado de una adaptación que ha sufrido la población a lo largo del tiempo a la carrera de grandes distancias. Es así que el proceso evolutivo alberga algunas respuestas a los porqués que rodean al acto de correr: ¿correr fue un modo de locomoción que influenció la evolución humana? Al menos para la carrera de resistencia la respuesta es afirmativa.

Los humanos somos corredores mediocres cuando se nos compara contra otros mamíferos, como el caballo, el galgo o el antílope americano, esto de acuerdo con un estudio publicado en Nature en 2004. A diferencia de estos animales, que pueden mantener galopes de grandes velocidades por varios minutos, nosotros somos lentos. A esto se le debe sumar el hecho de que utilizamos el doble de la energía que otros mamíferos por distancia viajada, o que carecemos de características físicas que nos podrían facilitar la maniobra para la carrera, como las que tienen los gatos o los perros que caminan sobre sus dedos sin apoyar los talones.

Pero así como el paso del tiempo ha contribuído a que los humanos seamos malos velocistas, también es verdad que de generación en generación se han fijado ciertas características que nos permiten ser los únicos primates con la capacidad de realizar carrera de resistencia. Por ejemplo, a diferencia de otros simios, nuestras piernas tienen tendones largos conectados a los músculos, lo que economiza la fuerza empleada. Un ejemplo es el tendón de Aquiles, que conecta al talón con los músculos flexores del pie. Aunque estas estructuras son inexistentes en el registro fósil por su constitución blanda –haciendo que la datación para conocer a los ancestros que ya presentaban sea difícil–, se estima que el tendón de Aquiles probablemente surgió hace 3 millones de años en el género Homo.

Otras características están en el arco de nuestro pie. Al caminar, el arco contribuye con la estabilidad del pie, además de que absorbe la fuerza del impacto. Pero al correr, el arco regresa cerca del 17% de la energía generada en cada zancada, funcionando como un resorte. Algo similar ocurre con la longitud de nuestras piernas: mientras que unas extremidades largas nos permiten incrementar la velocidad óptima del caminar, esta característica da la posibilidad de que al correr se aumente el tiempo de contacto con el suelo. Esto último es ventajoso para la carrera de resistencia en el sentido de que se ha visto que aquellas especies con un tiempo corto de contacto tienen altos gastos energéticos.

A la lista de ventajas anatómicas se pueden sumar el tamaño de nuestro pie –un 9% de la masa de nuestra pierna es pie, a comparación del 14% del chimpancé–, o el que tengamos una baja tasa de zancadas comparadas con las de un cuadrúpedo, lo cual viene acompañado de la presencia de fibras musculares resistentes a la fatiga. También el hecho de que las articulaciones en la parte baja de nuestro cuerpo se presentan extendidas  favorece la reducción del estrés al que se somete nuestro esqueleto cuando caminamos y, más aún, cuando corremos. Las características de nuestro tronco que nos permiten generar estabilidad, sobre todo porque tenemos la capacidad de rotarlo con respecto a la cintura, a comparación de los simios. Esto le da independencia a nuestra cabeza y a los pectorales.

La reducción de la cantidad de vello, una forma corporal alargada, una circulación sanguínea intrincada en nuestra cabeza –sumado a la presencia de glándulas sudoríparas cerca de las venas craneales que ayudan a enfriar la estructura completa antes de que la sangre caliente llegue al cerebro– contribuyen a la capacidad de perder calor corporal y a mantener un ritmo de respiración al correr que está íntimamente relacionado con nuestra evolución biológica. A esto se suma el que podamos respirar por la boca durante la actividad física. Los simios y nosotros mostramos resistencia para soportar grandes demandas de oxígeno por la nariz, así que la boca suple la alta demanda de este elemento. Finalmente, junto con otros bípedos, como el canguro y el ualabí, los humanos podemos ajustar la velocidad de la carrera de forma continua y sin cambiar el paso, o sin que exista alguna consecuencia a nivel metabólico por el desempeño a distintas velocidades.

Aunque toda esta evidencia sugiere que la carrera de resistencia se originó en el género Homo, aún es necesaria más información para comprobar dicha hipótesis. De ser así, sería posible atribuir la evolución del correr como una característica que ayudaba en la búsqueda de comida y en la caza. Entonces, aquellos corredores que tenían una dieta rica en grasa y proteínas sobrevivían, y pasaban sus características físicas a la descendencia.

A pesar de todas las ventajas evolutivas que ha traído el correr, Murakami retoma en su lectura que el maratón no es para todos. Cada quien debe encontrar ese gusto y necesidad de correr. De ahí que no recomiende a la gente que corra. Como argumento menciona que “al ser humano no le cuesta proseguir con algo que le gusta, pero sí con algo que no le gusta”.

Esto tiene relación con lo propuesto por un grupo de investigadores del departamento de ciencias sociales y del comportamiento de la Brown University School of Public Health. En su artículo, publicado en 2016, los autores proponen que las bajas tasas de ejercicio físico entre la población en general son resultado de que los humanos evolucionamos hacia una tendencia de evitar un esfuerzo físico innecesario. El principal argumento que dan es que nuestros ancestros evitaban el gasto energético en actividades que no tenían una función clara inmediata. Correr sin sentido hubiera causado un gasto energético innecesario, reduciendo así las capacidades reproductoras y de supervivencia de los individuos. Argumentan, entonces, que nuestro desagrado por el ejercicio viene dado por nuestra evolución biológica. Habrá que ver.

Existe la posibilidad de que el acto de correr sea tan antiguo como el género al que pertenece nuestra especie. Fueron las necesidades de la supervivencia los factores que contribuyeron a que este comportamiento se convirtiera en un factor decisivo en la evolución de nuestra especie. Y también que en la actualidad sea un placer del que algunos se dan el lujo de experimentar.

 

Bibliografía:

Bramble, D. & Lieberman, D. (2004) Endurance running and the evolution of Homo. Nature 432, 345-353.

Christensen, D. et al (2014) Normalization of elevated cardiac, kidney, and hemolysis plasma markers within 48 h in Mexican Tarahumara runners following a 78 km race at moderate altitude. American Journal of Human Biology, 26:836-843.

Lee, H. et al (2016) The exercise-affect-adherence pathway: an evolutionary perspective. Frontiers in psychology, 7:1285.

Murakami, H. (2015) De qué hablo cuando hablo de correr. Tusquets.

Leer completo

Cuando Mary Roach recopilaba vivencias para su libro Packing for Mars, tuvo la oportunidad de preguntarle al astronauta estadounidense Jerry Linenger su sensación al estar en el espacio. Linenger le confió que sufrió de una ansiedad única en el espacio. No era miedo, sino más bien una “sobrecarga intelectual”: “la idea de cien billones de galaxias es tan abrumadora que intentaba no pensar en eso antes de ir a la cama, porque me emocionaba o me agitaba tanto que no podía dormir con algo tan enorme en mi cabeza”.

genetica

Para los chinos, la idea del infinito no es abrumadora, pues los confines del Universo empiezan a estar al alcance para ellos. Este año, la nación asiática ha completado a FAST, el telescopio terrestre más grande de la historia, el cual cubrirá de dos a tres veces más área celeste que cualquier otro construido con anterioridad. Gracias a éste podrán llegar hasta donde ningún instrumento de medición ha podido hacerlo con anterioridad.

Con los 500 metros de diámetro del Five-Hundred Meter Aperture Spherical Radio Telescope, gracias a su gran sensibilidad de recepción, se podrá estudiar a las ondas de radio de baja frecuencia del Universo. Así, se abonará al conocimiento que tenemos sobre el origen del Universo, a la evolución de las galaxias, las estrellas nacientes, el ciclo de vida del medio interestelar (esto es, la materia que existe entre las estrellas de una galaxia), y a buscar señales de radio provenientes de exoplanetas. Éste último punto se traduce en encontrar evidencia de otras civilizaciones. 

La historia de este gran telescopio —del que cada detalle de su composición fue cuidado meticulosamente— se remonta a hace más de veinte años, cuando la International Union of Radio Science comenzó con los esfuerzos para desarrollar un radio telescopio de última generación. Fue inmediatamente después de esta reunión que se comenzó a buscar en dónde colocaría. De 400 posibles lugares, se eligió la depresión Danwodang, misma que presenta un área de casi un millón de metros cuadrados, y cuya ubicación privilegiada parecería mandada a hacer.

Por la zona, la observación de objetos galácticos meridionales será posible. Por el clima subtropical, junto con los pocos días con nieve y escarcha en invierno, las estructuras que conforman al telescopio tendrán un tiempo de supervivencia considerablemente largo. Por su ubicación alejada de grandes concentraciones de personas, además de las montañas que rodean a la depresión y que forman una especie de escudo, se evitará la contaminación de datos que provoca la interferencia electromagnética, algo que tiende a ser común cuando se busca detectar señales de radio. También se encuentra en una zona tectónica estable, en la que sólo existen registros de unos cuantos terremotos.

Fue en 2006 cuando se organizó una reunión internacional en Pekín con el propósito de discutir la ciencia y tecnología detrás de FAST, misma que resultó en la aprobación del financiamiento para su construcción un año después. Ésta comenzó en 2011 y este año anunciaron al mundo su finalización. Desde la reunión realizada hace más de veinte años, y hasta ahora, cientos de científicos e ingenieros de al menos 20 instituciones del país asiático han trabajado de manera conjunta en este proyecto de investigación.

Pero así como en este caso el tamaño sí importa, la forma también. A partir de un análisis de seis posibles tipos de formas geométricas que podrían tener los páneles que conforman al telescopio, se decidió que FAST estaría hecho de la suma de pequeños triángulos de aluminio que, en conjunto, forman una parábola sostenida por una maraña interminable de cableado. Gracias a este complejo acomodo de cables, cada panel puede ser manipulado en longitud y ángulo de colocación para así deformar su superficie.

Aún cuando FAST es ya asombrosamente ambicioso, China sigue sacando más ases para conquistar el estudio del Universo entero. A finales de 2015 lanzaron al espacio a Wukong (que significa Rey Mono), su primer detector de materia oscura, de la cual se cree que está compuesto el 85% de la materia del Universo. A través de este aparato, los investigadores del país asiático buscan detectar partículas de alta energía y rayos gamma, mismos que se producen mediante procesos astronómicos como la fusión nuclear en las estrellas, pero que no pueden ser detectados desde la Tierra. Wukong, cuyo nombre oficial es Explorador de Partículas de Materia Oscura, es la primera de  cinco misiones del Programa de Ciencia Espacial chino, el cual comenzó en 2011.

Pero los avances científicos y tecnológicos de China están impactando en todas las ramas del conocimiento. El financiamiento es la clave: la revista Nature reporta que hace 16 años China invertía tanto dinero en investigación científica como lo hacía Francia para ese entonces, pero actualmente inyecta la misma cantidad que la Unión Europea completa. Gracias a esto, junto con Estados Unidos, la nación asiática es la que tiene más publicaciones científicas del mundo, pues provienen del trabajo de su millón y medio de investigadores —número que supera el de Estados Unidos.

Otra área en la que está compitiendo con el resto del mundo es en el estudio de partículas elementales. China ya cuenta con un colisionador de 240 metros de circunferencia, del que han obtenido buenos resultados: en 2012 lograron demostrar la manera en que los neutrinos cambian de forma. Por este entrenamiento en materia de partículas, actualmente están construyendo un colisionador de 52 kilómetros de circunferencia, lo que representa casi el doble del CERN, ubicado en Europa. De salir todo en tiempo y forma, los asiáticos pondrán a chocar positrones y electrones dentro este gran anillo subterráneo para el 2028, logrando así detectar partículas hasta ahora desconocidas o incluso apostar por nuevas fuentes de energía para las ciudades.

En la medicina también están rebasando por la derecha al resto de la comunidad científica. A principios de este año anunciaron haber logrado editar genéticamente a embriones humanos. Gracias al uso de CRISPR, la tecnología de edición genética que está revolucionando a la biología y a la medicina: un grupo de investigadores de esta nación logró editar genes en embriones humanos para hacerlos resistentes al virus de inmunodeficiencia humana. Seguido de esto, un equipo distinto logró modificar algunos genes relacionados con enfermedades de la sangre, también en embriones humanos. En ambos trabajos, sin embargo, los embriones fueron inviables.

Como si la edición genética en embriones no hubiera sido una gran noticia, a finales de julio anunciaron la aprobación del uso de CRISPR para ser empleada en tratamientos con pacientes humanos que padecen cáncer de pulmón. A grandes rasgos, la terapia consistirá en tomar células del sistema inmune de los pacientes para modificarlas genéticamente con las herramientas moleculares, para después inyectarlas de regreso al cuerpo de los pacientes. Es importante destacar que parte del éxito de los investigadores chinos en el área de la edición genética radica en que están sacando partido de la negativa de su nación por firmar convenios internacionales que prohiben la manipulación genética en embriones y en adultos humanos.

A pesar de que China sólo destina a la ciencia básica un 5% del total de su inversión a la investigación y desarrollo, todas las áreas de trabajo están teniendo un crecimiento importante. Desde la agricultura, pasando por estudios antropológicos, hasta los ambientales y ecológicos —además de la astronomía, física, biología y medicina ya mencionadas—, los chinos están comenzando a vivir los resultados de una inyección considerable de dinero en la ciencia. Mientras tanto, el mundo entero está empezando a voltear a verlos, pues están imponiendo la dirección que tomará el progreso científico.

Referencias:

Callaway, E. (2016) Second Chinese team reports gene editing in human embryos. Nature, [en línea]. Disponible en: http://go.nature.com/2bwN3MZ (Revisado el 1 de agosto de 2016).

Cyranoski, D. (2016) Chinese scientists to pioneer first human CRISPR trial. Nature, [en línea]. Disponible en: http://go.nature.com/2c4bVIO (Revisado el 22 de julio de 2016).

Editorial (2016) The future of Chinese research. Nature, 534 (7608), [en línea]. Disponible en: http://go.nature.com/2bDF6Tp  (Revisado el 14 de julio de 2016).

Gibney, E. (2016) China plans super collider. Nature, 511 (7510), [en línea]. Disponible en: http://go.nature.com/2c0fErB (Revisado el 22 de julio de 2016)

Nan, R. et al (2011) The five-hundred-meter aperture spherical radio telescope (FAST) project. International Journal of Modern Physics. 1-32.

News Feature (2016) Science stars of China. Nature, 534 (7608), [en línea]. Disponible en: http://go.nature.com/2bvFrbG (Revisado el 14 de julio de 2016).

Van Noorden, R. (2016) China by the numbers. Nature, 534 (7608), [en línea]. Disponible en: http://go.nature.com/2bMnzXQ (Revisado el 14 de julio de 2016).

Leer completo

Para cuando estalló la Revolución francesa, Georges Cuvier, reconocido como el fundador de la paleontología en vertebrados, comenzaba con sus primeras observaciones de campo lejos de París. Sin embargo, el contexto de este naturalista francés que a lo largo de su vida trabajó para tres gobiernos distintos —el de la Revolución, el de Napoleón y el de la monarquía—, claramente impactó en su cosmogonía: llamó “revoluciones”, y no extinciones, a los eventos periódicos que acabaron con las especies de las que hoy sólo conocemos fósiles.

asteroide

Ilustración: Oldemar González

Cuvier fundamentó el concepto de la revolución/extinción como un hecho de causas naturales, lo que implicó la exclusión de las explicaciones bíblicas. Pero, a pesar de haber sido reconocido por su capacidad para reconstruir el aspecto de organismos extintos a partir de sólo unos cuantos huesos —de ahí que también se le reconozca como fundador de la anatomía comparada—, siempre negó la existencia de los procesos evolutivos. Fue tal su negación al cambio de las formas biológicas a través del tiempo que se conocen ocho debates públicos con su gran amigo Geoffroy Saint-Hilaire, también naturalista y el responsable de que Cuvier se uniera al Museo Nacional de Historia Natural pocos años después de la Revolución. Mientras Saint-Hilaire dio argumentos a favor del cambio de los organismos en el tiempo a partir de un plano único, un ancestro común, Cuvier sostuvo aguerridamente que la estructura de cada organismo está finamente equilibrada por la forma y la función: cualquier cambio en la anatomía los hace incapaces de sobrevivir. A pesar de generar una clasificación animal de cuatro grupos, negó la existencia de una conexión evolutiva entre ellos, pues aseguraba que la similitud se debía a funciones comunes.

Mientras que la historia reconoce a Cuvier como el vencedor por sus argumentos y por su holgada posición política —la cual ayudó a socavar la carrera del que le diera nombre a la biología: Jean Baptiste Lamarck—, las ideas de Saint-Hilaire salpicaron a otros naturalistas e incluso a estudiantes de medicina ingleses y escoceses que, por cuestiones educativas de la época, tuvieron que completar su formación en Francia. Uno de ellos fue Robert Grant, un médico escocés alumno de Cuvier, simpatizante de las ideas de Lamarck, y que de regreso a Edimburgo fue profesor de Charles Darwin. Grant fue una de las muchas fuentes a las que Darwin tuvo acceso para conocer las ideas de los naturalistas franceses. El resto es historia.

La seducción del tema de la extinción por varios siglos va más allá del meteorito que acabó con los dinosaurios. De hecho, a lo largo de la vida en la Tierra han existido al menos cinco extinciones. Al sumarlas todas, y si se enlistara al conjunto de las especies que han habitado el planeta, veríamos que nueve de cada diez organismos que han existido se han extinto.

El evento más letal ocurrió hace 250 millones de años y es vulgarmente conocido como “La Gran extinción del Pérmico”. Su impacto fue tal que el 96% de las especies marinas y el 70% de los organismos terrestres desaparecieron. Existen muchas hipótesis que intentan explicar esta destrucción masiva, pero el desarrollo de un modelo convincente se complica por la datación de las muestras: la materia prima de las evidencias se encuentra en la corteza terrestre pero, por el recambio que ésta vive de manera natural, obtener muestras que puedan dar información sobre la serie de eventos que desencadenaron la gran extinción es una tarea titánica.

En cambio, la conocida extinción de los dinosaurios está lejos de haber sido la más letal: aunque 88% de los animales terrestres desaparecieron, un 90% de los acuáticos sobrevivieron. La hipótesis más aceptada en torno a las causas de esta extinción involucra al asteroide que golpeó a la Tierra hace 66 millones de años, formando el tercer cráter más grande en la Tierra: el Chicxulub. Éste comenzará a ser perforado este año por un grupo de investigación internacional para así conocer más sobre su composición.

La hipótesis del asteroide sostiene que las formas de vida perecieron debido a que, como consecuencia del impacto, en la estratósfera se formó un aerosol de ácido sulfúrico. Esto reflejó la luz del Sol, oscureció el planeta, provocó lluvias ácidas y bajó las temperaturas hasta tener condiciones similares a las del invierno. Las plantas, la materia prima de la cadena alimenticia, dejaron de fotosintetizar, provocando que los hervíboros y luego los carnívoros murieran.

Por muy convincente que suene esta hipótesis, hay dos eventos que lo ponen en duda: uno es que los aerosoles de ácido sulfúrico duran poco tiempo en la estratósfera; y el segundo es que, a pesar de la muerte de los dinosaurios, muchos otros animales terrestres sobrevivieron, como fue el caso los mamíferos, las aves y los cocodrilos, entre otros. De hecho, cuando existe la desaparición de una especie, su lugar —o nicho— es ocupado por otra: de ahí que los mamíferos tuvieran éxito evolutivo luego de la extinción de los dinosaurios.

Partiendo de este problema, un grupo de investigadores japoneses publicó este año una propuesta que sugiere un nuevo elemento que pudo haber abonado al exterminio de los dinosaurios: el hollín. Su modelo sugiere que este conjunto de partículas negras finas que popularmente se asocia con la revolución industrial, se produjo por la quema de las sustancias combustibles que había debajo de la corteza luego del impacto.

El hollín puede permanecer en la estratósfera por varios años —aunque de quedarse en la tropósfera puede ser eliminado en una semana con la lluvia— y, según los investigadores asiáticos, lo más probable es que con el asteroide se produjeran casi 1,500 teragramos de éste (un teragramo equivale a un millón de millones de gramos), suficiente para causar la extinción de los dinosaurios. Su hipótesis es que este elemento se produjo como resultado del impacto del asteroide en la Tierra y que, junto con el ácido sulfúrico, pudo haber acabado con las distintas formas de vida.

Para probar esto, los investigadores analizaron rocas de la época del Cretáceo tardío, el momento del impacto, muestreadas en dos lugares distintos para poder corroborar que esta nube de hollín habría llegado más allá de la zona del impacto: a Haití y España. Los resultados mostraron que la composición química de las rocas era similar, pues las muestras de ambos lugares contenían restos de productos de la quema de combustibles orgánicos.

A partir del muestreo los científicos realizaron distintos modelos que explican lo que pudo haber sucedido en la Tierra con distintas concentraciones de hollín atmosférico. Por ejemplo, un resultado es que la temperatura en ciertas latitudes del planeta fue de entre 12ºC y 15ºC, lo que podría explicar la supervivencia de los cocodrilos, animales que pueden vivir en áreas en donde los inviernos tienen una mínima temperatura de ese rango. Otro resultado es que después de un mes, y hasta dos años después del impacto, la fotosíntesis bajó en niveles de producción, lo que afectó de manera considerable a las zonasterrestres.

También demuestran que la exuberancia de plantas tropicales se vio gravemente afectada, por lo que los paisajes cercanos al Ecuador cambiaron hacia un ambiente más desértico. Los hervíboros de la zona murieron, y con ellos los carnívoros. Sólo aquellos animales que se alimentaban de materia en descomposición –léase mamíferos– sobrevivieron y ocuparon el lugar de aquellos desaparecidos. En general, los científicos concluyen que la hipótesis del ácido sulfúrico por sí sola es insuficiente para explicar el enfriamiento del planeta luego del impacto. La combinación hollín-ácido sulfúrico es una causa plausible para el enfriamiento terrestre.

Los estudios de las extinciones dan para mucho. Recientemente, varios grupos de investigadores han estudiado los depósitos del 60Fe, que es un isótopo del hierro —es decir, una forma radiactiva del elemento químico— y que es sumamente útil para el estudio de meteoritos y formación de minerales. Los estudios con esta variante del Hierro les han permitido asociar la explosión de una supernova con una extinción pequeña que ocurrió en la transición entre el Plioceno y el Pleistoceno temprano, entre hace 5 y 2.5 millones de años.

Distintos grupos de estudio analizaron muestras de suelo marino con el propósito de darle una fecha a los depósitos del isótopo del Hierro. Los resultados mostraron que parte del polvo interestelar encontrado en nuestro planeta se emitió por la explosión de una estrella en la vecindad de nuestra galaxia, y que éste entró a nuestro Sistema Solar y hasta la Tierra. Dadas las fechas en las que el arribó el Hierro radiactivo a nuestro planeta, un tercer grupo internacional de investigadores asoció este evento astronómico con la extinción de algunos organismos. Ellos mencionan que existe la posibilidad de que la carga radiactiva del material se triplicara y, por lo tanto afectara a los organismos terrestres al aumentar su tasa de mutaciones. Además, explican que el material radiactivo pudo desencadenar cambios climáticos que, a su vez, habrían tenido efecto en la extinción.

Esta hipótesis que relaciona la extinción con la supernova aún necesita ser puesta a prueba. Faltaría entonces rastrear material radiactivo en el registro fósil datado en estas fechas. Sin embargo, los investigadores reconocen que es probable que los efectos de esta extinciónno hayan sido catastróficos.

Las extinciones, más allá de ser eventos que tienen repercusiones mayúsculas en términos biológicos, representan un campo de estudio fascinante que involucra áreas como la astronomía y la geología, pero también la historia y la filosofía de la ciencia. Su planteamiento despliega conflictos y discusiones filosóficas que van desde el desarrollo embrionario, pasando por la transformación de los organismos, hasta a la intrincada relación forma-función. En el estudio de las extinciones hay, sin embargo, dos noticias: la buena es que va más allá de los dinosaurios. La mala es que sin una máquina del tiempo es complicado formular explicaciones sobre las causas de una extinción, incluso si ésta ocurrió hace relativamente poco.

 

Bibliografía

Baggaley, K. (2016) A supernova might have abetted a mass extinction on earth. Popular Science [en línea]. Disponible en: http://bit.ly/2b13OyG (Revisado el 11 de julio de 2016).

BBC (2016) Big five mass extinction events. Nature, Prehistoric life [en línea]. Disponible en: http://bbc.in/2b8G782 (Revisado el 31 de julio de 2016).

Bjornerud, M. (2016) Darkness on the dinosaurs. The New Yorker [en línea]. Disponible en: http://bit.ly/2b3jdzH (Revisado el 14 de julio de 2016).

Breitschwerdt, D. et al (2016) The location of recent supernovae near the Sun from modelling 60Fe transport. Nature, 532, 73-78.

Kaiho, K. (2016) Global climate change driven by soot at the K-Pg boundary as the cause of the mass extinction. Scientific reports, 6:28427, 1-11.
http://go.nature.com/2aM3frN

Thomas, B.C. et al (2016) Terrestrial effects of nearby supernovae in the early pleistocene. Astrophysical journal letters

University of Kansas (2016) Ancient supernovae buffeted Earth’s biology with radiation dose, researcher says. Eurekalert [en línea]. Disponible en:  http://bit.ly/2b3jNxx (Revisado el 14 de julio de 2016)

Wallner, A. et al (2016) Recent near Earth supernovae probed by global deposition of interstellar radioactive 60Fe. Nature, 532, 69-72

Leer completo

Islandia cautivó al mundo entero con su futbol en la Eurocopa 2016. En una entrevista para The Guardian, Heimir Hallgrímsson, uno de los entrenadores, dijo tener claro “que no tenemos jugadores como Holanda o Turquía. Nosotros ganamos en la unidad, en el trabajo duro y en la organización, y tenemos que ser mejores que nadie en estas áreas”.

Este mismo año, también le demostraron al mundo que están haciendo de este planeta un mejor lugar al capturar dióxido de carbono atmosférico. Desde 2014, la isla europea está capturando este gas de efecto invernadero e inyectándolo al subsuelo, de regreso a la Tierra, a una tasa de 5 mil toneladas al año —con miras a duplicar la cantidad este año. Esto con la intención de eliminarlo de la atmósfera y hacer que quede secuestrado en las formaciones rocosas debajo del suelo.

aire

Regresemos a los datos. Si de algo es responsable la humanidad es del incremento en los niveles de dióxido de carbono atmosférico –aunque todavía haya quien, como Donald Trump, duda que esto sea real. La evidencia es contundente, y tan sólo contando los datos que tiene la Sociedad Estadounidense de Química sabemos que los niveles atmosféricos de este compuesto (junto con el metano y el óxido de nitrógeno, otros gases de efecto invernadero) han aumentado desde el año 1750. Esta fecha coincide de forma casi precisa con el inicio de la revolución industrial, momento en el que las actividades humanas comenzaron a ser impulsadas por fuentes energéticas no renovables y altamente contaminantes.

Con este gran poder —el de obtener energía a partir de recursos no renovables­ y mover a la humanidad entera desde el siglo VXIII—, viene la gran responsabilidad de eliminar el excedente contaminante producido por los humanos. Pareciera que un camino lógico es regresar al origen: si los combustibles que han movido a la humanidad fueron tomados del interior de nuestro planeta, lo que se necesita hacer es regresarlos al lugar de donde vinieron Es así que el proyecto de los islandeses —en convenio con algunas universidades de todo el mundo— resulta simple. Se basa en la captura del dióxido de carbono atmosférico y en su almacenamiento al inyectarlo de vuelta a la Tierra. Una vez en el subsuelo, éste se convierte en un mineral carbonatado, llamado calcita.

Con el proyecto al que llamaron CarbFix, los islandeses no descubrieron el hilo negro, pues en realidad ya hay un pequeño número de compañías que emplean la técnica de captación de dióxido de carbono. En Canadá existe una planta, Saskatchewan, que actualmente captura dióxido de carbono a una escala comercial. Pero mientras la empresa norteamericana está teniendo problemas en sus procesos —uno de ellos es que su técnica emite a la atmósfera más dióxido de carbono del que capturan—, en Islandia han logrado capturar, secuestrar, y transformar el dióxido de carbono de forma permanente. A través de un artículo publicado en la revista Science, un grupo de investigadores europeos dio evidencia de que en una planta geotérmica islandesa de nombre Hellisheidi, se logró capturar por primera vez de forma permanente el dióxido de carbono atmosférico para luego transformarlo en el mineral carbonatado benigno gracias a su inyección en la roca.

El procedimiento es mucho más complicado de lo que cuesta describir. El mayor obstáculo al que se enfrenta la técnica de captura y secuestro de dióxido de carbono es la composición del suelo al que se inyecta. Es imposible hacerlo en un subsuelo que carezca de tres elementos fundamentales —el calcio, el magnesio y el hierro— para que el dióxido de carbono se transforme en mineral. Otro gran reto es que la inyección provoca sismos que, a su vez, pueden promover que el dióxido de carbono introducido escape de las rocas y regrese a la atmósfera.

Si se necesita una roca rica en calcio, magnesio y hierro, entonces la solución está en el basalto, la roca volcánica, que está conformada por estos tres elementos en un 25%. Además, cubre cerca del 10% de la superficie continental y la gran mayoría del suelo oceánico. Islandia está en la privilegiada situación de ser una isla de origen volcánico con actividad geológica dinámica —de ahí que en 2010 se haya dado la erupción de su volcán Eyjafjallajökull. Es así que en 2012 los investigadores europeos realizaron la medición de su primera inyección en la planta geotérmica Hellisheidi, misma que utiliza el poder del magma para calentar agua y mover las turbinas que nutren de energía a la capital de la isla, Reykjavik, localizada a 25 km al este. La elección de este lugar se debe a que planta emite una importante cantidad de gases volcánicos a la atmósfera, entre los que está el dióxido de carbono.

El procedimiento consistió en combinar 250 toneladas de dióxido de carbono capturado de la atmósfera con otro gas, el sulfuro de hidrógeno, que existe de forma abundante en la zona, lo cual hizo que el proceso fuera más económico. Una vez hecho esto, se inyectó a la roca volcánica a unos 400-800 metros de profundidad.

La clave del éxito estuvo en dos procedimientos novedosos que los investigadores desarrollaron para esta inyección. Uno de ellos tuvo que ver con la reacción química que debe existir entre los gases inyectados y el calcio, el magnesio y el hierro de la roca. Para la reacción se necesita emplear agua, la cual funciona como catalizadora y ayuda a que el dióxido de carbono no se escape. El nuevo método se encarga de disolver los gases en el agua mientras que ésta fluye a través de los conductos encargados de inyectar la mezcla. La segunda idea fue marcar el dióxido de carbono con Carbono 14, el isótopo del elemento químico (una forma equivalente pero con un número distinto de neutrones, lo que lo hace radiactivo), para rastrearlo y conocer su comportamiento.

Después del monitoreo, los resultados demostraron que más del 95% del dióxido de carbono inyectado se había transformado en minerales en tan solo dos años. Los investigadores se dijeron sorprendidos por la rapidez del proceso, pues habían estimado que tomaría entre 8 y12 años. De hecho, estudios anteriores habían demostrado que este proceso podría tomar cientos o incluso miles de años. Además, se vio que con la mineralización del dióxido de carbono, la fuga del gas inyectado se elimina.

Los investigadores atribuyen el éxito de su método a distintos puntos del procedimiento. El primero fue la aplicación de un nuevo sistema de mezcla de agua que iba disolviendo el dióxido de carbono conforme se hacía la inyección; el segundo es la disolución rápida con la roca rica en los tres elementos químicos antes mencionados y, finalmente, la presencia de otros carbonatos que ayudaron a estabilizar la reacción química, como el carbonato de calcio.

La técnica de fijación de dióxido de carbono atmosférico es importante porque hasta ahora es la técnica más promisoria para atacar al cambio climático. De hecho, en 2014, el reporte del Panel Intergubernamental sobre el Cambio Climático sugirió que, sin esta opción, podría ser imposible limitar el calentamiento global de forma adecuada.

Los científicos dicen que el siguiente reto es que el público acepte este procedimiento. En el artículo de Science, proponen al noroeste de Estados Unidos como otra zona candidata a recibir la inyección del dióxido de carbono. Esto es importante si tomamos en cuenta que el proceso también utiliza grandes cantidades de agua: el mar podría ser un proveedor.

Los islandeses nos están demostrando que ese trabajo conjunto que aplicaron en el futbol también se puede llevar a la ciencia y a la técnica. Todo para hacer de éste un mejor planeta.

Referencias:

American Chemical Society. http://bit.ly/29zxwYF (Revisado el 5 de junio de 2016).

Fountain, H. (2016) Iceland carbon dioxide storage project locks away gas, and fast. The New York Times [en línea]. Disponible en: http://nyti.ms/29tex0v (Revisado el 22 de junio de 2016).

Harper, D. (2016) Volcano! The incredible rise of Iceland’s national football team. The Guardian [en línea]. Disponible en: http://bit.ly/29z8nPh (Revisado el 4 de julio de 2016).

Matter, J. et al (2016) Rapid carbon mineralization for permanent disposal of anthropogenic carbon dioxide emissions. Science, 352 (6291), 1312-1314.

The Earth Institute Columbia University (2016) In a first, Iceland power plant turns carbon emissions to stone. [en línea] Disponible en: http://bit.ly/29ysNoV (Revisado el 22 de junio de 2016).

Zhu, Z. et al (2016) Greening of the Earth and its drivers. Nature Climate Change.

Leer completo

El pasado mes de mayo, durante 107 horas (que equivalen a poco más de cuatro días), Portugal realizó todas sus actividades basándose sólo en el uso de energía sostenible.

La asociación portuguesa de Sistemas Terrestres Sustentables anunció que el consumo de electricidad de la nación se mantuvo íntegramente con fuentes inagotables durante ese periodo de tiempo, lo que significó que pudieron prescindir de las centrales térmicas potenciadas con carbón o gas natural. La conclusión se obtuvo del análisis de los datos de las Redes Energéticas Nacionales, y fue considerado “un récord muy importante en este siglo”.

energia

Pocos días antes, Alemania vivió una situación similar. Por unas cuantas horas, las plantas solares, eólicas, hídricas y de biomasa del país suplieron suficiente energía como para que los precios de la electricidad se volvieran negativos. Este país europeo tiene su visión puesta en las energías sostenibles y la confianza de que, dentro de 34 años, podrán basar la totalidad de sus actividades en energía sostenible.

Desde hace un par de años, cuando un país en Europa produce más energía limpia de la que necesita, se la da a sus vecinos. Parte de este tipo de energía utilizada por Alemania tiende a provenir de las turbinas eólicas de Dinamarca, por ejemplo. De hecho, ese país del norte ha llegado a generar hasta 140% de su demanda energética a partir del viento solamente. Tanto así, que además de Alemania, también le da su excedente a Noruega y a Suecia.

Además de apostarle a la energía captada por el viento, el agua o el sol, Europa está encargándose de formar su propia fuente de poder a través de la fusión nuclear: ITER, el proyecto energético más ambicioso del viejo continente. Con ello está haciendo de la energía sostenible el vehículo que moverá al mundo en un futuro cercano.

ITER,  que significa “el camino”  en latín y que es el acrónimo de International Thermonuclear Experimental Reactor (Reactor Termonuclear Experimental Internacional), se está convirtiendo en el reactor más grande construido hasta ahora. A través de él Europa busca generar energía basada en la fusión nuclear, un proceso físico que ocurre en nuestro Sol y en el resto de las estrellas del Universo. Las reacciones implican la unión de dos núcleos de átomos, lo que genera un nuevo elemento químico y, por tanto, la liberación de energía en forma de fotones –de ahí que las estrellas brillen.

El interés por este gran proyecto ha traspasado las fronteras del viejo continente: China, India, Japón, Rusia, Corea del sur  y Estados Unidos1 se han unido con el propósito de financiarlo, y de aportar tecnología y capacidad intelectual. El acuerdo ha resultado en una colaboración de 35 años, tiempo suficiente para construir y operar ITER, así como para compartir la información y propiedad intelectual resultado del trabajo experimental. Es tal el compromiso que China se ha responsabilizado a entrenar a dos mil expertos durante diez años para que lleven a cabo investigación en el desarrollo de fusión nuclear.

Tanta ambición se refleja también en los tiempos y en los precios. El proyecto comenzó en 2006, y para entonces se estimaba que tendría un costo de 5 mil millones de euros. La construcción formal inició cuatro años después, en Cadarache, Francia, a unos kilómetros al sur del CERN (la Organización Europea para la Investigación Nuclear). Sin embargo, el costo y el tiempo han cambiado. Ahora se prevé que los países miembros tengan que desembolsar un total 15 mil millones de euros, aunque esto es poco claro, pues aún se desconoce el costo final del proyecto. También se espera que las operaciones comiencen tres años después de lo originalmente planteado, esto es, en 2019.

Sin embargo, ITER no producirá electricidad. Su operación está diseñada para que se solucionen problemas científicos y técnicos, y así la fusión nuclear se convierta en una aplicación tecnológica formal. ¿Por qué un proyecto que goza de un apoyo internacional de tal magnitud, 35 años de operación trabajo, y miles de millones de euros invertidos habría de ser sólo para la investigación científica? La respuesta es simple: antes de pensar en cualquier aplicación, debe haber investigación básica.

La energía por fusión nuclear tiene una trayectoria recorrida. Para ejemplo, están el JET (Joint European Torus), también europeo, o el Tokamak Fusion Test Reactor, en Estados Unidos, que operó por cinco años en la década de los 90, y que es el antecedente directo de ITER. Pero la historia se remonta a mediados del siglo pasado, con pequeñas estructuras que lograron demostrar que se podía operar materia a grandes temperaturas y que la energía podía ser confinada. Los primeros experimentos también mostraron las características de la materia a emplear, el hecho de que los espacios debían ser aumentados para poder soportar mayores campos magnéticos, y lo que implicaba la necesidad de aparatos más sofisticados. ITER pretende resolver estos problemas, y permitirá desarrollar pulsos energéticos con el doble de duración, en el doble de tamaño –840 metros cúbicos– y con una capacidad para albergar plasma de diez veces la cantidad que tenían sus antecesores.

Tanto ITER, como las estructuras antes mencionadas, basan su poder en el plasma. Éste, junto con el líquido, sólido y gaseoso, es un estado más de la materia. Está constituido por partículas cargadas que pueden conducir energía y generar campos magnéticos. Actualmente, la investigación en materia de fusión nuclear está enfocada en encontrar la manera de que el plasma produzca y mantenga el suficiente calor como para que las reacciones tengan una duración prolongada. Es así que, mientras más plasma, más poder de fusión, más estabilidad por mayores periodos de tiempo. De ahí que ITER sea un proyecto tan ambicioso en términos de dimensiones.

Otra razón por la que se necesita realizar experimentos básicos es para estandarizar los componentes fundamentales del poder de fusión. Los materiales son uno de estos valores que deben estudiarse a profundidad, pues son esenciales para llevar a cabo la fusión nuclear. Sólo algunos elementos químicos tienen la capacidad de ser empleados. Para unir dos núcleos atómicos con una masa mayor a la del hierro-56 (que es un isótopo del hierro, es decir una variante del elemento que tiene un número distinto de neutrones), se necesita aplicar energía. Esto implica que sólo elementos ligeros, como el hidrógeno o el helio, pueden ser fusionados. Con ITER se busca utilizar un plasma de deuterio y tritio, isótopos del hidrógeno. De hecho, uno de los objetivos de este proyecto es demostrar que es posible producir esta variante del hidrógeno en un espacio al vacío, ya que nuestras reservas de tritio son insuficientes para cubrir las necesidades de las plantas de fusión. Al llegar a este punto, su plan para la energía sostenible parece desmoronarse, pero lo que buscan con este proyecto es que se hagan experimentos que prueben la capacidad de generarlo.

Una vez resuelto el problema de la producción del plasma, ITER generará grandes cantidades de energía. Tanto es así que se estima producir 500 MW (mega watts) de poder de fusión, a partir de una inyección de poder diez veces menor. Para hacer un comparativo de la cantidad de energía que esto implica, regresemos a JET, que en 1997 produjo 16 MW, el récord mundial para una planta de fusión nuclear sostenido hasta ahora, pero que necesitó más energía inyectada que la neta obtenida –lo que ha sucedido con todos los experimentos hechos desde hace más de 60 años. Como ya se dijo, este poder energético no se transformará en electricidad, sino que el propósito es experimentar para producir energía neta, y luego desarrollar la infraestructura que permita hacer uso de ésta de forma práctica.

Finalmente, ITER busca demostrar que la energía por fusión nuclear es segura. Desde que el proyecto obtuvo la licencia de operación nuclear por parte de Francia, en 2012, se ha sometido a examinaciones de todo tipo, incluidas la de seguridad en el manejo del plasma, de las reacciones que ocurren ahí, y de las consecuencias al ambiente que podría traer el manejo de esta planta. Sin embargo, los problemas no se han hecho esperar. Como ya se mencionó, el dinero inyectado al proyecto por cada país ha sido un dolor de cabeza. Mientras que la Unión Europea ha tenido que absorber el 45% de los gastos, cada uno de los otros países es responsable de un 9%, aunque lo que cada uno pague por obtener su parte del trabajo no se revelará. Esto ha traído, en consecuencia, problemas con el desarrollo de la investigación: aquellos que se han apegado al calendario original para entregar su contribución en el trabajo están en desacuerdo con el aumento de los costos y, obviamente, con los cambios en las fechas establecidas.

Con todo esto, ITER plantea la posibilidad de estudiar grandes cantidades de plasmas en las condiciones que, se espera, estarán en las plantas nucleares de un futuro no muy lejano. Será un laboratorio gigante que permitirá hacer pruebas de calor, de control, de diagnóstico y de mantenimiento remoto de manera que los científicos tengan la posibilidad de generar la teoría para estandarizar la técnica. Aún tendremos que esperar un par de años para conocer el desenlace de esta historia y de las posibilidades para nuestro consumo de energía.

 

Fuentes:

Clery, D. (2015) ITER fusion project to take at least 6 years longer than planned. Science. [En línea] Disponible en: http://bit.ly/1UfIVPJ (Revisado el 2 de junio de 2016).

Coren, M. (2016) Germany had so much renewable energy on Sunday that it had to pay people to use electricity. Quartz. [En línea] Disponible en: http://bit.ly/1Y9EYNJ (Revisado el 1 de junio de 2016).

ITER (2016) https://www.iter.org/ (Revisada el 2 de junio de 2016).

Martín, J. (2016) Portugal funciona cuatro días con agua, viento y sol. El país. [En línea] Disponible en: http://bit.ly/25MFyng (Revisado el 1 de junio de 2016).

Nelsen, A. (2015) Wind power generates 140% of Denmark’s electricity demand. The Guardian. [En línea] Disponible en: http://bit.ly/28kS9QJ (Revisado el 1 de junio de 2016).

Zero (2016) Consumo de electricidade em Portugal foi assegurado durante mais de 4 dias seguidos por fontes renováveis. Associaçao sistema terrestre sustentável. [En línea] Disponible en: http://bit.ly/1Y9F2gu (Revisado el 1 de junio de 2016).


1 Estados Unidos dejó el proyecto a finales de la década de los 90 por reconsideraciones con respecto a la pertinencia del proyecto. La Academia Nacional de Ciencias convocó a un panel de expertos en fusión nuclear, quienes hicieron la recomendación de re-integrarse al proyecto.

Leer completo

Le agradezco a Manolo Arrubarrena, por su invaluable ayuda, su amable guía y la enorme paciencia.

James Hammond conoce bien a la diplomacia científica. La vivió en Eritrea, un país africano azotado por las sanciones internacionales, cuando se encargaba de realizar estudios geológicos en el Rif africano oriental. Fue al finalizar este proyecto cuando recibió una invitación para estudiar las características y el despertar del volcán más feroz y enigmático de Corea del Norte.

El Monte Paektu, el punto más alto de dicha nación asiática, comenzó a tener actividad desde el 2002. Y la preocupación que genera su activación está bien fundamentada: hace mil años, el cuerpo arrojó cenizas y rocas a 33 mil kilómetros cuadrados al noreste de China y Corea, además de material que llegó hasta Japón. De ahí que se le conozca como la erupción del milenio.

volcan

Para darnos una idea de su magnitud, la erupción del milenio es casi equiparable a la que sucedió en 1815 con el Monte Tambora, en Indonesia. Esta erupción causó “el año sin verano”, pues el material que lanzó a la atmósfera tuvo tal impacto en las condiciones climatológicas de nuestro planeta, que bajó la temperatura hasta casi un grado centígrado y disminuyó la producción de alimentos en el hemisferio norte. En esa ocasión, el Monte Tambora expulsó de 150 a 200 veces más roca de la que arrojó el volcán Eyjafjallajökull, en Islandia, en 2010. Si tomamos en cuenta que esta erupción islandesa tuvo en Europa un impacto económico estimado de 5 mil millones de dólares americanos, si una erupción por parte del Monte Paektu llegara a suceder, tendríamos un problema similar al del año sin verano, y mucho mayor del que vivimos con Islandia recientemente

Por la periodicidad de la actividad del volcán se teme una erupción próxima. Gracias a los registros históricos se ha visto que despierta cada cien años, y la última vez se registró en 1903. De volver a explotar podría causar un lahar (conjunto de vegetación, agua, rocas y lodo) cuesta abajo del valle hacia territorio chino que pondría en riesgo a 60 mil habitantes, otras 100 mil personas podrían sufrir avalanchas de flujo piroclástico: una mezcla de gases y roca caliente que se mueve a nivel del suelo. Como si esto fuera insuficiente, la ceniza arruinará cultivos enteros y las comunicaciones se verían afectadas, tal como sucedió en 2010 con el volcán islandés.

Fue así que en 2011, el geólogo James Hammond –entonces investigador del Imperial College London– fue convocado por Clive Oppenheimer, vulcanólogo especialista en gases, para estudiar el Monte Paektu, una estructura geológica de importancia central en la cultura coreana. La tradición indica que éste fue el lugar en donde nació Dangun, el fundador del primer reino de dicha sociedad. Pero para los norcoreanos tiene un valor agregado: en ese lugar se asentaron las bases de la revolución que lideró Kim Il-sung, el abuelo del actual jefe de Estado. Para ese entonces, el Monte Paektu llevaba casi diez años presentando actividad con terremotos y emisiones de gases.

Pero este 2016 fue particularmente especial en materia de información. El inicio de año trajo consigo una guerra mediática que ha relacionado las pruebas nucleares de Corea del Norte con el despertar del volcán. Sin embargo, a pesar de que estos ejercicios de guerra comenzaron en el 2006, el volcán ya presentaba actividad desde hacía cuatro años antes.

La parte académica también se ha unido a los alegatos. A la par de los primeros reportes noticiosos, Nature publicó un reporte científico realizado por investigadores de instituciones surcoreanas y estadounidenses en el que se da evidencia sobre la relación entre las explosiones nucleares subterráneas y el inicio de actividad geológica. Con esto, los científicos concluyen que se espera un cambio en las presiones subterráneas del territorio causado por las explosiones nucleares de Corea del Norte, lo que podría desencadenar una erupción volcánica.

Pero, más allá de los argumentos que sostiene el trabajo, es la plataforma de publicación la que resulta de particular interés. Los reportes científicos pertenecen a Nature Publishing Group, y son trabajos de tipo open access, publicados sólo en línea –a diferencia de los artículos tradicionales que se despliegan tanto en línea como en papel, y para los que siempre se debe pagar, ya sea por artículo o por la revista completa–. La intención de estos reportes científicos es la de generar un espacio alternativo que se preocupe más por la calidad científica que por el factor de impacto de sus trabajos publicados, algo congruente si tomamos en cuenta que su valor de publicación es de 5.6, comparado con el 41.5 que tiene la revista principal. ¿Por qué un estudio publicado en una plataforma con menor factor de impacto habría de tener más calidad?, ¿por qué se publicó este trabajo en un espacio en línea con acceso libre?, ¿será que el público objetivo de este trabajo, más que ser la comunidad científica, era uno sin acceso a revistas arbitradas y con necesidad de fuentes rápidas de información… como los periodistas?

Por las especulaciones que ha levantado el despertar del volcán, el trabajo de campo de James Hammond es de enorme importancia. Debido a que el Monte Paektu está entre territorio chino y coreano, las barreras políticas de ambas naciones habían hecho de las suyas para que, antes del 2011, el flujo de información científica sobre el volcán fuera inexistente. Incluso, de acuerdo con una entrevista en Tempted que se le hizo a Kayla Iacovino, una vulcanóloga experta en petrología experimental, y colaboradora de Hammond en esta expedición, había científicos de occidente que incluso desconocían la existencia del volcán antes de todo este revuelo mediático.

A pesar de que los científicos norcoreanos y chinos ya habían estudiado al volcán, cada quien por su cuenta, los resultados eran distintos. Los chinos habían registrado ciertos datos, como temperaturas altas en la caldera, pero para cuando Hammond llegó a Corea, ellos sostenían que la evidencia para demostrar que la lava estaba ascendiendo –señal de una erupción inminente– era poco concluyente. Por su parte, los norcoreanos contaban con datos obtenidos del monitoreo realizado a partir de la obsolescencia o la invención de sus propios aparatos, producto del cierre inminente de fronteras para con el resto del mundo.

Fue así que en septiembre del 2011, Hammond, junto con Iacovino, y Clive Oppenheimer, de la Universidad de Cambridge, se convirtieron en los primeros occidentales en visitar la estación de monitoreo del volcán en Corea del Norte. Pero el camino para llegar ahí fue truculento. Debido a que, por ley, los norcoreanos tienen prohibido comunicarse de forma directa con cualquier extranjero -incluso si hablan el mismo idioma-, los investigadores occidentales fueron incapaces de establecer una relación directa con los geólogos de la Administración de Terremotos de Corea del Norte. Fue así que la comunicación se tuvo que establecer a través de dos organizaciones no gubernamentales que convocaron a un grupo de reuniones anuales en Pequín, en Pyongyang -Corea del Norte-, Berlín y París. A dichas negociaciones se unieron la Royal Society de Inglaterra y la Asociación Estadounidense para el Avance de la Ciencia, que les ayudaron con las licencias y las regulaciones internacionales en sanciones.

Desde entonces, Hammond, Iacovino, y Oppenheimer han estudiado al Monte Paektu al lado de los investigadores norcoreanos y chinos para comprender la historia geológica y la estructura interna del volcán. Mientras que Hammond se encargó de las mediciones de los movimientos terrestres –como el estudio de ondas sísmicas provenientes de todo el planeta y que alcanzaban al volcán–, Oppenheimer y Iacovino se encargaron de recolectar muestras del material volcánico, mismo que pudieron transportar al Reino Unido para su análisis profundo.

Gracias a las negociaciones que realizaron los gobiernos estadounidenses, británicos, así como las organizaciones internacionales con el gobierno norcoreano, los investigadores occidentales pudieron introducir material de medición a dicha nación. De hecho, les tomó dos años poder negociar la introducción de los materiales de medición, como los sismómetros, instrumentos que permiten medir los temblores producidos por el movimiento de la corteza terrestre. Con esto, los datos que se tenían de un lado del volcán, en China, pudieron ser cotejados contra los obtenidos en Corea del Norte. Esta confrontación de información es de gran importancia porque los fenómenos geológicos no necesariamente son simétricos: esto significa que no es obligatorio que lo que se observa de un lado de alguna formación –en el caso del Monte Paektu, en China– esté sucediendo también en el sitio contrario.

Una de las características que más intriga a los investigadores es su localización. El Monte Paektu se encuentra a cientos de kilómetros al oeste del Cinturón de fuego del Pacífico, que es una zona de alta actividad geológica, y en la que el territorio mexicano está incluido. Su localización está relacionada con el choque de placas tectónicas, lo que alimenta a los volcanes ahí ubicados. Por su lejanía de esta zona, y para explicar la potencia del volcán, una hipótesis es que el agua que se encuentra en los minerales de la placa del Pacífico está siendo presionada por la subducción a 600 kilómetros debajo del volcán. La roca caliente del manto, al combinarse con el agua, se derrite y se convierte en magma, lo que explicaría el suministro de material incandescente incluso ante la lejanía del Monte Paektu del Cinturón de fuego del Pacífico.

En abril de este año, los tres investigadores occidentales, junto con sus colegas orientales, publicaron el primer trabajo producto de su investigación. En el mismo se estima a las características de la estructura de la corteza y de la parte interna del volcán, lo que les ha permitido asociarlas con las actividades que se han presentado desde 2002.

Uno de los resultados obtenidos es que la corteza debajo del volcán es más gruesa que la zona aledaña, lo que indica que su estructura es más complicada de lo que se consideraba anteriormente. También se detectó que la cámara interna donde se encuentra el magma es más superficial de lo que se había estimado con anterioridad.En cuanto a este resultado, podría existir la posibilidad de que, por la localización de la cámara magmática, la explosividad del volcán pudiera ser mayor. Sin embargo, asegurar esto sería incorrecto, ya que se necesitan tomar en cuenta más datos del volcán, como la composición del magma, o la relación de la cámara con el resto de la estructura geológica.

Los estudios para el futuro incluyen estudiar las muestras recolectadas para detallar las características de las erupciones anteriores. Uno de los estudios que harán será el de examinar el polen encontrado en las muestras, lo que podría revelar la época de año en que se ha producido la caída de ceniza. También, los materiales más profundos podrán revelar la manera en que la erupción se comenzó a dar, lo que permitiría conocer los posibles peligros ante una explosión y así desarrollar una estrategia de protección futura.

Otro trabajo consistirá en analizar los cristales de las rocas, lo que dará indicios de los gases emitidos, y podrá ayudar a explicar por qué la explosión del milenio, a diferencia del Monte Tambora, no enfrió la Tierra un grado menos. Este estudio también informará sobre las características de la lava. En caso de que se trate de una de tipo viscosa, se sabría que se necesitará una mayor presión para lanzar el material, lo que implica una erupción poderosa.

Es así que el punto más alto de la península coreana, además de guardar un lugar privilegiado en la cultura asiática, esconde muchos enigmas de tipo científico que permitirán abonar en el conocimiento de la actividad terrestre. El Monte Paektu es una muestra de la relación intrincada de la política y la ciencia. La relevancia cultural del volcán (de hecho, tiene con cinco nombres: los coreanos lo conocen, además de Monte Paektu, como Baegdu-san; los chinos lo llaman Tianchi o Changbaishan; los japoneses lo conocen como Hakuto-san) funcionó como un lubricante político para liberar las tensiones y, a través del conocimiento científico, lograr conocer las características geológicas para preservar la integridad de la zona en la medida de lo posible y prevenir cualquier posible desastre futuro.

 

Referencias:

Biba, E. (2014) Awesome jobs: meet Kayla Iacovino, trekker volcanologist. Tested. [en línea] Disponible en: http://bit.ly/1WYZNef (Revisado el 8 de mayo de 2016).

Drake, N. (2016) Sacred volcano in North Korea may be waiting to blow. National Geographic. [en línea] Disponible en: http://bit.ly/1T2SqB5 (Revisado el 25 de abril del 2016).

Hammond, J. (2016) Understanding volcanoes in isolated locations: engaging diplomacy for science. Science & Diplomacy, 5(1).

Kyong-Song et al. (2016) Evidence for partial melt in the crust beneath Mt. Paektu (Changbaishan), Democratic People’s Republic of Korea and China. Science Advances, 1-6.

Linde, A. y Sacks, S. (1998) Triggering of volcanic eruptions. Nature, 395, 888-890.

Ryall, J. (2016) North Korea’s nuclear test “could jolt volcano back to life”. The Telegraph [en línea]. Disponible en: http://bit.ly/1VSdZ9U  (Revisado el 25 de abril de 2016).

Stone, R. (2011) Vigil at North Korea’s Mount Doom. Science, 334, 584-588.

Stone, R. (2013) Sizing up a slumbering giant. Science, 341, 1060-1061.

Stromberg, J. (2013) On conducting science atop a volcano in North Korea. Smithsonian Magazine [en línea]. Disponible en: http://bit.ly/1qcbyB5 (Revisado el 25 de abril de 2016).

Tae-Kyung Hong et al. (2016) Prediction of ground motion and dynamic stress change in Baekdusan (Changbaishan) volcano caused by North Korean nuclear explosion. Nature, Scientific reports, 6:21477, 1-8.

Leer completo

Desde que House of Cards se estrenó en Netflix hace tres años, la serie ha mostrado lo que implica la aprobación de al menos una reforma educativa y otra que busca dar empleo a todos los estadounidenses. En una entrevista con la revista Gotham, el protagonista Kevin Spacey —cuyo personaje presenta las dos propuestas de ley— aseguró que el expresidente Bill Clinton le llegó a comentar que mientras el 99% de lo que sucede en la serie es real, el 1% restante está mal porque nunca podrían aprobar una iniciativa educativa tan rápido. La ficción pone en contexto lo que sucede en la realidad, al menos en la política estadounidense, y ejemplifica lo que para Barack Obama implicó la aprobación de la Iniciativa de la Medicina de Precisión (Precision Medicine Initiative, IMP).

obama

Durante el Discurso del Estado de la Unión del 2015, apenas pocos días después de que Obama cumpliera 6 años en la Casa Blanca, el presidente anunció la recaudación de 215 millones de dólares para implementar la IMP. Dicho proyecto tiene como propósito “iniciar un nuevo modelo de investigación impulsado por los pacientes, que acelere los descubrimientos biomédicos y proporcione a los médicos nuevas herramientas, conocimiento y terapias para seleccionar los mejores tratamientos para cada paciente”.

Recordemos que la propuesta de tener una cobertura universal en servicios de salud fue una de las banderas que Obama utilizó durante su campaña presidencial, y que implementó bajo el nombre de Health care —conocido popularmente como Obama care—. A pesar de que medicina personalizada hace referencia a que todos los individuos tengan acceso a servicios de salud a través de estrategias de prevención y tratamiento de manera particular, el concepto es más complejo.

El Proyecto Genoma Humano (HGP) fue desarrollado con la promesa de la cura de muchas enfermedades. Una vez finalizado en 2003, los investigadores encargados de su desarrollo —en su enorme mayoría estadounidenses y financiados con dinero de ese país— terminaron con un gran signo de interrogación en la cabeza. Los resultados arrojaron un número menor de genes de los esperados y, por tanto, una gran cantidad de material genético sin ningún tipo de información relevante.

Asimismo, revelaron que la diferencia genética entre cada individuo humano es de menos del 1%, un número pequeño que hace que los rasgos físicos, y otros factores tan decisivos como la metabolización de medicamentos o de alimentos, y la tendencia a padecer alguna enfermedad, cambien de forma drástica de persona a persona. Si a esto sumamos el hecho de que los tratamientos médicos alopáticos alrededor del mundo están contemplados para curar al “paciente promedio”, esto aumenta la dificultad de que la cura sea exitosa.

La medicina de precisión toma en cuenta las diferencias que cada uno de nosotros presentamos a nivel genético y ambiental -que incluye el estilo de vida, los alimentos ingeridos, el aire respirado, entre otros factores-. Esto le da la posibilidad a los médicos de comprender el panorama completo de los mecanismos detrás de la salud y de la enfermedad de los individuos, promoviendo una cultura de la prevención y la generación de tratamientos más efectivos.

Conscientes de la relevancia de las diferencias entre individuos y de la promesa de la medicina de precisión, con la IMP, Estados Unidos busca reclutar a 1 millón de voluntarios para que donen su información genética en pro de la investigación y, por ende, del mejoramiento de los servicios de salud. Un proyecto similar se desarrolla en Inglaterra desde el 2012, fecha en la que el primer ministro anunció el inicio de 100,000 genomes project. Aquí, Genomics England, una empresa perteneciente y financiada por el Departamento de Salud, se encargará de conocer la información de los pacientes con el objetivo de beneficiarlos con mejores servicios genómicos, fomentar los descubrimientos científicos, y comenzar una industria genómica en el Reino Unido.

Con el IMP, de todo el dinero que se invertirá en esta iniciativa en el primer año, una porción importante será inyectada a los National Institutes of Health, NIH (Institutos Nacionales de Salud) para que recluten a los participantes. De cada uno de ellos se busca obtener su información genómica —el total de la información genética de su cuerpo—, fisiológica y médica para construir una gran base de datos.

Pero, para manejar una gran cantidad de datos, se necesitará un grupo de informáticos considerable. En California, el problema está resuelto. El estado del oeste del país formará parte de este proyecto de una manera activa al utilizar 3 millones del dinero público. Para el manejo de la información ha contactado a empresas biotecnológicas como 23&Me o Illumina, pero también a aquellas líderes en el uso de tecnologías de la información como Google, Facebook, Apple e Intel. Cabe destacar que, por lo menos el buscador más gigante del mundo, ha estado invirtiendo en actividades médicas de forma interesante en los últimos años.

El resto de la cuantiosa cantidad de dinero irá a diferentes instituciones como la FDA, que se encargará de generar otra base de datos para apoyar la investigación y la parte de regulación, y también para generar una autoevaluación que les permita conocer si la agencia necesita modernizar sus procesos regulatorios en el campo de las terapias personalizadas; el Instituto Nacional del Cáncer, perteneciente al NIH, recibirá dinero para enfocarse en aquellas secuencias genéticas asociadas con este padecimiento y así generar mejores tratamientos; el Departamento de Salud y servicios Humanos se encargará de crear los protocolos de investigación para proteger la información.

Es así que para 2016, la IMP tendrá un costo de 130 millones de dólares, mientras que para el 2017 se desplegarán 230 millones.

A un año de la implementación de la IMP, el proyecto comienza a caminar. A finales de febrero, la Casa Blanca y los NIH anunciaron el inicio de proyectos piloto. Uno de ellos lo llevará a cabo la Universidad de Vanderbilt, en Nashville, en el que se reclutará un tercio de los participantes, y será en el verano cuando los componentes del programa se anuncien. Google forma parte de este inicio, a través de una de sus compañías, Verily -antes conocida como Google Life Sciences-, que se encargará de ofrecer la ayuda técnica. Otro proyecto es el que la Universidad de Stanford, en California, llevará a cabo, en donde utilizarán el material genético de 77 iraníes-americanos que permitieron el uso de su ADN para investigación.

Otros proyectos en medicina de precisión que no están relacionados con esta iniciativa ya han comenzado a arrojar resultados. Por ejemplo, el trabajo que ha realizado con respecto a una proteína de nombre CTFR, cuya pérdida en el cuerpo humano está relacionada con el padecimiento de fibrosis quística, hizo que se creara un proyecto que puso a colaborar a investigadores de todo el mundo para conocer las variantes en esta molécula entre pacientes, para así distinguir entre lesiones patogénicas y benignas. Actualmente, este trabajo ha llevado a un mejor tratamiento para pacientes con dicho padecimiento. Lo mismo está sucediendo con genes y proteínas relacionados con cáncer, con presión arterial alta, entre otras enfermedades.

El acierto de Obama recae en que está inyectando dinero para la infraestructura de la medicina genómica. A pesar de que la IMP tiene un año de vida, en poco tiempo podremos ver los resultados de la medicina de precisión. Seremos testigo de cómo el flujo de material, conocimiento e información necesarios para generar, validar, almacenar y refinar las interpretaciones clínicas serán óptimas para tener un sistema de salud moderno y suficiente. De esta manera, los bancos de información conectarán a los pacientes con los médicos e investigadores para promover los descubrimientos. A su vez, los centros de estudio proveerán resultados que servirán como evidencia para la práctica clínica. La distribución de la información entre laboratorios, hospitales y farmacéuticas fomentará el refinamiento de las interpretaciones. Los pacientes tendrán la posibilidad de conocer su información genética y utilizarla como mejor les convenga.

La promoción de toda esta tecnología hará que los servicios bajen considerablemente los costos. De hecho, desde entonces el HGP, los procesos tecnológicos para conocer el material genético de cada individuo se han abaratado de tal manera, que la tecnología de la secuenciación genética es la que ha tenido una evolución en términos de crecimiento en el almacenamiento de información y de reducción en los precios más importante en la historia de la humanidad. Mientras que el HGP utilizó 3 mil millones de dólares de dinero público, la empresa biotecnológica Celera Group, la que retó al gobierno en la carrera de la secuenciación del genoma humano, dijo haber gastado 300 millones. Alrededor de 2007, los precios rondaban entre el millón y los cien mil dólares, pero fue en 2014 que la empresa Illumina anunció haber logrado la primera secuenciación por mil dólares. La competencia por bajar los precios continúa.

Aunque la secuenciación del genoma humano aún continúa siendo inalcanzable para la enorme mayoría de la humanidad, muchas personas en Reino Unido y Estados Unidos ya comienzan a verse beneficiados por la implementación de esta medicina de precisión. Incluso hay personajes famosos como James Watson, uno de los científicos que describió la estructura del ADN, o Desmond Tutu, un religioso sudafricano y figura emblemática por su lucha contra el apartheid, que ya conocen lo que su genoma esconde.

Otro de los personajes famosos informados es Ozzy Osbourne, quien se sometió a la secuenciación de su genoma. En una entrevista para Technology review, revista del MIT, el músico relató el momento en que le anunciaron sus resultados. Estos arrojaron que Osbourne comparte un ancestro de hace mil años con el presentador Stephen Colbert; que tiene segmentos en su ADN de neandertales; que es 6.1 veces más propenso a ser adicto al alcohol; 1.31 veces de ser adicto a la cocaína; y 2.6 veces a sufrir alucinaciones durante el consumo de cannabis, todo esto comparado contra el resto de la humanidad. Además de dichas probabilidades, también se encontró en su ADN que es capaz de metabolizar el alcohol de manera más eficiente —a esto, el mismo músico dijo que no necesitaba un científico de Harvard para que llegara al fondo de este misterio—. Como conclusión, las personas encargadas de su secuenciación le dijeron a Osbourne que, una vez revisado su material genético, entendían la razón por la que seguía vivo. Él, como respuesta, les dijo que la razón por la que seguía vivo era su esposa, Sharon.

Es así que la medicina personalizada, al tener el potencial para mejorar la práctica médica por fomentar que los médicos sean capaces de predecir de manera precisa, rápida y eficiente el curso de acción para con un paciente, llevará a Estados Unidos a tener uno de los sistemas de salud más fuertes y bien consolidados del mundo. Debido a que gracias a los avances en la tecnología genética es posible detectar un buen grupo de enfermedades en sus primeras etapas, detener su progresión, e informar y educar a la población hacia una cultura de la prevención, que el país vecino del norte aumentará la utilidad de su sistema sanitario.

Obama le está enseñando al mundo que la verdadera inversión hacia la modernidad está en el fortalecimiento de una de las instituciones pilares de la humanidad, por la que todos hemos pasado y pasaremos a lo largo de nuestra vida. Mientras esto ocurre, en México se siguen ampliando carreteras.

Referencias

Aronson, S. y Rehm, H. (2015) Building the foundation for genomics in precision medicine. Nature. 526, p. 336-342.

Genomics England. Disponible en: http://bit.ly/1V4fqSe (revisado el 3 de abril de 2016).

Hayden, E. (2015) California unveils “precision-medicine” project. Nature [en línea] Disponible en: http://bit.ly/1Nqn1Tj (Revisado el 1 de abril de 2016)

Herper, M. (2007) Genes of the rich and famous. Forbes [en línea] Disponbile en: http://onforb.es/1VsdUd0 (Revisado el 3 de marzo de 2016).

Hochman, D. (2015) What Bill Clinton told Kevin Spacey about “House of cards”. Gotham [en línea] Disponible en: http://bit.ly/1T73VG4 (revisado el 3 de abril de 2016).

Kaiser, J. (2016) NIH’s 1-million-volunteer precision medicine study announces first pilot projects. Science [en línea]. Disponible en: http://bit.ly/1V4fH7F (Revisado el 3 de abril de 2016).

Reardon, S. (2015) Obama to seed $215 million for precision-medicine plan. Nature [en línea]. Disponible en: http://bit.ly/1YvAz5C (Revisado el 1 de abril de 2016).

Singer, E. (2010) Ozzy Osbourne’s genome. MIT Technology review. [en línea] Disponible en: http://bit.ly/1S9PWNo (Revisado el 3 de abril de 2016).

The White House (2015) Fact sheet: President Obama’s Precision Medicine Initiative. [en línea] Disponible en: http://1.usa.gov/1RWBD2c (Revisado el 3 de abril de 2016).

The White House. Precision Medicine Initiative. Disponible en: http://1.usa.gov/1T74cJ8 (Revisado el 25 de febrero de 2016).

Leer completo