Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 30 mins 20 segs

Plancton en la ría de Bilbao

Sáb, 2021/09/11 - 11:59

La comarca del Gran Bilbao ha mostrado históricamente una estrecha relación con el río Nervión-Ibaizabal. Desde el siglo XIX, su cauce ha venido recibiendo grandes volúmenes de aguas residuales de origen doméstico, siderometalúrgico, minero e industrial, ante la creencia de que el medio marino podría asimilar toda esa carga contaminante. Sin embargo, las condiciones ambientales naturales del Abra de Bilbao se vieron alteradas de forma drástica.

El plancton es el conjunto de organismos microscópicos en suspensión y con poca capacidad de movimiento que habita en el agua. El plancton es un componente estructurante y funcional fundamental de los ecosistemas acuáticos, dada su diversidad funcional. El plancton del estuario de Bilbao ha sufrido daños y desequilibrios funcionales a causa de la acción humana. Hoy en día, gracias a la depuración de aguas residuales, la carga de materia orgánica que entra en el sistema se ha reducido considerablemente y la comunidad de zooplancton de aguas salobres desaparecida por la falta de oxígeno ha vuelto al interior del estuario, aunque predominan las especies no autóctonas, lo cual es reflejo de la contaminación biótica.

En este vídeo se expone la relación entre el plancton y los humanos. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».

Edición realizada por César Tomé López

El artículo Plancton en la ría de Bilbao se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Plancton en la ría de Bilbao
  2. Evolución de la flora y fauna en el Abra de Bilbao
  3. Recuperación de fauna en la ría de Bilbao
Categorías: Zientzia

Una toxina capaz de reducir la biosíntesis de proteínas en células diana

Vie, 2021/09/10 - 11:59

Pseudomonas aeruginosa es una de las principales causas de neumonía en pacientes inmunodeprimidos y personas con enfermedades pulmonares. Debido a su alto nivel de resistencia antibiótica, resulta cada vez más difícil erradicar las infecciones que causa y en consecuencia, la Organización Mundial de la Salud considera una prioridad el desarrollo de nuevos antibióticos frente a este patógeno.

 

Uno de los factores que hacen que P. aeruginosa sea letal es el Sistema de Secreción Tipo VI (T6SS por sus siglas en inglés). Este sistema de secreción se ensambla dentro de P. aeruginosa, y, al entrar en contacto con otras células, utiliza un mecanismo molecular contráctil para inyectarles toxinas. Aunque en la última década se ha logrado un gran avance en nuestro conocimiento sobre el T6SS de P. aeruginosa, y su relevancia en competición bacteriana y patogénesis, aún se desconocen las identidades y funciones de la gran mayoría de toxinas que el T6SS secreta.

Un equipo de investigación internacional formado por científicos del Instituto de Biofisika (CSIC-UPV/EHU), Imperial College London, e Instituto Sanger (Reino Unido), han identificado por primera vez una de estas toxinas secretadas por el T6SS, a la que ha llamado Tse8. Tse8 causa la muerte celular en otras bacterias de su entorno.

El estudio desvela el mecanismo de acción de Tse8. Esta toxina es capaz de reducir la biosíntesis de proteínas en células diana. En concreto, Tse8 ataca el transamidosoma, el cual es esencial para la biosíntesis de los aminoácidos asparagina o glutamina en gran cantidad de microorganismos procariotas.

Este descubrimiento puede tener efectos en el desarrollo futuro de antibióticos. En palabras de David Albesa, Investigador Ikerbasque en el Instituto de Biofisika, “el desarrollo de nuevos antibióticos puede facilitarse significativamente si se comprende mejor la biología de los agentes causantes. Por lo que entender a nivel molecular cómo Tse8 ataca el transamidosoma podría ayudar a desarrollar estrategias innovadoras para combatir bacterias patógenas.”

Referencia:

Nolan, L.M., Cain, A.K., Clamens, T. et al. (2021) Identification of Tse8 as a Type VI secretion system toxin from Pseudomonas aeruginosa that targets the bacterial transamidosome to inhibit protein synthesis in prey cells. Nat Microbiol doi: 10.1038/s41564-021-00950-8

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Una toxina capaz de reducir la biosíntesis de proteínas en células diana se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una nueva diana terapéutica para el neuroblastoma
  2. Cómo reducir el peso de un motor de aviación un 30 %
  3. El colesterol de su membrana es lo que permite al VIH infectar las células
Categorías: Zientzia

Las gotas que dieron forma a las balas

Jue, 2021/09/09 - 11:59
La formación de gotas a partir de un hilo de agua es muy rica en física y verdaderamente hermosa. Fotografía: Almudena M. Castro.

A menudo, nuestros dibujos no se parecen demasiado a la realidad. Muchos de los iconos, ideogramas y memes gráficos varios que utilizamos en nuestro día a día se han ido alejando de su referente, hasta que resulta difícil identificarlos. Entre ellos, uno de los más típicos es el de las gotas de agua.

A pesar de la creencia común, las gotas no tienen esa forma icónica, puntiaguda hacia arriba, con la que habitualmente se las representa. Más bien al contrario, suelen ser aproximadamente esféricas. Esto se debe a la tensión superficial del agua, que tiende a minimizar la superficie del líquido en contacto con el aire. Actúa, por tanto, como si fuese una malla elástica, que aprieta su contenido en todas las direcciones por igual. La esfera es la figura que presenta una superficie mínima para un volumen dado y, por ese motivo, es la forma que adoptan las gotas en ausencia de otras fuerzas, como sucede en la Estación Espacial Internacional.

Desde el siglo XVIII, los fabricantes de balas y perdigones de plomo aprovecharon este fenómeno1 para elaborar sus proyectiles. En 1782, el británico William Watts patentó un ingenioso sistema basado en lo que hoy conocemos como “torres de perdigones” (o shot towers, en inglés). La idea consistía en dejar caer plomo fundido desde lo alto de estas edificaciones. El fluido ardiente atravesaba un tamiz que lo fragmentaba en pequeñas porciones. Al descender, las gotas de plomo se van enfriando y adoptan su forma esférica, gracias a la tensión superficial del fluido. Solo era necesario “capturar” esta figura. Para ello, se colocaban cubos de agua fría en la base de la torre, que enfriaban y consolidaban la nuevas balas y perdigones, perfectamente simétricos.

La idea era muy sencilla pero funcionaba a la perfección y, aunque probablemente William Watts no podría haber ni imaginado que existía un fenómeno llamado “tensión superficial”, su sistema abarató enormemente los costes de fabricación de este tipo de proyectiles, que hasta entonces se habían elaborado con ayuda de moldes.

Sin embargo, cuando caen con la lluvia, las gotas no son tan esféricas como cabría esperar (ni mucho menos, tan grandes como en la Estación Espacial Internacional). A medida que las primeras mini gotas se condensan en las nubes y empiezan a caer, van chocando con otras gotas y aumentan de tamaño. Sin embargo, debido a la resistencia del aire, las más grandes empiezan a deformarse. Poco a poco se achatan por debajo y adoptan una forma parecida a la de una hamburguesa. Llegado cierto punto crítico, la tensión superficial no es capaz de soportar la fuerza del aire. La malla elástica se rompe y la gota se descompone en otras más pequeñas y mucho más esféricas. Estas, a su vez pueden crecer, deformarse, romperse, etcétera, etcétera.

De esta manera, la física de fluidos determina, no sólo la forma, sino también el volumen posible de las gotas de lluvia2, que rara vez supera los 4 mm de diámetro3. Las más pequeñas, a partir de 0,5 mm de diámetro, son siempre más simétricas y estables que las más grandes, porque su “malla” resiste mejor la caída.

¿Por qué pintamos las gotas con sombrero entonces? Es difícil saberlo con certeza. Pero esta forma alargada se parece a la de una gota arrastrándose por una superficie. Como la de una lágrima que recorre una cara. O quizás, la de una gota a punto de desprenderse de un grifo.

Notas:

1Marcus du Sautoy lo cuenta en su libro “Symmetry”.

2Villermaux, E., Bossa, B. Single-drop fragmentation determines size distribution of raindrops. Nature Phys 5, 697–702 (2009). https://doi.org/10.1038/nphys1340

3No obstante, se han registrado hotas de hasta 8,8 mm de diámetro. Esta super gota, en concreto, se encontraba en la base de una nube cúmulo congestus en las cercanías del atolón de Kwajalein en julio de 1999. Ver Hobbs, Peter V.; Rangno, Arthur L. (July 2004). «Super-large raindrops». Geophysical Research Letters. 31 (13): L13102. https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2004GL020167

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Las gotas que dieron forma a las balas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La forma fractal de mapas y pulmones
  2. ¿Y si el Sol estuviese cambiando de forma fundamental?
  3. Las últimas gotas de agua en el meteorito
Categorías: Zientzia

Legislar sobre una verdad matemática

Mié, 2021/09/08 - 11:59

 

La asociación de ideas es algo curioso. Estos días escuchando las tonterías que están diciendo algunas personas de la vida pública sobre el coronavirus me ha venido a la cabeza la historia del intento de legislar sobre una verdad matemática, sobre el valor del número pi, en la Asamblea General del Estado de Indiana (EE.UU.).

Logo del Día Internacional de las Matemáticas, que es el 14 de marzo, aprovechando que ese era conocido como el “día de pi”. Nota del editor: El día de pi tiene un origen anglosajón, donde el 14 de marzo (mes 3) se escribe 3/14.

 

Esta anécdota, que os voy a contar en las siguientes líneas de la presente entrada del Cuaderno de Cultura Científica, nos habla sobre lo absurdo que es legislar sobre una verdad matemática.

En la entrada ¿Es normal el número pi?  ya hablamos del número pi, de los diferentes intentos históricos de aproximar esta constante matemática mediante números racionales y de la demostración de que es un número irracional. Recordémoslo brevemente.

Desde los antiguos orígenes del número pi, es decir, la relación entre la longitud de una circunferencia y su diámetro, se ha intentado aproximar su valor mediante diferentes expresiones numéricas. En uno de los más antiguos textos matemáticos, el Papiro de Rhind (1.700 años antes de nuestra era), el escriba Ahmés incluye la evaluación de una circunferencia inscrita en un cuadrado, que luego transforma en un octógono. A partir de ahí, el valor que propone para pi, hecha la conversión, es (16/9)2=3,16049…

El matemático griego Arquímedes, en el siglo III a. C., utilizando polígonos de 96 lados inscritos y circunscritos en una circunferencia, establecía que la constante pi está entre las cantidades 3 + 10/71 y 3 + 1/7 = 22/7 (=3,1428…), fracción esta última bien conocida en la escuela antes de las calculadoras.

En la India, el matemático Aryabhatta, hacia el 500, propuso la fracción 62.832/20.000, que es la aproximación cuyos cuatro primeros decimales son la aproximación más conocida, entre el público general, del número pi, 3,1416….

Todas estas, y otras, aproximaciones al número pi eran mediante números racionales. Recordemos que un número racional es aquel que puede expresarse como cociente de dos números enteros (por ejemplo, 0,5 es un número racional ya que puede expresarse como el cociente 1/2; también 0,333… ya que puede expresarse como 1/3). Si consideramos la expresión decimal de los números (por ejemplo, 5,235), entonces un número es racional si podemos encontrar un “patrón entre sus decimales”, es decir, si los decimales del número son una cantidad finita (por ejemplo, 1/4 = 0,25) o si los decimales satisfacen que a partir de uno de los decimales se repite una pauta, un número finito de decimales que se repite de forma infinita, conocida como el período del número racional (por ejemplo, 1/3 = 0,333…, en el que se repite de forma infinita el 3; o 51/7=7,285714285714285714…, cuyo período es 285714).

Pero el número pi no es un número racional. No se puede expresar como cociente de dos números enteros, o lo que es equivalente, su expresión decimal es infinita y no hay un grupo finito de decimales que se repita de forma periódica generando todos los decimales. La primera demostración de que Pi es irracional es de 1761, un siglo antes de la historia que os vamos a contar a continuación, y se debe al matemático alemán Johann H. Lambert (1728-1777).

Por cierto, que el pasado mes de agosto se ha vuelto a batir el récord de cálculo de decimales de pi, que ahora está en 62,8 millones de dígitos. Los últimos dígitos conocidos hasta ahora del número Pi, que empieza con los decimales 3,1415926535, son 7817924264 (como podemos leer en el artículo 62,8 billones es el nuevo récord de decimales del número pi).

100.000 dígitos de pi, de la astrónoma y diseñadora de visualización de datos Nadieh Bremer. Como explica su autora sobre esta visualización de los dígitos del número pi “cada dígito se ha convertido en una cierta dirección de pi para avanzar, con los 360 grados de un círculo divididos en 10 direcciones de avance”. Esta obra, y otras relacionadas, las podéis encontrar, e incluso comprar, en la página web Visual Cinnamon.

 

A pesar de la demostración de Lambert de que la constante matemática pi es irracional, luego no se puede expresar mediante una cantidad finita de decimales, ni mediante un grupo finito de decimales que se repite de forma periódica generando todos los decimales, nos encontramos que algunas personas aficionadas a las matemáticas han seguido empeñadas en demostrar que no es así. Incluso hoy en día en las universidades y sociedades matemáticas seguimos recibiendo mensajes de personas que dicen haber demostrado que pi es racional, con sus erróneas demostraciones. Estos mensajes van directamente a la papelera. Sin embargo, en alguna, por suerte rara, ocasión llegan a convencer a los medios de comunicación de su supuesto logro –en contra de lo establecido por la “ciencia oficial”– y consiguen su minuto de gloria.

Una de estas demostraciones, que daban al número pi el sencillo y racional valor de 3,2, llegó incluso a la Asamblea General del Estado de Indiana, donde se intentó legislar sobre el valor de esta constante.

La propuesta de Ley Estatal de Indiana no. 246, de 1897, tenía un largo y curioso título que decía algo así:

Un proyecto de ley que introduce una nueva verdad matemática y que se ofrece como una contribución a la educación que solo podrá ser utilizada por el Estado de Indiana de forma gratuita sin necesidad de pagar ningún tipo de royalties, siempre y cuando sea aceptado y adoptado de forma oficial por la legislatura de 1897.

El texto completo de esta proposición de ley de 1897, constaba de tres secciones que podéis leer en el artículo Legislating pi del Archivo Legal de Indiana.

La nueva verdad matemática que se mencionaba en el título de la Ley Estatal de Indiana no. 246 no era otra que la sorprendente afirmación de que el número pi tenía el valor de 3,2. Esta nueva verdad matemática, y su demostración, se debían al médico y aficionado a las matemáticas Edward Johnston Goodwin (aprox. 1825-1902), sobre cuyos descubrimientos se hablaba precisamente en la sección tercera de la Ley Estatal de Indiana no. 246:

Una prueba más del valor de la contribución propuesta por el autor [refiriéndose a Edward J. Goodwin] a la educación y ofrecida como regalo al estado de Indiana es el hecho de que sus soluciones de la trisección del ángulo, la duplicación del cubo y la cuadratura del círculo, han sido aceptadas como contribuciones a la ciencia por la revista American Mathematical Monthly, el principal exponente del pensamiento matemático en este país. Y recuérdese que estos problemas señalados habían sido abandonados hace mucho tiempo por los organismos científicos como misterios insolubles y por encima de la capacidad del hombre para comprender.

Efectivamente, Edward J. Goodwin publicó en 1894 una nota titulada La cuadratura del círculo en la revista American Mathematical Monthly (también hay dos notas del año 1895 sobre la trisección del ángulo y la duplicación del cubo, que junto a la cuadratura del círculo son los tres problemas geométricos clásicos de la matemática griega que, a pesar de lo afirmado por Goodwin, son irresolubles tal cual los plantearon los griegos, es decir, mediante regla y compás –véase, por ejemplo, el artículo Los tres problemas clásicos, de Santiago Fernández), en el cual afirma que

la relación numérica entre el diámetro y la circunferencia es de 5/4 : 4.

Por lo tanto, el número pi, es decir, la relación entre la longitud de una circunferencia y su diámetro, es igual a 4 / (5/4) = 16 / 5 = 3,2, según lo afirmado por Goodwin.

Las dos páginas de la American Mathematical Monthly en las que aparece la nota La cuadratura del círculo de Edward J. Goodwin

 

La nota La cuadratura del círculo fue publicada en la sección Consultas e información de la American Mathematical Monthly, con la aclaración debajo del título y el nombre del autor “publicado por petición del autor”, es decir, que no había pasado ninguna revisión científica y era simplemente un anuncio de su autor. Es decir, la American Mathematical Monthly no avalaba lo incluido en la misma.

Por otra parte, como se explica en el libro Eurekas y euforias, Goodwin había registrado el valor de 3,2 para el número pi en los registros de la propiedad intelectual de Estados Unidos, Gran Bretaña, Alemania, Francia, España, Bélgica y Austria. Este hecho también es llamativo, que se pudiese registrar el valor de una constante matemática, y más aún, un valor erróneo.

La historia de cómo llegó ese valor erróneo para el número pi a casi convertirse en una ley es la siguiente. En 1896, el aficionado a las matemáticas Edward J. Goodwin se dirigió a su representante en la Asamblea General de Indiana, Taylor I. Record, para pedirle que presentara un proyecto de ley con esta nueva verdad matemática que se ofrecía como una contribución a la educación y que solo podría ser utilizada por el Estado de Indiana de forma gratuita sin necesidad de pagar ningún tipo de royalties.

El 18 de enero de 1897 el político Taylor I. Record presentó la Ley Estatal de Indiana no. 246. Seguramente el político no entendió nada de lo que le contó el médico y matemático aficionado. De hecho, el texto de las dos primeras secciones de la conocida como “Ley pi de Indiana” estaban llenas de expresiones matemáticas relacionadas con la cuadratura del círculo.

La propuesta de Ley Estatal de Indiana no. 246 pasó por dos comités, uno de ellos el Comité de Educación, que informaron favorablemente sobre el contenido de la misma y el 10 de febrero de 1897 se remitió al Senado del Estado de Indiana con la recomendación de que fuese aprobada la ley. El día 12 tras haber sido presentada favorablemente la propuesta de ley ante el Senado del Estado de Indiana, fue aplazada indefinidamente. ¿Por qué ese cambio de opinión sobre la Ley pi de Indiana, que los senadores no entendían, pero que estaba avalada por dos comités?

El catedrático de matemáticas Clarence A. Waldo (1852-1926), director del departamento de matemáticas de la Universidad de Purdue

 

Existieron dos factores que pusieron fuera de juego a la Ley pi de Indiana, la presión de la prensa y la casual visita del matemático C. A. Waldo a la Asamblea General del Estado de Indiana.

Desde la primera aparición de la propuesta de Ley Estatal de Indiana no. 246, el 18 de enero de 1897, el periódico en alemán Der Tägliche Telegraph de Indiana, escribió sobre la misma alertando sobre la estupidez de aprobar una ley como esa. El primer artículo relacionado con esa propuesta ya fue publicado el 19 de enero y el editorial del día siguiente también se dedicó a esta polémica ley sobre la cuadratura del círculo y el valor racional del número pi, en la que se escribía por ejemplo “Solo el gran grupo de personas seudo-educadas todavía se preocupa por la cuadratura el círculo”. Aunque otros periódicos, en inglés, pasaron inicialmente del tema, la polémica ley acabaría llenando algunas páginas de muchos periódicos. Incluyo aquí un trozo del editorial del Chicago Tribune del 7 de febrero de 1897 titulado El dedo de Indiana sobre Pi.

Por tanto, la Cámara del Senado ha decidido que en lo sucesivo en el Estado de Indiana pi será 3.2. […] Las circunferencias de los círculos no serán ya el mismo número de veces los diámetros que solían ser, sino un poco más, en Indiana.

El efecto inmediato de este cambio será dar a todos los círculos, cuando ingresan a Indiana, o mayores circunferencias o menores diámetros. Un círculo de Illinois o un círculo que se origina en Ohio encuentra sus proporciones modificadas tan pronto como aterriza en suelo de Indiana. Se encontrará bajo el dominio de un pi modificado.

Caricatura sobre la Ley pi de Indiana aparecida el 6 de marzo 1897 en el periódico Rock Island Argus de Illinois. Imagen de Wikimedia Commons

 

Por otra parte, el día 5 de febrero de 1897, cuando se estaba debatiendo la propuesta de Ley pi de Indiana, el catedrático de matemáticas Clarence A. Waldo (1852-1926), director del Departamento de Matemáticas de la Universidad de Purdue, visitaba el edificio del Senado por un motivo completamente diferente, la asignación de fondos para su universidad. Cuál no sería su sorpresa cuando descubrió que la Asamblea General del Estado de Indiana estaba debatiendo una propuesta de ley relacionada con las matemáticas. Como el propio matemático recordaba en un artículo, 19 años más tarde, escuchó allí a alguien decir:

El caso es muy simple. Si aprobamos este proyecto de ley que establece un nuevo y correcto valor de pi, el autor ofrece a nuestro Estado sin coste alguno el uso de su descubrimiento y su libre publicación en nuestros libros de texto escolares, mientras que todos los demás deben pagarle derechos…

Entonces, un senador le mostró el proyecto de ley al profesor Waldo y le preguntó si desearía que le presentasen “al sabio doctor, su autor”. La respuesta del matemático fue contundente, le dijo que ya conocía a todos los locos que quería conocer.

Tanto la presión de los medios de comunicación, como la opinión mostrada por el profesor Waldo, motivaron que los senadores se dieran cuenta de que no podían legislar sobre el valor de una constante matemática. Por este motivo, el 12 de febrero el senador Orrin Hubbell propuso que la propuesta de ley fuese aplazada indefinidamente, como así fue. Este senador, preguntado al respecto por el Indianapolis Journal, contestaría que:

El Senado podría intentar legislar también que el agua subiera colina arriba, que es lo mismo que establecer verdades matemáticas por ley.

Me gustaría terminar esta entrada del Cuaderno de Cultura Científica con una cita, que viene muy a cuento, de la novela 1984 (1949) del escritor británico George Orwell (seudónimo de Eric Arthur Blair, 1903-1950):

¿Cuántos dedos estoy mostrando, Winston?

Cuatro.

¿Y si el partido dice que no son cuatro, sino cinco, entonces cuántos hay?

Cuatro.

La palabra terminó con un jadeo de dolor. (…)

Aprendes muy despacio, Winston —dijo O’Brien con suavidad.

¿Cómo puedo evitarlo? —sollozó. —¿Cómo puedo evitar ver lo que está frente a mis ojos? Dos y dos son cuatro.

A veces, Winston. A veces son cinco. A veces son tres. A veces son todo eso a la vez. Debes esforzarte más. No es fácil alcanzar la cordura.

Algunas portadas del libro 1984, de Georges Orwell, sacadas de la página web Estandarte

 

Bibliografía

1.- Walter Gratzer, Eurekas y euforias, cómo entender la ciencia a través de sus anécdotas, Crítica, 2004.

2.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013.

3.- Howard W. Eves, Mathematical Circles Revisited and Mathematical Circles Squares, MAA, 2003.

4.- Ryan Schwier, Legislating pi [http://www.indianalegalarchive.com/journal/2015/3/14/legislating-pi], Indiana Legal Archive, 2015.

5.- Santiago Fernández, Los tres problemas clásicos, Un Paseo por la Geometría 1998/1999, Universidad del País Vasco, 1999.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Legislar sobre una verdad matemática se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Buscando una matemática en el castillo
  2. La invención matemática
  3. Guía matemática para el cómic ‘Promethea’
Categorías: Zientzia

Asclepio

Mar, 2021/09/07 - 11:59

Asclepio era el dios de la curación adorado tanto por los griegos como por los romanos. La Ilíada de Homero primero identifica a Asclepio, no como un dios, sino como un ser humano, un contemporáneo de Heracles, Teseo y Jason.

Asclepio. Foto: Michael F. Mehnert / Wikimedia Commons

Quirón el Centauro, el maestro de Aquiles el guerrero y Jasón el marinero y aventurero, impartió sus conocimientos de medicina y cirugía a Asclepio. Asclepio a su vez enseñó a sus hijos Macaón y Podalirios el arte de curar y ellos, a su vez, a sus hijos, de modo que con el paso del tiempo los griegos creían que la progenie de Asclepio habitaba entre ellos, enseñando medicina y curando a los enfermos.

La narrativa mitológica terminó haciendo que Asclepio recibiese el patrimonio del dios original de la curación, Apolo. El relato es que la amante mortal de Apolo, Coronis, embarazada de su hijo, fue asesinada por el dios enojado por amar a otro (un mortal). Tras su muerte, Asclepio es sacado de su útero y entregado a Quirón para que lo criara. Como hijo de Apolo, los griegos lo deificaron para convertirlo en el dios de la medicina. Los Himnos homéricos, compuestos en algún momento alrededor del año 1000 a.e.c., incluyen un himno al dios Asclepio. La historia del mortal Asclepio que se convirtió en el patrón divinizado de la medicina fue quizás un préstamo que los griegos tomaron de la historia egipcia de Imhotep, que fue divinizado para convertirse en el dios egipcio de la curación y la magia.

Reconstrucción del asclepeion de Cos. Imagen: Franck Devedjian / Wikimedia Commons

Se fundaron templos para el culto a Asclepio (los llamados asclepeion) en todo el mundo griego. Epidauro en la costa este de la península del Peloponeso y Cos en el mar Egeo fueron importantes centros de adoración de Asclepio. El culto de Cos incluía tanto a sacerdotes como a médicos que se consideraban descendientes de Asclepio, los asclepíadas. El asclepíada más famoso de Cos fue Hipócrates, el médico y escritor del siglo V a.e.c. El juramento hipocrático comienza invocando a Apolo, Asclepio y sus hijas Higía (salud) y Panacea (curalotodo) como testigos.

Izquierda: Vara de Asclepio, símbolo de la medicina. Derecha: Serpiente asclepiana y la copa de Higía, símbolo de la farmacia.

Las estatuas de Asclepio típicamente muestran al dios sosteniendo un bastón alrededor del cual se enrolla la “serpiente asclepiana”. Los sacerdotes, para honrar al dios, permitieron que esta serpiente, de las más grandes de Europa pero no venenosa, habitara en los templos de Asclepio. Las serpientes simbolizan la regeneración, la esperanza de muchos adoradores de Asclepio.

Zamenis longissimus, la serpiente asclepiana. Fuente: Wikimedia Commons

El culto de Asclepio creció durante la época helenística y después, cuando los romanos adoptaron la adoración del dios curativo (conocido ahora como Esculapio). Ya en el siglo III a.e.c., existía un templo de Asclepio en una isla en el río Tíber en Roma, la isla Tiberina, donde los enfermos acudían en busca de ayuda médica y espiritual. Tras la batalla de Accio, librada entre la flota de Octavio Augusto y la de Marco Antonio y Cleopatra en el 31 a.e.c, el historiador Lucio Casio Dion (en su Historia) afirma que Octavio, en Cos, habría ejecutado a uno de los asesinos de Julio César, Turulio, quien habría osado talar la arboleda sagrada del santuario de Asclepio en Cos para a construir la flota de Marco Antonio.

En Roma, el culto de Asclepio prosperó desde el Principado hasta el Bajo Imperio Romano. El escritor pagano Celso escribió sobre las numerosas personas que confiaban en su relación personal con Asclepio como si fuese lo más normal. Marco Aurelio, quizás animado por su médico Galeno, se benefició del consejo directo de Asclepio. Durante el siglo III e.c., sin embargo, el culto de Asclepio declinó. Los devotos de Asclepio, como el neoplatónico Porfirio, en Contra los cristianos, veían como la oposición cristiana al culto a los dioses incluía que el dios de la sanación era el mismo Cristo, lo que, según los seguidores de Asclepio, condujo a una disminución en la adoración de Asclepio y, por consiguiente, a un aumento de las enfermedades en el imperio.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Asclepio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los mitos como protociencia
  2. La maldición de Prometeo
  3. Después del bronce
Categorías: Zientzia

Drones militares y las nuevas reglas de la guerra

Lun, 2021/09/06 - 11:59

Julián Estévez Sanz

Shutterstock / Paul Fleet

 

Las amenazas más efectivas son las que pasan inadvertidas. A las que nadie mira, o de las que nadie es consciente.

Los conflictos militares como los de Gaza, Libia o Siria son titulares habituales. Otros no son lo son tanto. Pero poco se habla de que, en casi todos estos enfrentamientos, se están empleando drones (también llamados UAV, acrónimo inglés que hace referencia a “vehículo aéreo no tripulado”). Tal es su influencia, que están cambiando las reglas de la guerra.

La idea de los ataques aéreos es un sueño militar de siglos, y se remonta a las cometas de fuego hábilmente empleadas por la dinastía Han en el s.II a.C. Después, permaneció latente casi 2 000 años, hasta que Benjamin Franklin recuperó el concepto a finales del s.XVIII, y lo compartió por carta con una pareja de hermanos con los que se escribía: los Montgolfier.

Desde entonces, el uso aéreo de los globos aerostáticos y de la posterior aviación, se vio como una gran ventaja a tener en cualquier ejército. Pero a la idea de los drones, tal y como los conocemos hoy en día, aún le quedaban unas alegrías y decepciones más.

Red aérea de la IGM en Londres para prevenir de ataques con globos.

Concretamente, tenemos que trasladarnos en el tiempo hasta la guerra de Vietnam para conocer uno de los principales impulsos. El conflicto dio a luz el programa más sofisticado de vigilancia con aviones no tripulados en la historia de la aviación. Durante la década de 1960, el Departamento de Defensa de los EEUU comenzó a automatizar el campo de batalla con sensores remotos y superordenadores para escuchar los movimientos del enemigo o manejar aviones no tripulados Firebee en los cielos vietnamitas. Tras muchos debates internos en el seno de la cúpula militar de EEUU, ya nunca se abandonó el empleo de este tipo de armas.

Posteriormente, los drones militares tuvieron un papel protagonista en la lucha antiterrorista tras el 11S. En ella, quedó patente su utilidad para una permanente vigilancia de vastos territorios, el seguimiento silencioso de objetivos, y su asesinato. Han demostrado tal eficacia, que en los últimos años se ha intensificado su uso no solo en combate de células terroristas, sino contra ejércitos regulares. Y, como muestra, dos ejemplos:

El primero de ellos es un viejo conocido en las noticias internacionales. Se trata de la guerra de Siria. En ella, a comienzos de 2020, cuando Turquía desplegó sus UAV para bombardear las defensas de Al Assad, ocurrió un punto de inflexión en el conflicto en contra de este último. Las naves otomanas aplastaron a las defensas sirias.

A finales de ese mismo año, en Nagorno Karabaj, una región estratégica del Cáucaso, tuvo lugar la guerra entre Armenia y Azerbaiyan. La república azerí no es reconocida como gran potencia militar. Sin embargo, en los últimos años se ha aprovisionado de varios drones militares de manufactura israelí y, sobre todo, turca. Su impacto sobre las anquilosadas y obsoletas defensas armenias ha sido devastador.

Con una novedosa técnica llamada loitering, Armenia no tuvo ninguna opción. Esta técnica consiste en el empleo de pequeños UAV en enjambre, que se lanzan como kamikazes contra los objetivos enemigos. Tal y como se aprecia, Turquía está emergiendo como una de las potencias principales en el uso de estas máquinas de guerra.

Vestel Karayel, UAV desarrollado para las fuerzas armadas de Turquía. Wikimedia Commons / Bks5669, CC BY-SA

Nuevos dilemas éticos

El empleo de los drones plantea numerosas cuestiones éticas y cambia totalmente las reglas de la guerra. Una nación puede atacar a otra desde miles de kilómetros de distancia. Los operadores de estas armas son soldados situados en una base militar en su propio territorio, en el que, en un entorno que imita al de un vídeojuego, decide sobre qué enemigos y objetivos hay que abatir.

Esto viola una de las normas más básicas de la ética de la guerra: si un soldado mata, se da por hecho que él se arriesga a recibir la misma suerte. Pero con estas naves, el conflicto se vuelve asimétrico, y en un bando se juegan cientos de víctimas, y en el otro ningún soldado corre riesgo. Quizás ahora se entienda por qué los líderes políticos son tan amigos de los drones. La justificación de movilización de tropas y de pérdida de vidas humanas de sus ciudadanos carece de valor. No hay víctimas, ni escándalos mediáticos.

Otra regla vulnerada es la capacidad de invadir silenciosamente territorios enemigos. Bajo el halo de misiones de espionaje, los gobiernos no tienen que justificar nada, y el país atacado se entera cuando ya es demasiado tarde.

Pero el desarrollo tecnológico de estas naves no se queda aquí, sino que el objetivo es dotarlas de una autonomía que permita combatir en el aire, o de bombardear automáticamente a los enemigos. Para ello, grandes empresas están diseñando algoritmos de navegación autónoma, de interpretación de imágenes, e incluso simulaciones del efecto de bombardeo en un punto.

¿Qué ocurriría si alguna de esos sicarios automáticos se equivocase de objetivo o confundiese a niños con terroristas?

Mural de protesta en Yemen.

Quizás alguien piense que eso podría ocurrir una o dos veces. Pero no. Ya hay más de 2 000 víctimas civiles de drones de EEUU.

Cuando nació la aviación, se decía que ya no existirían guerras, ya que el poderío que demostraban presagiaba que cualquier nación que tuviera aviones en sus filas aplastaría a cualquier enemigo. Hoy en día, vemos normal prohibir las armas nucleares o las minas antipersona. Ahora, campañas como Ban Killer Drones tratan de prohibir los drones militares.Sobre el autorThe Conversation

Sobre el autor: Julián Estévez Sanz es profesor e investigador en Robótica e Inteligencia Artificial en la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Drones militares y las nuevas reglas de la guerra se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Son evitables los ataques con drones?
  2. Lienzos y partituras para crear nuevas vacunas
  3. Las reglas de desplazamiento radiactivo
Categorías: Zientzia

¿Es el método de cálculo el responsable del aumento del precio de la electricidad?

Dom, 2021/09/05 - 11:59

J. Guillermo Sánchez León

Foto: Shutterstock / ART STOCK CREATIVE

 

Estos últimos meses los medios de comunicación españoles no han parado de anunciar sucesivos récords en el precio de la electricidad. Un ejemplo: el del pasado 30 de julio (Figura 1).

Figura 1. Precio de la electricidad en el mercado mayorista el día 30-07-2021.
OMIE

Se culpa de estas sucesivas subidas al método marginalista que se usa en su cálculo y, para explicarlo, frecuentemente se establecen falsas analogías.

Las premisas básicas

Entre las muchas frases que se atribuyen a Albert Einstein, y que probablemente nunca dijo, está la de: “Todo debe hacerse tan simple como sea posible, pero no más”. No importa quien sea su autor sino que refleja con claridad el modo de afrontar un asunto complicado. Y cómo establecer el coste de la energía lo es.

Una forma de abordar los temas complejos es dividirlo en partes. Aunque en este artículo expondremos el modelo español, este es similar, con pocas diferencias, al de la mayoría de los países desarrollados.

Aquí pondremos el foco en describir cómo se fija el precio de la energía eléctrica en el mercado mayorista. En el caso de un pequeño consumidor que se acoja al mercado regulado (PVPC), ese precio es menos de un tercio de la factura, como ya explicamos en otro artículo.

Para entender el mercado eléctrico hay que tener antes varias ideas claras:

  1. Para el precio de la electricidad en el mercado mayorista la unidad utilizada es euros por megavatio hora (€/MWh). En el caso del pequeño consumidor se utiliza una unidad mil veces menor, el kWh.
  2. La electricidad es producida por centrales de distinto tipo (Figura 2), que pertenecen a empresas productoras de energía eléctrica. Estas la venden a las comercializadoras, que son la que facturan al consumidor. Normalmente, una misma compañía productora de electricidad tiene una empresa comercializadora, aunque formalmente sean dos entidades distintas.
  3. Otra parte del negocio eléctrico es la distribución. La energía eléctrica se transmite a través de una red física formada por cables. Una vez que un productor inyecta energía eléctrica (electrones) a la red es indistinguible de la energía vertida por otros productores. Por tanto, es pura propaganda si una comercializadora garantiza al cliente que solo recibirá “energía verde”.
Figura 2. Origen de la electricidad durante el mes de julio. Para compensar la falta de energía eólica se ha recurrido a centrales que usan como combustible el gas, la energía más cara.
OMIE

La península ibérica en el mercado eléctrico europeo

España forma parte del mercado europeo de compraventa de electricidad. Así, el precio de su energía eléctrica (€/MWh), sin costes añadidos, se rige por el marco regulatorio europeo que estará vigente hasta 2030.

Pese a la interconexión con Francia, la capacidad de intercambio con la red europea es muy pequeña. El motivo histórico es que los municipios pirenaicos se opusieron a la instalación de tendidos eléctricos de alta tensión en sus territorios.

En la península ibérica (España y Portugal peninsulares), la gestión del sistema eléctrico diario e intradiario está delegada a OMIE (Operador del Mercado Ibérico de Energía). A través de este, se fija el precio horario de la electricidad para el mercado mayorista de la zona.

Estos precios experimentan grandes fluctuaciones (Figura 3) y han crecido enormemente en los últimos meses. Sin embargo, para hacer una valoración objetiva de la situación es necesario analizar periodos largos de actividad.

Figura 3. Evolución del precio de la electricidad en el mercado mayorista en los últimos 12 meses.
OMIE

Un juego de oferta y demanda

OMIE es un mercado marginalista en el que el precio del MWh se establece por horas para el día siguiente.

Cada día Red Eléctrica Española (REE) informa a los productores de la estimación de la demanda de electricidad (por horas) para el día siguiente.

Imaginemos que las necesidades de consumo entre las 15:00 y las 16:00 de un día X se establecen en 40 000 MWh. Para simplificar, supondremos que solo hay dos empresas eléctricas y que solo ofertan dos precios.

Conocida la demanda, las empresas productoras hacen sus ofertas:

  • La empresa A oferta 20 000 MWh a 0 euros/hora y 5 000 MWh a 100 €/hora.
  • La empresa B oferta 17 000 MWh a 0 euros/hora y 10 000 MWh a 95 €/hora.

Las empresas A y B desconocen los precios ofertados por la otra.

Dadas las ofertas presentadas, la empresa A aportará al mercado los 20 000 MWh que ofreció a precio cero y la empresa B los otros 20 000 MWh necesarios para satisfacer la demanda (17 000 MWh que ofertó a precio cero y 3 000 MWh a 95 €/hora). Pero finalmente todos recibirán 95 €/MWh.

Puede que llame la atención que en este ejemplo gran parte de la oferta haya sido a precio cero. Eso no es una errata. En la práctica es así porque parte de lo que se oferta corresponde a centrales nucleares y, como estas no pueden encenderse y apagarse a voluntad, las empresas buscan asegurarse de que en cualquier caso esa energía es adquirida.

Ocurre algo parecido con parte de las energías renovables (de nada vale tener un generador parado cuando sopla el viento). Frecuentemente, las últimas centrales en entrar en la subasta son las de gas y, a veces, también las hidroeléctricas.

El ejemplo presentado puede parecer trivial pero el método de casación de precios no lo es. En él se aplica el algoritmo EUPHEMIA.

Precios y costes

El hecho de que el precio de la última oferta (la más alta) sea la que fije el de todas las ofertas previas es lo que confunde a tertulianos y periodistas y les lleva a emplear falsas analogías para explicar erróneamente qué es un sistema marginal de precios.

Se ha llegado a decir que este mercado funciona como si, al ir a la carnicería, se comprasen pollo, salchichas y solomillos para pagarlo todo al precio de estos últimos. Esta analogía parte de un error de concepto: suponer que los precios a los que ofertan los productores es, como mínimo, el coste de generación de cada tipo de energía.

Como ya hemos visto, eso no es así. Por ejemplo, a veces la última energía en entrar al mercado es la hidroeléctrica pues, aunque su coste sea barato, presenta una enorme flexibilidad: puede ponerse en marcha en pocos minutos y es una forma de tener energía almacenada.

Lo cierto es que el precio al que ofertan las eléctricas no corresponde a los costes de producción. De hecho, cuando se analiza el precio de la electricidad durante todas las horas del año, es fácil darse cuente de que hay horas (Figura 4) en las que la electricidad está claramente por debajo de los costes de producción. Una central nuclear que suministre por debajo de 50 €/MWh probablemente está perdiendo dinero pues solo en tasas especiales paga 21 €/MWh.

Figura 4. Ejemplo de cómo oscila el precio de la electricidad en un día (31-07-2021). Obsérvese que hay horas en las que el precio es tan bajo que se sitúa por debajo de los costes de generación.
OMIE

No parece lógico (pero es eficiente)

Una analogía que refleja más claramente lo que es el mercado marginalista de la electricidad es la siguiente: suponga que está obligado a comprar una cantidad de carne y va a una carnicería. Allí le ofrecen pollo y salchichas a un precio muy bajo, por debajo de su coste, porque el carnicero quiere deshacerse en cualquier caso de esos productos. Pero el comerciante, que también le ofrece ternera, desconoce lo que usted va a comprar.

Además, la norma de ese negocio es que el precio de cada uno de los productos que compre será el del producto más caro que se lleve. Si usted solo compra pollo y salchichas el carnicero va a perder dinero. Pero ha hecho sus cálculos y sabe que, después de varias compras, acabará obteniendo ganancias. De lo contrario, se arruinaría.

Probablemente este método marginalista no sea el óptimo para el consumidor pero varios estudios demuestran que es más eficaz que si se pagase a las eléctricas el precio de cada energía. Naturalmente, con nuevas reglas de juego los precios de salida serían otros.

Hay países europeos en los que la electricidad es más barata, como Francia, que produce el 80% de su energía en centrales nucleares, o Suecia, que dispone de gran capacidad hidráulica y nuclear.

En cambio, en Alemania la energía es más cara porque, tras el cierre de gran parte de sus centrales nucleares, ha tenido que recurrir al carbón y los derechos de emisión de CO₂ se han encarecido enormemente.

Los otros costes de la energía barata

Cualquier forma de producción de energía tiene un alto coste ambiental. Los destrozos que se originan en las instalaciones eólicas no son despreciables, incluso el proceso de fabricación de las células solares o de las baterías para coches eléctricos no es inocuo. También hay que tomar en cuenta la contaminación generada por el derroche eléctrico. Por ejemplo, la contaminación lumínica se está incrementando sustancialmente por la proliferación de luces led, que consumen muy poco, para iluminar las ciudades.

Por otra parte, no es conveniente que los gobiernos dirijan de forma inflexible las formas futuras de producción de la energía. Parte de la factura eléctrica española actual se destina a pagar las primas a las renovables de 2007.

Uno de los objetivos de estas ayudas era desarrollar la industria solar española pero el resultado final es que importamos las células solares y el Gobierno está en pleitos con fondos de inversión que reclaman indemnizaciones por los recortes que se produjeron en las primas comprometidas (se había acordado pagar a ¡360 €/MWh! durante 25 años).

Ahora se afirma que en un futuro próximo toda la energía será 100% renovable y se almacenará como hidrógeno verde. Una idea que ya estuvo de moda hace mas de 40 año. El futuro no está escrito y probablemente las formas más eficientes y sostenibles de producir electricidad para dentro de 30 años todavía no estén inventadas.The Conversation

Sobre el autor: J. Guillermo Sánchez León es ingeniero técnico de mínas, físico, doctor en matemáticas y profesor del máster de modelización matemática de la Universidad de Salamanca

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Es el método de cálculo el responsable del aumento del precio de la electricidad? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El precio de la electricidad es más volátil en épocas de incertidumbre en la regulación de renovables
  2. Cuando el más pequeño movimiento genera electricidad que puedes usar
  3. Cálculo y geometría analítica, de George F. Simmons
Categorías: Zientzia

Evolución de la flora y fauna en el Abra de Bilbao

Sáb, 2021/09/04 - 11:59
Vista aérea de la Ría y su desembocadura. Al fondo el puerto de Bilbao ubicado en el Abra Exterior, en tierras de Santurtzi, Zierbena y Getxo. Fotografía: Mikel Arrazola / Wikimedia Commons

La comarca del Gran Bilbao ha mostrado históricamente una estrecha relación con el río Nervión-Ibaizabal. Desde el siglo XIX, su cauce ha venido recibiendo grandes volúmenes de aguas residuales de origen doméstico, siderometalúrgico, minero e industrial, ante la creencia de que el medio marino podría asimilar toda esa carga contaminante. Sin embargo, las condiciones ambientales naturales del Abra de Bilbao se vieron alteradas de forma drástica.

Afortunadamente, la mayor sensibilidad y conciencia ambiental de la sociedad se tradujo en la puesta en marcha en 1984 del ‘Plan de Saneamiento Integral de la comarca del Gran Bilbao’ promovido por el Consorcio de Aguas Bilbao-Bizkaia que, junto con la paulatina transformación medioambiental de las industrias, fue produciendo una mejora paulatina de la calidad de las aguas y de la vida animal y vegetal de los fondos rocosos del Abra. Este vídeo presenta como afectó el plan de saneamiento a las poblaciones de flora y fauna en el Abra de Bilbao. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».

 

Edición realizada por César Tomé López

El artículo Evolución de la flora y fauna en el Abra de Bilbao se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Recuperación de fauna en la ría de Bilbao
  2. La recuperación de la vida marina en el Abra de Bilbao
  3. La ría de Bilbao como medio de transporte de mineral
Categorías: Zientzia

El genoma completo de una de las primeras mujeres europeas anatómicamente moderna

Vie, 2021/09/03 - 11:59

El genoma de una de las primeras mujeres de nuestra especie, que vivió en Rumania hace 35 mil años, pone de relieve que la disminución de diversidad genética de las poblaciones europeas (en comparación con las africanas) fue causada por la última glaciación paleolítica (hace unos 20-24 mil años, en el máximo glacial) y no por un “cuello de botella” tras la salida de nuestros ancestros de África. Sin embargo, la prevalencia de enfermedades genéticas no se vio alterada en las poblaciones que sobrevivieron al máximo glacial, a pesar de la pérdida de diversidad.

El cráneo de Pestera Muierii 1. Foto: Mattias Jakobsson.

El proyecto en el que han participado miembros del grupo de Biología Evolutiva Humana de la Universidad del País Vasco/Euskal Herriko Unibertsitatea (M. Hervella, N. Izagirre, S. Alonso y C. de la Rúa), en colaboración con el grupo liderado por Mattias Jakobsson de la Universidad de Uppsala (Suecia) y el dirigido por Mihai Netea de la Radboud University (Holanda), se inició con la recuperación del genoma mitocondrial de una de las primeras mujeres europeas de nuestra especie, cuyos restos se hallaron en la cueva de Peştera Muierii en Baia de Fier, en el sur de Rumania (Hervella et al., 2016). Recientemente se ha conseguido secuenciar el genoma completo de esa mujer del Paleolítico Superior  (Svensson E. et al., 2021).

El desarrollo experimentado por las técnicas de análisis genómico de restos humanos antiguos está permitiendo obtener información para comprender cómo ha sido la evolución y adaptación de nuestra especie en Europa tras la llegada de los primeros Homo sapiens desde África. La expansión de los humanos modernos fuera de África es un periodo importante en nuestra historia y suele describirse como un “cuello de botella” poblacional, que produjo una pérdida de diversidad genética. Sin embargo, el hecho de que el genoma de la Peştera Muierii (PM1) muestre una elevada diversidad implica que la mayor pérdida de diversidad genética ocurrió posteriormente a la migración fuera de África, durante un periodo climático muy frío (LGM, Last Glacial Maximum) en la última Edad de Hielo.

Aunque esa mujer presenta características craneales propias tanto de las poblaciones humanas modernas como de las neandertales, el estudio del genoma mitocondrial indicó que pertenecía a la especie Homo sapiens, encontrando en el presente estudio sobre el genoma nuclear niveles de mezcla neandertal (∼3,1 %) similares a los que presentan la mayoría de los humanos europeos.

El análisis de genomas antiguos también proporciona información sobre la respuesta inmunitaria en el pasado. Las citoquinas son mediadores inmunes cruciales en la defensa del huésped frente a patógenos. En el genoma de PM1 se evaluó la presencia de cuatro polimorfismos genéticos que están fuertemente asociados con una mayor capacidad de producción de citoquinas  (TLR4, TLR6, TLR10, IL-10), indicando que esa mujer tendría una gran capacidad de producción de citoquinas, lo que le conferiría protección contra los patógenos y una buena adaptación biológica.

Finalmente, en ese estudio se utilizaron metodologías novedosas de genómica médica con el fin de buscar en los genomas de humanos del Paleolítico Superior posibles variantes genéticas causantes de enfermedad. Se detectó una variante, la AIPL1 (p. (His82Tyr)), descrita en algún caso de amaurosis congénita de Leber 4, enfermedad que provoca ceguera. El padecimiento de esa enfermedad habría sido un gran desafío en el Paleolítico, aunque se conocen otros casos de sujetos con trastornos o lesiones congénitas en el registro arqueológico desde el Pleistoceno Medio (en Atapuerca, por ejemplo). En caso de verificarse que esa variante genética causaba ceguera, sería otro ejemplo de la existencia del cuidado de individuos con una discapacidad.

 

Referencias:

Svensson E. et al. (2021) Genome of Peştera Muierii skull shows high diversity and low mutational load in pre-glacial Europe Current Biology, May 18 DOI: 10.1016/j.cub.2021.04.045

Hervella M. et al. (2016) The mitogenome of a 35,000-year-old Homo sapiens from Europe supports a Palaeolithic back-migration to Africa Sci Rep 6, 25501 DOI: 10.1038/srep25501

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El genoma completo de una de las primeras mujeres europeas anatómicamente moderna se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Lado oscuro del genoma y leucemia: aspectos éticos y legales de una investigación
  2. El estribo más completo del registro neandertal
  3. Riesgo de sufrir los efectos de un vertido de petróleo en el mar de las costas europeas
Categorías: Zientzia

Las microestufas de los pájaros

Jue, 2021/09/02 - 11:59
Carbonero garrapinos (Periparus ater). Ilustración: María Lezana

Muchas veces, cuando estoy en leyendo o trabajando, levanto la vista del libro a de la pantalla y miro al exterior para descansar. A veces miro a lo lejos, hacia el Ganeko o el Pagasarri, y otras contemplo a los gorriones y otros pajarillos que visitan mi terraza y que van de un lado para otro, dando pequeños saltos. En los días fríos, desapacibles, a menudo lluviosos, tan frecuentes en nuestros inviernos y comienzos de primavera, los gorriones tienen una apariencia curiosa. Parecen haber engordado de repente, de un día para otro. Más que gorriones, parecen pelotas de tenis con pico y patas. Solo lo parecen; ese aspecto no tiene nada que ver con que estén más o menos gordos, con que tengan más o menos depósitos de grasa.

El aspecto esférico que adoptan no es sino el resultado de cómo disponen el plumaje. Al adoptar esa disposición se aíslan del exterior y evitan de esa forma perder demasiado calor. Expanden plumas y plumones y generan así una amplia capa alrededor de su cuerpo. Es una capa de aire, el que queda retenido entre los filamentos más finos de las plumas. Además, la forma esférica es la que, en términos relativos, menos superficie expone al exterior, por lo que minimiza también la fuga de calor corporal.

Las aves son homeotermas y para regular su temperatura corporal deben, cuando hace frío, evitar una pérdida excesiva de calor. El aire es mal conductor térmico, mucho peor que el agua. Pero pueden llegar a perder mucho calor si el aire se mueve, si hace viento, por ejemplo. Por esa razón, al generar una capa de aire de cierto espesor que permanece estancado entre plumas y plumones, se minimiza mucho esa pérdida. No es casual que se haya recurrido a las plumas para rellenar el interior de fundas de ropa de abrigo o de cama: el aire que retienen en su interior es la mejor garantía de un excelente aislamiento. Imitamos, sí, a las aves.

Como decía, para las aves es un mecanismo muy útil, y sobre todo para los pájaros pequeños. Tienen, en proporción a su volumen o su masa, una superficie corporal muy grande, mayor que la de los animales grandes. Por esa razón los pequeños tienden a perder más calor y, por ello, contar con un buen aislamiento térmico en caso de necesidad es especialmente importante en estos animales.

Pero los pajarillos no solo se defienden del frío aislándose con el plumaje. Si, a pesar de ese aislamiento tan sofisticado, corren el riesgo de sufrir un descenso de su temperatura corporal, pueden recurrir a producir más calor de origen metabólico. Hasta la fecha se sabía que el músculo esquelético (los músculos del vuelo) de algunas aves elevan su intensidad metabólica en invierno, además de aumentar de tamaño, y que su capacidad para elevar la tasa metabólica máxima que pueden desarrollar, es un factor que determina su capacidad para vivir en lugares fríos. Pero hay más.

Las mitocondrias de sus glóbulos rojos1 y, probablemente, otros tejidos, elevan su metabolismo activando vías específicamente termogénicas. Esto es, elevan su metabolismo de manera que el flujo de protones que, en circunstancias normales, alimentaría la producción de ATP al moverse a favor de gradiente electroquímico desde el espacio intermembranal hasta la matriz mitocondrial, no se produce a través de la sintetasa de ATP de la membrana interna de la mitocondria y, de esa forma, la energía se disipa en forma de calor. Es el mismo “truco” que utiliza la grasa parda (o marrón) de los mamíferos, ese tejido lleno de capilares sanguíneos y mitocondrias que sirve para mantener caliente el cuerpo de los bebés humanos, el de los cetáceos, y para producir el calor que necesitan los mamíferos hibernantes en sus despertares.

En un estudio con el herrerillo (Cyanistes caeruleus), el carbonero común (Parus major) y el carbonero garrapinos (Periparus ater) han encontrado que en especial los dos carboneros, elevan el volumen y la respiración mitocondrial de los eritrocitos en la transición de otoño a invierno, y que ese aumento del metabolismo no conduce a una mayor síntesis de ATP, sino que refleja un desacoplamiento del transporte de electrones de aquella síntesis. De esta forma, y dado que ese desacoplamiento, como hemos visto en la grasa parda de los mamíferos, surte efecto termogénico, la consecuencia es una mayor producción de calor. Compensa así la mayor pérdida de calor en invierno.

Bien mirado, es lógico que los pajarillos dispongan de herramientas como esa. Dado su pequeño tamaño, un abrigo excelente no es suficiente para mantenerse calientes. Necesitan además una estufita interior. Los glóbulos rojos cumplen esa función; son microestufas circulantes, llevan el calor allí donde se necesita.

Fuentes:

Nord, A, Metcalfe, NB, Page, JL, Huxtable, A, McCafferty, DJ, Dawson, NJ. Avian red blood cell mitochondria produce more heat in winter than in autumn. The FASEB Journal. 2021; 35:e21490. https://doi.org/10.1096/fj.202100107R

Swanson, D.L., Vézina, F. Environmental, ecological and mechanistic drivers of avian seasonal metabolic flexibility in response to cold winters. J Ornithol 156, 377–388 (2015). https://doi.org/10.1007/s10336-015-1192-7

Nota:

1 En efecto, mitocondrias de los glóbulos rojos, porque los eritrocitos de las aves, a diferencia de los de mamíferos (salvo excepciones), sí tienen mitocondrias.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Las microestufas de los pájaros se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El ingenio de los pájaros, de Jennifer Ackermann
  2. La estufa interior
  3. La grasa de los cetáceos, abrigo y estufa a un tiempo
Categorías: Zientzia

Constance Reid y Julia Robinson, las hermanas Bowman

Mié, 2021/09/01 - 11:59

 

Julia y Constance Bowman. Foto: Ralph Bowman. Fuente

 

Constance y Julia Bowman nacieron en San Louis (Misuri, EE. UU.) con casi dos años de diferencia; eran hijas de Ralph Bowman y Helen (Hall) Bowman. En 1921 falleció su madre; su padre se casó al poco tiempo y la familia se trasladó a San Diego (California). En 1924 nació su hermana Billie; Julia enfermó de escarlatina y tuvo que guardar una larga cuarentena lejos de su familia. Este problema temprano de salud –que se complicó con unas fiebres reumáticas– le impidió compartir más tiempo con sus hermanas y le provocó problemas cardíacos durante toda su vida. Pero Constance y Julia permanecieron siempre unidas.

Julia Robinson (1919-1985), la matemática cautivada por el décimo problema de Hilbert

Julia ingresó en 1936 en la Universidad Estatal de San Diego; era la única mujer siguiendo algunas materias como matemáticas o física. En 1939, animada por algunos profesores, se trasladó a la Universidad de California en Berkeley donde empezó a disfrutar de las matemáticas.

Julia Robinson. Fuente

 

En 1941 se casó con Raphael Robinson (1911-1995), su profesor de teoría de los números durante su primer año de carrera. Julia era en ese momento profesora asistente en Berkeley y tuvo que abandonar su puesto al prohibir la institución que los dos miembros de un matrimonio trabajaran en el mismo departamento. No le quedó más remedio que quedarse en su casa; aunque consiguió contratos esporádicos en algún otro departamento e institución. Al quedar embarazada, sus problemas de corazón empeoraron, perdió el niño que esperaba y le diagnosticaron poco tiempo de vida. El desánimo la llevó a refugiarse en las matemáticas.

A finales de 1942, Julia asistió a un seminario impartido por Alfred Tarski (1902-1983) en el que el matemático planteó un problema que ella le llevó resuelto dos días más tarde. Tarski le propuso realizar la tesis doctoral bajo su dirección y, en 1948, Julia presentó la memoria titulada Definability and Decision Problems in Arithmetic. En ella demostraba que los números enteros podían definirse aritméticamente en términos de números racionales mediante cierto tipo de operaciones.

Julia se interesó entonces por el décimo problema de Hilbert:

¿Existe un método que permita determinar, en un número finito de pasos, si una ecuación diofántica es resoluble en números enteros?

Es decir, David Hilbert (1862-1943) se preguntaba si había algún procedimiento universal para, dada una ecuación diofánticaecuación algebraica con coeficientes enteros de la que se buscan soluciones enteras– arbitraria, responder a la existencia de soluciones simplemente con un sí o un no.

En 1961, Julia Robinson publicó un artículo con Martin Davis (1928) y Hilary Putnam (1926-2016) –The decision problem for exponential diophantine equations– en el que introducían la que denominaban hipótesis de Robinson. Consistía en encontrar un cierto tipo de relación diofántica que implicaba necesariamente la no existencia del método aludido por Hilbert.

Introducción de “The decision problem for exponential diophantine equations”, Annals of Maths 74 (3) (1961) 425-443.

 

Julia siguió buscando una solución al problema hasta que, en 1970, el matemático Yuri Matiyasevich (1947) encontró una relación del tipo indicado en la hipótesis de Robinson usando los términos de la sucesión de Fibonacci. El teorema de Matiyasevich confirmaba la irresolubilidad del décimo problema de Hilbert. Con los mismos intereses científicos, Julia y Yuri colaboraron publicando algunos artículos.

Robinson realizó también una importante aportación a la teoría de juegos, demostrando que la dinámica de un jugador ficticio converge hacia un equilibrio de Nash en una estrategia mixta en el marco de un juego de suma cero con dos jugadores.

En 1976 Julia fue elegida miembro de la división de matemáticas de la National Academy of Science: fue la primera mujer en obtener este cargo. También fue la primera presidenta de la American Mathematical Society entre 1982 y 1984. Falleció debido a una leucemia el 30 de julio de 1985.

Constance Reid (1918-2010), la biógrafa de Hilbert y de su hermana entre otros matemáticos

En 1938 Constance se licenció en la Universidad Estatal de San Diego –obtuvo un Bachelor of Arts y conoció a futuro marido, Neil D. Reid, mientras estudiaba un máster en educación en la Universidad de California en Berkeley. Se casaron en 1950 y tuvieron dos hijos.

Constance Reid (2001). Foto: George Csicsery. Fuente

 

Trabajó como profesora de inglés y periodismo entre 1939 y 1950 y, tras su matrimonio, como escritora independiente.

En 1952 escribió su primer texto relacionado con las matemáticas; fue en la revista Scientific American: Perfect Numbers. El artículo comienza de una manera realmente sugerente: «Seis es uno de esos números: es la suma de todos los números que lo dividen excepto él mismo. En 2000 años se han encontrado doce números perfectos; ahora un ordenador ha descubierto cinco más.».

¿Por qué un artículo sobre este tipo de números? Julia había hablado a su hermana de uno de los primeros usos exitosos de la computadora electrónica digital SWAC: era un problema de teoría de los números en el que estaba trabajando su marido Raphael. El matemático había programado el test de primalidad de Lucas-Lehmer para determinar cuándo 2n−1 es primo para todos los primos n menores que 2304. Así, descubrió cinco números primos de Mersenne, los números primos más grandes conocidos en ese momento. Recordemos que si el número de Mersenne 2n–1 es primo, entonces 2n–1(2n–1) es un número perfecto par.

Uno de los editores de Scientific American invitó a Constance a escribir un libro sobre números. Y lo hizo; fue From Zero to Infinity: What Makes Numbers Interesting (1955).

Para escribir su primera biografía Constance se inspiró en un libro con breves reseñas de matemáticos relevantes: Men of Mathematics (1937) de Eric Temple Bell, que incluye anécdotas y detalles sobre la personalidad y el trabajo de sus protagonistas. Constance deseaba escribir un ensayo similar sobre matemáticos contemporáneos, pero quedó fascinada por David Hilbert (1862-1943) y escribió su biografía: Hilbert (1970). El matemático Freeman Dyson (1923-2020) decía sobre este libro:

Esta biografía entrelaza tres temas distintos. Presenta un emotivo retrato de un gran ser humano. Describe de forma precisa e inteligible, sin tecnicismos, el mundo de las ideas matemáticas en el que Hilbert creó sus obras maestras. E ilustra el trasfondo de la historia social alemana en el que se desarrolló el drama de la vida de Hilbert. […] Pero el libro es mucho más que una pieza de investigación histórica convencional. Más aún, es un poema en elogio a las matemáticas.

Algunas de las biografías escritas por Constance Reid.

 

Posteriormente, Reid escribió sobre otros matemáticos como Richard Courant (1888-1972) –Courant in Göttingen and New York: The Story of an Improbable Mathematician (1976)–, Jerzy Neyman (1894-1981) –Neyman—From Life (1982)– o Eric Temple Bell (1883-1960) –The Search for E.T. Bell, Also Known as John Taine (1993)–.

Aunque, sin duda, su biografía más personal fue la última, la dedicada a su hermana Julia y que escribió en primera persona: Julia, a Life in Mathematics(1996).

En 1987, Reid recibió el George Polya Award de la Mathematical Association of America por The Autobiography of Julia Robinson. En 1996 recibió el Beckenbach Book Prize por su biografía de Bell.Y en 1998 le concedieron el JPBM Communications Award por el conjunto de su trabajo dedicado a llevar información matemática precisa a un público no experto.

Constance Reid falleció el 14 de octubre de 2010, tras una larga enfermedad.

Como decíamos al principio, Constance y Julia permanecieron siempre unidas. Lo estuvieron como hermanas y como contribuidoras, cada una desde su formación, a la historia de las matemáticas.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Constance Reid y Julia Robinson, las hermanas Bowman se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Gaston Julia y su ‘Grand Prix des sciences mathématiques’
  2. El problema de las flechas de Mahavira
  3. Pierre Fatou, un matemático poco (re)conocido
Categorías: Zientzia

Los fenicios fueron los primeros en circunnavegar África hace más de 2500 años

Mar, 2021/08/31 - 11:59
En 2010 Phillip Beale, con la réplica de un barco fenicio, demostró que un barco así podía circunnavegar África.

Los fenicios contribuyeron muy significativamente al conocimiento antiguo en dos ámbitos principalmente: geografía y navegación. Los fenicios fueron los grandes marineros de la antigüedad, navegando en expediciones comerciales desde sus ciudades portuarias de Tiro, Sidón y Biblos en el Mediterráneo oriental. Abrieron toda la región mediterránea al comercio, navegando más allá del Estrecho de Gibraltar (los Pilares de Heracles) a finales del segundo milenio a.e.c.

Fundaron las ciudades portuarias de Cartago y Útica en el norte de África y Cádiz en España y los griegos estaban convencidos de que los fenicios habían creado la ruta comercial con Tartessos en la costa atlántica de la península ibérica. Fueron los fenicios de Cartago los encargados de crear un gran imperio comercial que se extendía desde el norte de África hasta Sicilia e Iberia y en el Atlántico desde las Islas Británicas hasta la costa occidental de África. La comprensión algo errática de Homero de la geografía en la Odisea debe mucho a la exploración fenicia.

Los griegos, que emergieron de su Edad Media en el siglo VIII a.e.c., tomaron prestado el alfabeto fenicio. Irónicamente, pocos registros sobreviven de las ciudades-estado fenicias, incluida Cartago. Las fuentes sobre la exploración y la ciencia fenicias son escritores griegos y romanos.

Fuente: Wikimedia Commons

Heródoto, escribiendo a mediados del siglo V a.e.c., describió en detalle a los pueblos del antiguo Oriente Próximo, registrando historias que había escuchado sobre los fenicios. Le dijeron, por ejemplo, que cuando el rey persa Jerjes marchaba contra los griegos en el 480 a.e.c., ordenó a los fenicios que construyeran un puente a través del Helesponto (el estrecho de los Dardanelos), el estrecho que separa Asia de Europa. Los constructores de puentes fenicios atravesaron el estrecho amarrando barcos juntos, uno al lado del otro, con gruesas cuerdas hechas de lino; finalmente colocaron enormes tablones a las cubiertas de los barcos que permitieron el paso de cientos de miles de tropas persas, la marabunta de servidores y comerciantes que seguía al ejército y todos los animales asociados a ambos grupos.

El mundo según Heródoto. Fuente: Wikimedia Commons

Heródoto también describió una de las más grandes expediciones de exploración de todos los tiempos. La conoció gracias a los egipcios, cuando viajó a Egipto para investigar para su libro. El faraón Necao II había ordenado, alrededor del año 600 a.e.c., a los marineros fenicios que descubrieran la extensión y la naturaleza de África, llamada por los griegos Libia. En el libro 4 de Historias, Heródoto narra el viaje de los fenicios, quienes zarparon desde el extremo norte del Mar Rojo, salieron al Océano Índico y prosiguieron a lo largo de la costa oriental de África. Sus pequeños barcos de madera eran lo suficientemente marineros como para navegar por las aguas someras cercanas a la costa. Heródoto afirma que haciendo gala de una excelente planificación y paciencia, hacían puerto al entrar el otoño, sembraban semillas, esperaban, exploraban y cazaban, recogían la cosecha y luego continuaban el viaje descansados, con la primavera bien entrada y bien provistos de alimentos. Emplearon más de dos años en hacer el viaje, durante el cual observaron y registraron sus hallazgos. Tras circunnavegar el continente, rodeando el Cabo de Buena Esperanza navegando de este a oeste, entraron en aguas del Atlántico y navegaron por la costa de África hasta el golfo de Guinea. Luego rodearon el cuerno de África, luchando contra los vientos y las corrientes contrarias, hasta llegar finalmente a los Pilares de Heracles y al Mediterráneo.

Una vez de regreso al río Nilo, informaron a Necao de un extraño fenómeno. Navegando hacia el oeste desde el océano Índico al Atlántico, rodeando el Cabo de Buena Esperanza, veían el sol en el lado de babor (a la derecha del sentido de avance) de sus barcos. Cuando Heródoto escuchó esto, se mostró incrédulo, sabiendo por su experiencia que los barcos que navegaban hacia el oeste en el Mediterráneo siempre tenían el sol a estribor (a la izquierda). De todos modos, registró la dudosa historia, proporcionando así a los observadores posteriores una clara evidencia de que los fenicios habían cruzado el Trópico de Capricornio hacia el hemisferio sur, donde para los viajeros que van de este a oeste, los rayos del sol siempre están hacia el norte.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los fenicios fueron los primeros en circunnavegar África hace más de 2500 años se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Hace 16 años ya: el hundimiento del Prestige
  2. Flores en su tumba, hace 16.000 años
  3. Técnicas artísticas de hace 40.000 años
Categorías: Zientzia

15 años con el planeta enano Plutón

Lun, 2021/08/30 - 11:59

Carlos de la Fuente Marcos

Tras intensos debates en la comunidad astronómica mundial y a pesar de las protestas de muchos aficionados, el 24 de agosto de 2006 Plutón dejó de ser un planeta y pasó oficialmente a ser un planeta enano. Mientras se acaba de zanjar la polémica, este cautivador mundo helado se ha convertido en la primera etapa de una nueva época de descubrimientos en los confines del sistema solar.

Imagen de Plutón captada por la nave New Horizons de la NASA cuando pasó cerca de este planeta enano en julio de 2015. Fuente: NASA/JHUAPL/SwRI

Hace casi un siglo, el 14 de marzo de 1930, periódicos de todo el mundo se hacían eco del descubrimiento de Plutón con titulares como este: “Descubierto el noveno planeta al borde del sistema solar: el primero encontrado en los últimos 84 años”.

Su clasificación como planeta se mantuvo durante décadas, pero justo hace ahora 15 años, el 24 de agosto de 2006, pierde ese estatus y pasa a ser clasificado como ‘planeta enano’, tras un encendido debate en la XXVI Asamblea General de la Unión Astronómica Internacional (UAI) celebrada en Praga (República Checa) y la subsiguiente votación: 237 votos a favor del cambio, 157 en contra y 17 abstenciones.

Pocos acontecimientos han dividido tanto a la comunidad astronómica mundial, tanto aficionada como profesional, como la reclasificación de Plutón. Sin embargo, este tipo de reclasificaciones de objetos una vez que se ha comprendido mejor su naturaleza no es ajena a la historia de la propia astronomía.

Ahí está el caso de Ceres. Cuando Giuseppe Piazzi anunció su descubrimiento el 24 de enero de 1801, los únicos objetos del sistema solar conocidos eran los ocho planetas, algunas de sus lunas y los cometas. Lógicamente y tras calcularse su órbita con una precisión razonable, Ceres fue clasificado en principio como planeta.

Asteroides y planetas menores

Pero los años pasaron y aunque los libros y otros materiales educativos seguían hablando del planeta Ceres, la comunidad astronómica continuó encontrando objetos con propiedades similares. Herschel acuñó el término ‘asteroide’en 1802 para referirse a ellos, el almanaque británico The Nautical Almanac and Astronomical Ephemeris comenzó a denominarles ‘planetas menores’ en 1841, y el Observatorio Naval de EEUU como ‘pequeños planetas’ en 1868.

Las palabras asteroide y planeta menor fueron aceptadas rápidamente por la comunidad astronómica y las designaciones estándar (1 Ceres, 2 Palas, 3 Juno, etc.) para los asteroides fueron adoptadas en 1851.

No fue necesario realizar una votación oficial para reclasificar a Ceres. El tiempo y la ausencia de una directriz oficial posibilitaron una transición paulatina y sin traumas.

A medida que se produjeron nuevos descubrimientos, la comunidad astronómica comprendió que estos eran fundamentalmente distintos de los planetas conocidos y dejó paulatinamente de referirse a ellos como planetas, comenzando a llamarles asteroides, planetas menores o cuerpos menores, aunque esta última acepción también incluye a los cometas.

De hecho, es poco habitual encontrar en publicaciones del siglo XX referencias a Ceres o a alguno de los asteroides del cinturón principal como planetas. El caso de Plutón guarda cierto paralelismo con el de Ceres, aunque el primero haya sido reclasificado oficialmente.

Unos años antes, el 30 de agosto de 1992, David C. Jewitt y Jane X. Luu observando desde el observatorio de Mauna Kea en Hawái (EE UU) descubrieron 15760 Albion, cuya designación provisional fue 1992 QB1. Era la primera vez que se descubría un objeto tan distante como Plutón y la prensa no tardó en referirse a él como el décimo planeta.

Pero poco duró: cientos de los llamados objetos transneptunianos fueron descubiertos entre 1992 y 2006, cuando la UAI decidió reclasificar a Plutón. Algunos tienen órbitas similares a la suya, otros se mueven en trayectorias mucho más excéntricas y distantes.

Varios de los objetos transneptunianos descubiertos, en concreto Eris (cuyo estudio condujo al ‘destierro’ de Plutón como planeta), Makemake y Haumea, rivalizan en tamaño con Plutón o lo superan. Junto a Ceres, son los cinco planetas enanos.

Comparación aproximada de tamaños de los planetas enanos Plutón (con su satélite Caronte), Haumea, Eris, Makemake y Ceres respecto a la Tierra y la Luna. Fuente: NASA, ESA, JPL, A. Feild (STScI)

Plutón había dejado de ser un objeto único, peculiar o especial. Como Ceres, para muchos ahora estaba claro que es fundamentalmente diferente de los ocho planetas clásicos, aunque haya sido también visitado por nuestras sondas espaciales. En concreto, por la nave New Horizons de la NASA, que el 14 de julio de 2015 se aproximó a una distancia de 12.500 km de Plutón.

Sin embargo, su naturaleza misteriosa había cautivado durante décadas la imaginación tanto del público en general como de sectores de la comunidad astronómica. Un cambio drástico como el que se votó aquel 24 de agosto de 2006 tenía que ser necesariamente polémico y suscitar reacciones encontradas.

Pasar página a una controversia que sigue

Desafortunadamente, la controversia asociada a la decisión de reclasificar a Plutón como planeta enano todavía persiste quince años después. Quizás ya es hora de mirar hacia adelante y dejar de lado controversias improductivas. En su momento, Plutón representó el salto de una barrera, la de las 30 unidades astronómicas o UA (1 UA es la distancia media entre la Tierra y el Sol, y 30 es la distancia media entre Neptuno y el Sol).

Pero los nuevos descubrimientos nos han llevado mucho más allá, abriéndonos horizontes previamente inexplorados, despejando viejas incógnitas y trayéndonos infinidad de nuevas cuestiones a resolver.

La controversia de Plutón ha restado brillo al reciente cruce de una nueva barrera, la de las 100 UA que define de forma aproximada el denominado frente de choque de terminación y la heliopausa o frontera que separa el viento solar del medio interestelar.

El 17 de diciembre de 2018 se anunció el descubrimiento de 2018 VG18 o FarOut, el primero objeto del sistema solar encontrado a una distancia más allá de 100 UA. Lo encontraron los astrónomos estadounidenses Scott S. Sheppard, David J. Tholen y Chadwick Trujillo a casi 124 UA de la Tierra.

Pero afortunadamente las buenas noticias no acaban aquí. El 10 de febrero de 2021, el mismo equipo anunció el descubrimiento de un objeto aún más lejano: 2018 AG37 (apodado Farfarout), situado a más de 132 UA.

La ventana de las 100 UA ya está abierta y la comunidad astronómica está lista para empezar a explorarla. Los astrónomos Malena Rice y Gregory Laughlin de la Universidad de Yale (EE UU) anunciaron en diciembre de 2020 el descubrimiento, con el telescopio espacial TESS, de ocho objetos situados a más de 100 UA, incluyendo un candidato localizado a más de 200 UA.

¿Nuevos planetas en el sistema solar?

Pero esto puede ser sólo el principio. El Atacama Cosmology Telescope (ACT) ha observado en microondas varios objetos candidatos situados a distancias de entre 300 UA y 2000 UA. La colaboración encabezada por Sigurd Naess cree que alguno de ellos podría corresponder a un cuerpo celeste con una masa igual o superior a las cinco masas terrestres; es decir, se trataría de un planeta propiamente dicho, pero de menor masa que Urano y Neptuno.

La confirmación y el eventual estudio de objetos tan remotos como estos necesitan de los mayores telescopios disponibles, como el Gran Telescopio Canarias (GTC) de 10,4 metros de diámetro, actualmente el mayor telescopio óptico operativo completamente orientable.

GTC ha sido capaz de observar 2018 VG18 y 2018 AG37 y ha comenzado un sondeo para intentar recuperar los candidatos anunciados por la colaboración ACT y quizás otros nuevos. Las primeras observaciones ya han sido realizadas y el análisis de los datos está en curso. Se esperan resultados preliminares antes de que acabe el año.

El descubrimiento de Plutón fue solo el principio, gracias a disponer de telescopios de mayor tamaño y de mejor tecnología ahora podemos ir mucho más allá. Probablemente surgirán nuevas controversias científicas, pero la exploración del sistema solar más distante, que comenzó con el hallazgo de Plutón, sin duda nos va a deparar grandes descubrimientos en los próximos años.

Diferencia entre planeta y planeta enano

En la misma asamblea de 2006 donde la UAI acordó que Plutón es un planeta enano, se definió planeta como un cuerpo celeste que (a) está en órbita alrededor del Sol, (b) tiene suficiente masa para que su autogravedad supere las fuerzas del cuerpo rígido, de modo que asume una forma de equilibrio hidrostático casi redonda, y (c) ha despejado [de objetos] la vecindad alrededor de su órbita.

En el caso de los planetas enanos coinciden los puntos (a) y (b), aunque respecto a que deben ser aproximadamente esféricos, alguno como Haumea es más bien elipsoidal. Pero en lo que son diferentes es en la (c), ya que los planetas enanos no han limpiado la vecindad alrededor de su órbita, es decir, puede tener objetos de similar tamaño en órbitas relativamente cercanas. En los planetas, no.

Por ejemplo, coorbitando con la Tierra se mueven los Arjunas, un tipo de objetos cercanos con período orbital en torno al Sol virtualmente idéntico al de nuestro planeta. Puede que haya cientos o incluso miles de ellos. Sin embargo, los Arjunas más grandes tienen tamaños del orden del kilómetro, miles de veces más pequeños que nuestro planeta.

Sin embargo, en el caso de los objetos del cinturón de Kuiper, hay varios con tamaños similares al de Plutón.

Sobre el autor: Carlos de la Fuente Marcos es astrónomo de la Universidad Complutense de Madrid (UCM), especialista en objetos transneptunianos.

Este artículo se publicó originalmente en SINC. Artículo original.

El artículo 15 años con el planeta enano Plutón se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El planeta enano Haumea tiene anillo
  2. #Naukas15 El año que descubrimos Plutón
  3. Planeta océano: el corazón líquido que nos mantiene vivos
Categorías: Zientzia

El velo de la ignorancia en mangostas

Dom, 2021/08/29 - 11:59
Fuente: Wikimedia Commons

Las mangostas rayadas, Mungos mungo, no crían a su propia progenie. En casi todos los grupos de la especie las hembras adultas dan a luz el mismo día. La sincronía viene de semanas atrás. Todas entran en celo alrededor del décimo día después de haber parido. Tras quedar preñadas de nuevo, las que completan la gestación dan a luz a sus crías en un cubil bajo tierra. Se forma así una especie de camada comunal compartida.

Esa ajustada sincronía parece eliminar las claves de la maternidad, los elementos que permiten identificar a las crías propias. Durante el primer mes de vida de las recién nacidas, las madres amamantan a unas y otras con independencia de si son suyas o no; es más, las crías maman de diferentes madres. Ahora bien, en las raras ocasiones en que sí hay claves de maternidad, como cuando no se sincroniza la reproducción de todo el grupo de madres, o cuando a las de más edad se les suministran anticonceptivos, unas hembras matan a las crías de las otras en vez de cuidar de ellas. Esto sugiere que esas claves no existen en las camadas comunales sincrónicas propias de condiciones normales.

Transcurrido el periodo en que las crías son amamantadas, salen de la hura y se asocian de forma biunívoca con adultos, sus escoltas, que pueden ser cualquier macho o hembra del grupo, con independencia del grado de parentesco que haya entre ellos. Cada escolta se ocupa de su cachorro, lo alimenta y protege hasta que, con unos noventa días de edad, es capaz de mantenerse por sí mismo. Tanto los escoltas como las crías contribuyen a mantener el vínculo entre ambos. El escolta reconoce de forma individual y responde preferentemente a las llamadas del cachorro al que cuida, y lo busca activamente si se separa o se pierde. Lo alimenta casi de manera exclusiva; el cachorro recibe casi todo el alimento de su escolta y le pide comida de forma continua.

Salvo en los insectos sociales, en las especies en que hay cuidado parental, los progenitores cuidan de sus propios descendientes. De esa manera son ellos y, con ellos, sus propios genes, los que tienen mayor probabilidad de perpetuar su linaje. En Mungos mungo no ocurre tal cosa.

En un experimento reciente con mangostas rayadas en que se suministró más alimento a un grupo de madres que a otras, se observó que las que contaban con más recursos alimentaban preferentemente a las crías de menor tamaño. Crecían de esa forma más que las otras, y acababan teniendo todas similar peso. Así pues, en esta especie las madres invierten los recursos para la crianza de manera que minimizan el riesgo de que su propia progenie se encuentre en posición de desventaja, en vez de hacerlo de manera que la privilegien. Y es la ignorancia acerca de la relación de parentesco la que permite que se produzca la redistribución de recursos que reduce las posibles desigualdades.

Hasta ahora, solo en nuestra especie sabíamos de la disposición a pagar un precio por atenuar desigualdades, aunque tales desigualdades pudieran favorecer a los individuos que lo pagan. Se favorece así la cooperación, porque cuando hay incertidumbre con respecto al retorno esperable del desempeño de diferentes roles sociales, el compartir de forma igualitaria los recursos asegura a quienes interaccionan frente al riesgo de encontrarse en posición de desventaja. Las mangostas se comportan de acuerdo con la lógica del “velo de la ignorancia” de John Rawls: al ignorar quiénes son sus crías, el trato que les dan tiende a eliminar las desigualdades entre ellas.

Fuente: Marshall, H.H., Johnstone, R.A., Thompson, F.J. et al. (2021): A veil of ignorance can promote fairness in a mammal society. Nat Commun 12, 3717.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El velo de la ignorancia en mangostas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La reacción de las madres al llanto de los bebés es universal
  2. Cuando se escoge la ignorancia
  3. La frontera de la ignorancia no deja de expandirse, por Juan Ignacio Pérez
Categorías: Zientzia

Infraestructuras para el retorno de la vida a la ría del Nervión

Sáb, 2021/08/28 - 11:59
En primer término la estación depuradora de aguas residuales (EDAR) de Galindo. Fuente: FYSEG

Bizkaia tuvo un enorme desarrollo económico, tecnológico y social en la segunda mitad del siglo el siglo XIX, y alcanzó su máximo esplendor a finales de ese siglo y a principios del siglo XX. Este desarrollo fue consecuencia de la confluencia de varios factores, entre los que se encontraba la explotación eficiente de los recursos minerales del territorio. La industrialización asociada en el entorno de la ría del Nervión supuso un impacto ecológico enorme en el que solo las especies animales muy resistentes a la contaminación podían subsistir. La recuperación de la ría supuso una decidida inversión en infraestructuras con la vista puesta en el largo plazo, que es nuestro hoy. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».

Edición realizada por César Tomé López

El artículo Infraestructuras para el retorno de la vida a la ría del Nervión se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Recuperación de fauna en la ría de Bilbao
  2. La ría de Bilbao como medio de transporte de mineral
  3. La Ría del Nervión a vista de ciencia y tecnología
Categorías: Zientzia

Alta velocidad: ineficiente, injusta e insostenible

Vie, 2021/08/27 - 11:59

David Hoyos, Andoni Kortazar y Gorka Bueno Mendieta

Un tren de alta velocidad a su paso por el viaducto de Roden (Zaragoza). Foto: Shutterstock / pedrosala

 

En 2022 se cumplirán 30 años desde la puesta en marcha de la primera línea de alta velocidad en España, Madrid-Sevilla. Tras más de 56 000 millones de euros invertidos en la segunda red más extensa del mundo (3 086 km), los argumentos sociales, económicos y ambientales favorables al modelo español de alta velocidad ferroviaria se han desvanecido a la luz de la evidencia científica acumulada.

La emergencia climática no hace sino apuntalar el sinsentido del AVE y urge a repensar la política española de transportes con medidas concretas y creíbles, consistentes con los compromisos climáticos del Acuerdo de París.

Piedra angular de la movilidad sostenible

La Comisión Europea declaraba 2021 como el año europeo del ferrocarril. La promoción de modos más sostenibles de transporte ha sido una de las prioridades de la política europea desde finales del siglo pasado. El objetivo ha sido reconciliar un crecimiento imparable del transporte de pasajeros y mercancías con unos crecientes efectos perjudiciales para la sociedad, el medio ambiente e incluso la propia economía.

El ferrocarril, central en esta nueva política de transporte, ha adquirido un protagonismo especial en el caso español en forma de inversiones masivas en alta velocidad ferroviaria.

Paradójicamente, entre 1990 y 2018, la cuota modal del ferrocarril ha bajado del 7 % al 6 % en el transporte de pasajeros y del 10 % al 4 % en lo que se refiere al transporte de mercancías. No es de extrañar que en el periodo de vigencia del Protocolo de Kyoto, el transporte es el único sector que ha aumentado sus emisiones de gases de efecto invernadero (GEI) (+73 %), representando en la actualidad un 31 % del total.

Ineficiente en lo económico e injusta en lo social

La evaluación económica del modelo ferroviario de alta velocidad español ha concluido en la ausencia de rentabilidad financiera y social de todos los corredores. En otras palabras, la sociedad nunca recuperará el dinero invertido.

Detrás de estos resultados se encuentra una escasa demanda fruto de una planificación deficiente y alejada de las necesidades sociales y unas inversiones caracterizadas por permanentes retrasos, sobrecostes y corrupción –como han reflejado diversos informes de los tribunales de cuentas europeo y español–. Todo ello convierte a ADIF-Alta Velocidad en la empresa pública más endeudada del Estado.

Los promotores de este modelo ferroviario destacan la necesidad de culminar una red mallada en todo el Estado para mejorar su utilidad. Sin embargo, los estudios realizados concluyen que la rentabilidad social es aún menor en la medida en que se conectan núcleos con menor demanda potencial de pasajeros.

Desde el punto de vista social, la escasa demanda obedece a la inexistencia de una disposición a pagar alta velocidad por parte de los usuarios (que apenas alcanza a cubrir los costes variables del servicio). Esto se traduce en una regresividad de la inversión.

El AVE tampoco ha demostrado favorecer el desarrollo regional ni cambios en productividad. Sus mayores efectos se reducen a la propia construcción y a la reorganización (especulación) urbana en torno a las estaciones.

Otra de las consecuencias de las masivas inversiones en alta velocidad ha sido el abandono de la red española de cercanías. Esta da servicio al 90 % de los usuarios del ferrocarril en España y atiende fundamentalmente a la movilidad obligada.

Insostenible en lo ambiental

Dejando a un lado importantes efectos ambientales negativos, como la ocupación de suelo, el efecto barrera, el impacto paisajístico o la contaminación acústica y atmosférica, el debate sobre el carácter ecológico del tren de alta velocidad se ha centrado en el balance de emisiones de gases de efecto invernadero debido, lógicamente, a su implicación en el cambio climático.

Los defensores del tren de alta velocidad han argumentado, con razón, que dadas sus menores emisiones por persona/mercancía transportada, desviar tráficos desde la carretera y el avión hacia el ferrocarril de alta velocidad era beneficioso para el medio ambiente.

Sin embargo, estos análisis han contado con una carencia fundamental: obviar la contabilidad de las emisiones asociadas a la construcción de estas infraestructuras. Ninguna familia valoraría, por ejemplo, sustituir un electrodoméstico por otro de mayor eficiencia energética sin tener en cuenta el coste del nuevo electrodoméstico.

El análisis de ciclo de vida es vital en este contexto. La amenaza del cambio climático alienta numerosas propuestas de energías “limpias” que, tras ser debidamente analizadas, acaban teniendo un balance neto incluso negativo. Se ha visto recientemente, por ejemplo, en el caso del hidrógeno azul.

Según los resultados de nuestro reciente estudio, el primero –del que tengamos conocimiento– que ha intentado abordar este análisis en el marco de las publicaciones académicas, el balance medioambiental neto del conjunto de la red española de alta velocidad es, sin ser perjudicial, considerablemente más pobre de lo que se pensaba.

Teniendo como referencia el año 2016 (últimos datos disponibles), la red española de alta velocidad requiere una media de 15 años de funcionamiento para compensar las emisiones GEI asociadas a su construcción (hasta 62 y 87 años en lo que se refiere a emisiones de SO₂ y partículas PM₁₀ respectivamente). No obstante, encontramos diferencias notables entre los corredores: 9 años en el corredor andaluz, 12 en el catalán, 20 en el corredor levantino y 79 en el caso del corredor norte.

Al igual que ocurría con la evaluación económica, el factor más influyente en estos pobres resultados es la baja densidad de transporte, la escasa desviación de viajeros de modos más contaminantes como el automóvil o el avión y el hecho de ser una red exclusiva de pasajeros, dejando fuera el transporte de mercancías que se realiza casi exclusivamente por carretera.

El estudio constata, además, que los resultados empeoran a medida que la red se expande a corredores con menor demanda de transporte.

El problema, sin embargo, no es solo que algunos corredores no estén justificados. Una vez ponemos en su contexto los resultados del balance climático de la red española de alta velocidad, nos encontramos con que apenas contribuye a reducir un 1 % las emisiones anuales totales de transporte en España.

El AVE ante la emergencia climática

Todo lo anterior debería haber servido para alentar un debate en torno a la inversión en alta velocidad ferroviaria en España hace 20 o 30 años. Habría permitido abandonar unas inversiones que se han demostrado beneficiosas para las empresas constructoras y perjudiciales para el resto de la sociedad.

Sin embargo, el debate actual no es –o al menos, no debería ser– este. El debate actual nada tiene que ver con estar a favor o en contra del tren de alta velocidad como modo de transporte, ya que indudablemente tiene virtudes como su rapidez, comodidad y puntualidad.

El contexto ha cambiado radicalmente al encontrarnos en una situación inédita global de emergencia climática. La comunidad científica mundial ha hecho un llamamiento unánime a reducir drásticamente las emisiones de gases de efecto invernadero con el fin de limitar el aumento de la temperatura global a 1,5 grados. Una llamada a la acción que se está traduciendo en compromisos internacionales de reducción de emisiones cada vez más ambiciosos –neutralidad climática en 2050 y hasta un 55 % en 2030, en apenas 8 años–. “No hay plan B porque no hay planeta B”, decía recientemente Emmanuel Macron en el aniversario del Acuerdo de París.

Así, el debate necesario y urgente es en qué medida puede contribuir o no el AVE a la reducción drástica de emisiones comprometidas en París y que, a la luz de los resultados del último informe del IPCC, deberá ser aún mayor tras la Conferencia de Glasgow.

Y es en este contexto donde nos encontramos que el modelo ferroviario de alta velocidad no solo no es la solución, sino que la obstaculiza y nos hace perder un tiempo que no tenemos en la necesaria transición ecológica del transporte en España.The Conversation

Sobre los autores: David Hoyos es profesor agregado en el Departamento de Métodos Cuantitativos, Andoni Kortazar, profesor interino en el Departamento de Economía Aplicada V y Gorka Bueno Mendieta, profesor titular de Tecnología Electrónica de la Universidad del País Vasco/Euskal Herriko Unibertsitatea.

Este artículo fue publicado originalmente en The Conversation. Arículo original.

El artículo Alta velocidad: ineficiente, injusta e insostenible se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El impacto medioambiental del ciclo de vida del tren de alta velocidad en España
  2. Cómo regular la velocidad de disolución de los biometales de las prótesis
  3. Un equipo de alta fidelidad de ciencia ficción
Categorías: Zientzia

El error de usabilidad que definió la temperatura más alta de la Tierra

Jue, 2021/08/26 - 11:59
Foto: Jarosław Kwoczała / Unsplash

Si me preguntan a mí, la temperatura más alta de la historia debió de producirse el sábado pasado en el salón de mi casa. No tenía ningún termómetro a mano, pero según mis estimaciones, la sensación térmica durante la ola de calor en el centro de Madrid ascendió a los 74,3 ºC (74,5 ºC cuando el ventilador apuntaba para otro lado).

Los climatólogos, en cambio, tienen su propia versión de los hechos. Según sus registros históricos, la temperatura más alta de la Tierra jamás anotada por un ser humano ascendió a 58 grados centígrados. Esta fue la cifra que nos legó un soldado italiano durante un tórrido verano en el desierto de Libia, en 1922. Sin, embargo no está exenta de polémica. Existen varias inconsistencias en estos registros que parecen apuntar a un error. Concretamente, a un error de usabilidad de su termómetro.

Pero pongámonos en contexto. Estamos en 1922. Imagina que eres un soldado destinado en la región de Al Azizia, cerca de Trípoli. En algún momento, te han dado instrucciones para apuntar diariamente lo que marca el termómetro, pero probablemente no te han explicado muy bien cómo hacerlo ni tampoco para qué. Y ahí estás tú, sudando como un pollo, viendo hincharse una barrita de Mercurio en medio del desierto africano.

Probablemente, la sensación térmica de ese soldado debió de parecerse bastante a la de mi piso de Madrid. Se le derretía el alma y la mollera, y él ni siquiera contaba con un triste ventilador. Aún así, tuvo la paciencia de fijarse en el termómetro cada día y fue anotando sus numeritos: 50, 56, 58, 53, 53… da calor solo de leerlo. Difícilmente podía saber que sus anotaciones pasarían a definir en el récord de temperatura registrada sobre la Tierra durante un total de 90 años.

Parte de la hoja de observación meteorológica original de El Azizia, septiembre de 1922. Fuente

 

Los apuntes de aquel soldado nos permiten rastrear las huellas de su posible error. Dos días antes del 13 de septiembre (el día en que se batió el récord), la caligrafía de los registros cambia. Resulta evidente que entra en escena un nuevo apuntador. El mismo día el orden de todos los datos se invierte: la temperatura máxima pasa a estar en la columna de la izquierda, la mínima a la derecha. Claramente, nuestro héroe no estaba prestando mucha atención. ¿Pero es posible que se confundiese, también, al interpretar su aparato de medición?

Esta es la hipótesis que defienden los autores de un estudio publicado hace algunos años por la Organización Meteorológica Mundial (OMM)1. Durante 2010 y 2011, un panel internacional de expertos llevó a cabo una investigación en profundidad sobre este récord en los registros y concluyó que no podían darse por buenos. Las mediciones de aquel soldado no solo son incoherentes con las registradas en otras estaciones cercanas. Tampoco pueden compararse con los valores de temperatura observados posteriormente en el mismo lugar, y constituirían un microclima impropio de la región. Pero además, parece que el propio termómetro podría haber jugado un papel en aquel error. Se trataba de un modelo Bellani-six, con dos masas flotantes sobre dos columnas de fluido. Al contraerse o dilatarse, el fluido empujaba las masas, que se superponían sobre una escala e indicaban la temperatura máxima y mínima del aire durante el día. Pero aquellas masillas eran bastante alargadas y era importante saber que la temperatura debía medirse en su punto más bajo (esto es, inmediatamente, encima de la columna de fluido).

Si aquel soldado italiano, por inexperiencia o por falta de atención, hubiese anotado la temperatura que figuraba encima de la masa del termómetro, todas sus mediciones habrían resultado anormalmente altas, como de hecho sucede. Un error que recuerda poderosamente al de cierto compositor europeo, que se aceleró, quizás, al anotar los tempi de sus sinfonías2.

En 2012 y tras concluir su estudio, la Organización Meteorológica Mundial decidió descartar los registros de Al-Haziza de 1922. Desde entonces, la temperatura más alta registrada en la Tierra ha descendido 1,3 ºC. El 7 de julio de 1913, en el Valle de la Muerte de Estados Unidos, California, algún desdichado con el cerebro achicharrado anotó una temperatura de 56,7 ºC (esperamos que con algo más de acierto, aunque tampoco está del todo claro).

Referencias:

1K.I, El & Cerveny, R.s & Burt, Christopher & Eden, Philip & Parker, David & Brunet, Manola & Peterson, Thomas & Mordacchini, Gianpaolo & Pelino, Vinicio & Bessemoulin, Pierre & Stella, José & Driouech, Fatima & M.M, Abdel & Pace, Matthew. (2013). World Meteorological Organization Assessment of the Purported World Record 58°C Temperature Extreme at El Azizia, Libya (13 September 1922). Bulletin of the American Meteorological Society. 94. 199-204. 10.1175/BAMS-D-12-00093.1.

2Martín-Castro A., Ucar I. (2020). Conductors’ tempo choices shed light over Beethoven’s metronome. PLOS ONE 15 (12) : e0243616. doi: 10.1371/journal.pone.0243616

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El error de usabilidad que definió la temperatura más alta de la Tierra se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El misterio de la temperatura constante
  2. Un equipo de alta fidelidad de ciencia ficción
  3. Escaneando la Tierra con neutrinos solares
Categorías: Zientzia

Siempre es buen momento para jugar: Pong Hau Ki y Madelinette

Mié, 2021/08/25 - 11:59

 

Había pensado empezar esta entrada del Cuaderno de Cultura Científica diciendo que el verano es un buen momento para jugar a cualquier tipo de juego, ya sea un juego popular, de ingenio, de estrategia, de azar, de construcción, solitario, matemático o del tipo que sea, aunque la verdad es que cualquier época del año es un buen momento para jugar. No nos olvidemos nunca de jugar.

En otras entradas de la sección Matemoción ya hemos hablado de algunos juegos, como el molino o alquerque de nueve (en la entrada Mujeres jugando (el juego del molino) relacionada con un cuadro del Museo de Bellas Artes de Bilbao), el tangram (por ejemplo, en las entradas Tangram o Un teorema sobre el tangram), el tchuka ruma (en la entrada Tchuka Ruma, el mancala solitario), el juego coreano kono (en la entrada El juego coreano kono), …

El juego koreano Kono

 

… el salto de la rana, el cinco por cinco, veinticuatro, o el puzle dieciséis inglés (en El salto de la rana y familia), el juego Vee-21 (en la entrada Embaldosando con L-triominós (Un ejemplo de demostración por inducción)), el clásico y universal mancala (en Juegos del mundo: el mancala), el Tetris (en Tetris, embaldosados y demostraciones), algunos juegos con tabletas de chocolate (como los comentados en la entrada Juegos matemáticos con tabletas de chocolate), el rompecabezas geométrico cubo soma (en El cubo soma: diseño, arte y matemáticas), el juego de cartas SET (cuyo análisis matemático presentamos en dos entradas, Matemáticas en el juego de cartas SET (1) y Matemáticas en el juego de cartas SET (2)), el juego probabilístico que analizó el matemático inglés Arthur Cayley, la ratonera (explicado en la entrada La ratonera, el juego de Cayley), el Sim (en El juego del Sim), el solitario locura instantánea (en la entrada Locura instantánea, un rompecabezas con cubos de colores), el tradicional juego de la morra (en La morra, jugando a contar con los dedos), algunos rompecabezas matemáticos (en las entradas Rompecabezas matemáticos con números y Más rompecabezas matemáticos con números) o el margarita y el bloqueado (analizados en la entrada La simetría como estrategia ganadora: la margarita y bloqueado).

En esta entrada del Cuaderno de Cultura Científica me ha parecido una buena idea recuperar un juego tradicional, estos son siempre una fuente de inspiración y de entretenimiento, que analicé en el libro Del ajedrez a los grafos, la seriedad matemática de los juegos (RBA, 2015), el pong hau ki.

Tablero del Pong Hau Ki

 

El pong hau ki es un juego tradicional chino, que también encontramos en Corea, con el nombre ou moul ko no, en Tailandia como sua tok tong o en la India como do guti, cuyo tablero y forma de juego nos recuerda al clásico tres en raya. En Europa no se empezó a jugar hasta más recientemente, quizás en la época medieval, con el nombre la herradura, así como una variación más moderna de este, el madelinette.

El tablero del pong hau ki está formado por cinco vértices, los cuatro de un cuadrado y el dado por la intersección de las dos diagonales del mismo, y siete aristas que los unen, todas las posibles, menos uno de los lados del cuadrado (véase la imagen de arriba o el esquema de abajo). Hay dos fichas de cada color (por ejemplo, blancas y negras), colocadas inicialmente como se muestra en la siguiente imagen, y cada color le corresponde a un jugador.

Tablero del Pong Hau Ki, con las dos fichas blancas y negras en la posición inicial del juego

 

Las reglas del pong hau ki son las siguientes. Cada uno de los dos jugadores, por turnos, mueve una ficha de su color hacia la casilla adyacente que esté vacía. Por ejemplo, en la posición inicial, tanto las blancas como las negras, si empiezan la partida, solo pueden mover una de sus fichas a la casilla central. Gana el jugador que consigue bloquear las dos fichas de su oponente, de forma que este no pueda mover a la casilla libre.

Se considera que este es un juego infantil por su sencillez, como ocurre con el tres en raya o el salto de la rana, pero al igual que estos, tiene más interés del que pueda parecer a primera vista.

Empecemos analizando cuál es el número de posiciones posibles en el juego ou moul ko no. Tenemos cuatro fichas que debemos colocar en el tablero y dejar un hueco vacío. Si todas las fichas fuesen distintas (por ejemplo, las denominamos blanca 1, blanca 2, negra 1 y negra 2) y marcásemos la casilla vacía con una ficha trasparente, entonces el número de formas de colocar las cinco fichas en las cinco casillas sería el factorial de 5, denotado en matemáticas como 5!, cuyo valor es 5! = 5 x 4 x 3 x 2 x 1 y que son el número de permutaciones de cinco elementos (véase El problema matemático de las cartas extraviadas). Sin embargo, las dos fichas blancas son iguales, luego podemos intercambiar las casillas en las que están y sigue siendo la misma posición, luego debemos dividir entre dos. Lo mismo para las fichas negras. De hecho, hemos obtenido la regla para calcular las permutaciones con repetición. En consecuencia, hay 30 posiciones distintas en el juego, ya que:

Por otra parte, si miramos la simetría respecto al eje vertical central del tablero, hay dos posiciones que son simétricas respecto a ese eje, es decir, la parte de la izquierda de la posición es igual a la parte de la derecha (que se corresponden con las posiciones 1 y 9 de la siguiente imagen), y catorce pares de posiciones relacionadas, esto es, al intercambiar las fichas de un lado y otro del eje se pasa de una posición a la otra (por ejemplo, la posición 2 de la siguiente imagen –las dos fichas negras abajo, una ficha blanca en medio y una ficha blanca en la posición de arriba a la derecha– se corresponde con la posición simétrica siguiente: las dos fichas negras abajo, una ficha blanca en medio y una ficha blanca en la posición de arriba a la izquierda). Luego, esencialmente tenemos que hay 16 posiciones distintas (salvo simetría) en el sua tok tong.

Si numeramos las casillas del 1 al 5, de arriba abajo y de izquierda a derecha, y etiquetamos cada posición diciendo qué ficha está en cada casilla (B para blanca, N para negra y 0 para vacía), por ejemplo, BN0NB es la posición inicial, podemos listar las 16 posiciones del juego.

Las dieciséis posiciones posibles, salvo isometría, del Pong Hau Ki

 

El matemático Philip D. Straffin, en su artículo Position graphs for Pong Hau K’i and Mu Torere (Mathematics Magazine, 1995), analizó mediante grafos (véase Locura instantánea, un rompecabezas con cubos de colores o El problema de los tres caballeros y los tres criados), la estrategia ganadora del Pong Hau Ki. Cada una de las dieciséis posiciones del juego es un vértice del grafo y existe una arista entre dos vértices si es posible realizar un movimiento que lleve de una posición a otra. El grafo es además etiquetado, puesto que cada arista llevará la etiqueta B o N, dependiendo de si el movimiento lo realiza el jugador que juega con blancas, o el que juega con negras. El grafo no es dirigido puesto que el movimiento entre dos posiciones puede ser en ambos sentidos.

En consecuencia, el grafo asociado a la herradura, teniendo en cuenta las dieciséis posiciones esenciales del mismo, es el siguiente.

Solo existe una posición ganadora para las blancas, si les toca mover a las negras, que es la posición 15, 0BBNN. Lo mismo para las negras, si mueven blancas, la posición 13, 0NNBB (vemos que es la misma configuración, solo se intercambia la posición de las casillas de las fichas blancas y negras). Para que las blancas lleven la partida a la posición 15, tienen que hacerlo a través de las posiciones 14 o 16, sin embargo, las negras pueden evitar esas posiciones. Lo mismo ocurre para las negras, en relación a la posición 13. De hecho, el juego, bien jugado, se mantendrá en un movimiento infinito entre los ciclos 1-2-3-4-5-6 y 4-11-10-9-8-7. Lo cual implica que el pong hau ki siempre terminará en tablas, salvo que se cometa un error, como ocurre con el tres en raya.

Una forma alternativa de jugar a la herradura, para darle un poco más de interés, es que el tablero esté inicialmente vacío y que los jugadores empiecen colocando por turnos cada una de sus fichas en el mismo. Si observamos el grafo anterior, la táctica para no perder es la misma que partiendo de la posición inicial dada (posición 1), solo que ahora hay que evitar las posiciones conflictivas al ir colocando las fichas al principio. Si empiezan las blancas, las negras evitarán las posiciones en las que tocándole mover a las blancas ganen, que son las posiciones 14 y 16, y las blancas evitarán la posición 13, que es la posición ganadora para las negras si mueven blancas (o, en ambos casos, sus posiciones simétricas).

Tablero y posición inicial del juego conocido como el mandelinette

 

El madelinette es una versión más compleja e interesante del juego de la herradura, que podría haber sido inventada por el militar y matemático aficionado francés Henri August Delannoy (1833-1915). El madelinette se juega con tres fichas de cada color y al tablero se le añade el segmento horizontal que pasa por el centro, obteniéndose así un total de siete casillas (como se muestra en la imagen anterior). Según el matemático francés Édouard Lucas (1842-1891), en sus Recreaciones matemáticas, las posiciones ganadoras, perdedoras y de tablas de los juegos la herradura y el madelinette fueron estudiadas por Henri Delannoy.

El madelinette se puede jugar a partir de la posición inicial que aparece en la anterior imagen, o con el tablero vacío, y el objetivo es de nuevo bloquear las fichas del jugador contrario.

Con un argumento similar al del juego pong hau ki se obtiene que el número de posiciones distintas del madelinette es

que dan lugar a 70 parejas de posiciones simétricas, una de la otra, respecto al eje vertical central.

Si pintásemos el grafo etiquetado asociado a este juego, resulta ser más complejo que el del pong hau ki, puesto que de cada posición (vértice del grafo) podemos pasar mediante un movimiento a más posiciones que antes. Por ejemplo, si empezasen moviendo las fichas negras, de la posición inicial se podría pasar a una de las siguientes tres posiciones siguientes. Además, aunque en la primera posición las blancas solo tendrían un movimiento posible, en las otras dos posiciones existirían dos opciones de movimiento.

Delannoy estudió qué posiciones son ganadoras, perdedoras o que terminan en tablas, jugando bien, suponiendo que mueven blancas (un razonamiento simétrico se obtiene si mueven negras). De las 70 posiciones diferentes (salvo simetría) hay 21 ganadoras para las blancas, 12 para las negras y 37 que serán empates.

A continuación, como ejemplo mostramos tres posiciones, una ganadora para las blancas, otra ganadora para las negras y otra que termina en empate, suponiendo que mueven blancas:

Al contrario que en la herradura, aquí hay más posiciones ganadoras para ambos colores, hay muchas más combinaciones y es fácil cometer fallos o despistes. Por eso mismo, el juego se hace más interesante.

Para terminar, lo que decimos siempre, lo mejor de un juego es jugar y disfrutarlo. Divertíos.

Bibliografía

1.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, El mundo es matemático, RBA, 2015.

2.- Philip D. Straffin, Position graphs for Pong Hau K’i and Mu Torere, Mathematics Magazine, vol. 68, n. 5, 1995.

3.- Édouard Lucas, Recreaciones Matemáticas, vol. 1 – 4, Nivola, 2007, 2008.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Siempre es buen momento para jugar: Pong Hau Ki y Madelinette se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Adivinando o empleando la lógica?
  2. Ajedrez y matemáticas: el problema de Guarini
  3. En el lugar correcto en el momento adecuado
Categorías: Zientzia

Los mitos como protociencia

Mar, 2021/08/24 - 11:59
Apolo, Zeus y Hera. Fuente: Wikimedia Commons

Los mitos son una expresión de la existencia de la especie, un espejo en constante cambio de las percepciones de la condición humana. Los mitos se basan en un pasado real impreciso en el tiempo, una realidad del comportamiento humano que trasciende un tiempo y un lugar determinados. La ciencia también tiene estos atributos. La estrecha asociación entre el mito y la ciencia se ve claramente cuando se considera la ciencia antigua. Los antiguos lucharon por explicar el entorno natural y su propia humanidad con respecto a lo divino. Las explicaciones iniciales incorporaron dioses y héroes, sucesos fantásticos y acontecimientos dignos de ser recordados. Debajo de lo fantástico y lo extraordinario de la tradición oral, los poemas cantados por el antiguo bardo, existía un verdadero intento de comprender y describir la naturaleza y al propio ser humano.

La antigua civilización sumeria fue el resultado de la organización, el trabajo y la ingeniería de los diques y canales que controlaban los ríos Tigris y el Éufrates, muy propensos a las inundaciones, y que irrigaban la tierra reseca durante la estación seca. La cultura sumeria se basa en última instancia en al agua y sus usos. La epopeya sumeria de la creación, Enûma Elish, describe a Apsu, la personificación deificada de las aguas originales de la creación; a Adad, la de las tormentas; a Ea, la de las aguas; a Ennugi, la del riego; Ningirsu, la de la fertilidad del suelo regado; a Ninurta, la de los de pozos de agua dulce.

Los sumerios está clero que pensaban mucho en el agua. La lluvia y el agua del río daban lugar a abundantes cosechas, vigiladas por Nisaba, la diosa de las cosechas. Ninhursag, la diosa madre, también supervisaba todas las plantas y animales o, lo que es equivalente, a todos los alimentos. Una vez que se recogían las cosechas, Shulpae se encargaba del éxito de los banquetes; Siduri aportaba lo suyo, como diosa del vino que era. Los milagros del agua, la comida, la abundancia, la bebida, los banquetes y los estómagos llenos tenían que ser explicados, y no era concebible otra que no fuese por la benevolencia de los dioses.

Serket protegiendo la caja de vasos canopos de Tutanjamón (Tutankamón). Fuente: Wikimedia Commons

Los egipcios, igualmente, dependían del clima, como todas las civilizaciones, pero especialmente del Nilo y sus inundaciones anuales, y del Sol siempre presente. El Sol era tan importante que se necesitaban varios dioses para compartir su poder: Amón, Ra (el sol al mediodía), Atón (el sol al mediodía), Atón (el disco solar), Jepri (el sol en el este), Atum (el sol en el oeste). También se necesitaban varias deidades para el Nilo, gobernando varias regiones de Egipto según la ubicación del propio Nilo (alto o bajo Egipto). Los dioses y diosas de la fertilidad se asociaban con frecuencia con el Nilo: Happi era el dios de las inundaciones del Nilo durante el verano. Nun y Nefertum eran deicaciones de las aguas del abismo que estuvieron presentes en la creación. Sobek, el dios cocodrilo, era el dios del pantano.

Los egipcios, dedicados a comprender la naturaleza de la que tanto dependían, adoraban a los dioses de la ciencia y el saber. Imhotep, quien supuestamente fue un constructor durante la era de las pirámides en el tercer milenio a. e. c., evolucionó hasta ser un dios de la curación y la magia. Serket era su contraparte femenina, la diosa de la curación. Seshat y Thoth eran las deidades de la erudición, de los escribas y de la sabiduría.

Prometeo (1868) de Gustave Moreau.  Fuente: Wikimedia Commons

Grecia es un paisaje de profundos valles, enormes crestas, bosques ocultos y montañas infranqueables. Los dioses de Grecia eran, por tanto, los de las montañas, los bosques, los ríos, la costa rocosa y las islas del Egeo y el Adriático. Se cree que antes de la llegada al poder de los griegos micénicos, los primeros griegos y la gente de Creta y las islas adoraban a las deidades de la naturaleza dominadas por las diosas de la fertilidad. Atenea, Afrodita, Hera, Artemisa, Hestia, Deméter y Rea fueron una vez, en el pasado mítico, los principales objetos de culto entre los griegos.

En un momento dado, el hijo de Rea, Zeus, dio un golpe de estado divino ocupando el lugar de su padre Cronos y llevando al poder también a sus hermanos Poseidón y Hades. Zeus gobernaba a través de la fuerza, a través del terrible rayo, que solo él controlaba, y que inspiraba terror tanto a dioses como a humanos. Poseidón personificó el mar; Hades se identificó tanto con su cometido que terminó convirtiéndose en él, el inframundo. Las diosas de la fertilidad perdieron poder o cambiaron de forma; por ejemplo, Atenea se convirtió en una virgen con apariencia de hombre; Hera se convirtió en una diosa malhumorada e impotente, siempre regañando a su hermano y esposo Zeus; Afrodita pasó a ser una diosa casquivana del amor que siempre metía a dioses y humanos en líos con la lujuria y el adulterio como fatores comunes; Deméter conservó su papel de diosa de la fertilidad del grano y de la agricultura.

Los poemas de Homero y de Hesíodo ilustran cómo los antiguos bardos personificaban los fenómenos naturales y humanos por medio de los dioses y diosas. Hesíodo explicó la presencia del mal mediante Pandora y su estúpido esposo Epimeteo, quien poseía el don de la retrospectiva pero no el de la previsión, que era la especialidad de su hermano Prometeo. Las mentiras y los robos se explican por la presencia de Hermes, experto en juegos de manos. Hesíodo, creyente en el recurrente concepto a través de los tiempos de que vivía en una época que encarnaba el declive de la cultura de «los buenos tiempos», argumentó que su época era una Edad de Hierro de maldad y desesperación, a diferencia de las edades anteriores de la humanidad: la Edad de Oro de los hombres que eran como dioses; la Edad de Plata, cuando Zeus castigó la arrogancia humana; la Edad del Bronce, cuando los humanos eran gigantes; y la Era Heroica, cuando existían héroes, descendiente de los dioses, pero destruida por la Guerra de Troya.

Los himnos homéricos y la Ilíada y la Odisea describen una cosmovisión totalmente antropomórfica. Los dioses y diosas se mezclan constantemente con los humanos, tanto que los humanos nunca están completamente seguros de quién es dios y quién es mortal. Quizás el extraño en la puerta sea un ser divino enviado para probar al ser mortal, une duda y preocupación recurrentes en los personajes de la Ilíada y la Odisea. Los dioses simbolizan la mente consciente y lo que hoy llamaríamos el subconsciente, por ejemplo, cuando Aquiles quiere destruir a Agamenón en el Libro 1 de la Ilíada, es la diosa Atenea la que interviene personalmente para calmar su ira y proporcionándole razón y paciencia.

La Odisea describe la dicotomía de civilización (el pensamiento, personificado por Ulises) y salvajismo (el cíclope). Ulises utiliza repetidamente su ingenio, artimañas, engaños y, en fin, el pensamiento analítico para salir de apuros. Ulises tiene sabiduría, es decir, ejerce la razón sobre las pasiones, tiene previsión y retrospectiva, tiene paciencia cuando los demás son impulsivos. Las divinidades de la sabiduría, el pensamiento y el ingenio lógicamente ayudan a Ulises. Atenea lo cuida, al igual que Hermes (después de todo era su bisnieto).

De hecho, encontramos en la mitología griega un énfasis en las deidades que personifican el pensamiento humano de una forma u otra. Además de Atenea, Apolo es un dios de la sabiduría, de la lira, de los sueños, de la profecía, de los videntes. Prometeo enseña a los humanos la creatividad, el pensamiento analítico, la inventiva y la curación.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los mitos como protociencia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cristalografía (1): Protociencia, del «Homo erectus» a Linneo
  2. Mesopotamia (1): La epopeya de Gilgamesh
  3. Antes del hierro
Categorías: Zientzia

Células madre para el tratamiento de la enfermedad inflamatoria intestinal

Lun, 2021/08/23 - 11:59

María Larumbe / GUK

Células madre mesenquimales humanas de origen adiposo (AT-MSCs) encapsuladas en hidrogeles de alginato. Tinción live/dead: células viables (verde) y no viables (rojo).

La enfermedad inflamatoria intestinal (EII) es un concepto amplio que se usa para describir distintas patologías inmunomediadas, inflamatorias y crónicas, como la enfermedad de Crohn y la colitis ulcerosa, que presentan inflamación crónica del tracto digestivo. En la descripción que da la ACCU – Confederación Crohn y Colitis Ulcerosa – ambos trastornos alteran la capacidad del organismo para digerir los alimentos y absorber los nutrientes. Las personas que padecen esta enfermedad pueden presentar diarrea, sangre en las heces, cansancio, dolor abdominal, pérdida de apetito y peso o fiebre, entre otros síntomas.

En los últimos años, se está viviendo un aumento de la incidencia de la EII en la población a nivel mundial, sobre todo en las zonas urbanas de los países desarrollados. Más allá de las causas de componente genético, se sabe que algunos factores como el estrés que conlleva un estilo de vida frenético, las sustancias tóxicas presentes en el ambiente y la alimentación juegan un papel fundamental en la alteración de la flora intestinal. Esto provoca una respuesta inmune anómala que da lugar a la inflamación y sintomatología de la EII, dando como resultado que se reporten más casos de esta enfermedad.

Hasta la fecha no existe ningún tratamiento que cure esta enfermedad. Los fármacos disponibles en el mercado — como los aminosalicilatos, corticoesteroides e inmunomoduladores — tratan de disminuir la inflamación intestinal, evitar brotes de los síntomas y mantener la dolencia en remisión, pero no consiguen dar una respuesta definitiva.

Sin embargo, la evolución de las terapias avanzadas en farmacia y medicina abre la puerta al tratamiento efectivo de este tipo de patologías inflamatorias e inmunológicas. En concreto, en el grupo de investigación de NanoBiocel de la Facultad de Farmacia de la UPV/EHU — expertos en el desarrollo y encapsulación de medicamentos — llevan desde 2017 trabajando en un proyecto que tiene como objetivo desarrollar un medicamento efectivo para tratar esta enfermedad basado en células madre mesenquimales.

¿Por qué se han decantado por este tipo de células? Como explica Rosa Hernández — catedrática en Farmacia y responsable del proyecto dentro del grupo — “las células madre mesenquimales poseen una gran capacidad terapéutica a través de las sustancias que secretan entre ellas múltiples citoquinas y factores de crecimiento, y que pueden regular el funcionamiento de un sistema inmune alterado como sucede en el caso de pacientes con enfermedad de Crohn o colitis ulcerosa”.

Las terapias celulares no son desconocidas. Se llevan aplicando desde hace tiempo para el tratamiento de enfermedades como la leucemia. Es el caso del trasplante de médula ósea, que consiste en el reemplazo de células enfermas por células madre sanas.

Sin embargo, la aplicación de las terapias celulares en el tratamiento de la EII, presenta, según Hernández, ciertos problemas que son necesarios solventar para desarrollar un medicamento efectivo. “La célula es un organismo vivo que no se puede comprimir al igual que otros principios activos sintéticos como el ácido acetilsalicílico — principio activo de la Aspirina —. Por tanto, es necesario desarrollar nuevos sistemas que puedan encapsular esas células para implantarlas en el cuerpo y que sean capaces de secretar las sustancias terapéuticas durante largo tiempo”.

En este sentido, como afirma Hernández, no son los primeros en tratar de aplicar este tipo de terapias al servicio del tratamiento de la EII. “Partiendo de investigaciones previas en este ámbito, nuestro objetivo es desarrollar un sistema de administración que consiga potenciar y alargar los efectos positivos de las células madre, evitando además los problemas asociados a este tipo de terapias como son la rápida eliminación del organismo y la generación de trombos. Para ello, la correcta encapsulación de la célula es clave”.

Se trata de una investigación ambiciosa y colaborativa, financiada por el Ministerio de Ciencia e Innovación, que cuenta — además de con la participación del propio grupo de la UPV/EHU — con la colaboración de expertos en medicina, bioquímica, farmacia y biología de otras universidades como Harvard (EE.UU), la Universidad Católica de Lovaina (Bélgica) o centros médicos como el servicio de patología del Hospital Universitario de Álava.

Una factoría celular 24/7

Dentro de esta investigación multidisciplinar y colaborativa, el principal reto consiste en conseguir encapsular las células madre de forma efectiva y lograr que estén el suficiente tiempo en el organismo para mitigar la inflamación persistente y regenerar los tejidos dañados.

Para conseguir este objetivo, altamente complejo, han trabajado en el desarrollo de tres elementos fundamentales: un hidrogel para encapsular las células (soporte); las propias células madre (principio activo del medicamento) y el interferón gamma (sustancia activadora de las células).

Desarrollo de un sistema multifuncional para potenciar las propiedades terapéuticas de las células madre mesenquimales (MSCs). Las MSCs se encapsulan en hidrogeles de alginato-colágeno que contienen micropartículas cargadas con interferón para promover su efecto inmuno-modulador y favorecer la retención del implante.

En primer lugar, para resolver el problema de la encapsulación, han desarrollado un hidrogel en colaboración con la Universidad de Harvard, el cual funciona a modo de soporte y protege la célula. “Este hidrogel, compuesto por polímeros de origen natural, posee unas características biomiméticas que permiten que la célula se encuentre ‘como en casa’, proporcionando las condiciones adecuadas para que su supervivencia sea mayor”. Además, al introducir las células en este hidrogel, se tienen localizadas y se evita que puedan migrar a cualquier otra parte del organismo.

Por otro lado, el segundo componente que se ha utilizado para desarrollar este medicamento es el más importante: el propio principio activo, es decir, la célula. “En este caso, hemos optado por células madre mesenquimales de origen adiposo. A futuro, si todo va bien, al realizar la traslación clínica, el objetivo sería poder obtener las células de la grasa del propio paciente para que fuese un trasplante totalmente autólogo y que ocasione menos problemas desde el punto de vista de la respuesta inmune”. En este sentido, también se está investigando en el uso de otras células como las del folículo piloso, que tienen muy buenas propiedades inmuno-moduladoras y requieren de técnicas muy poco invasivas.

Por último, el tercer componente busca activar las células madre para que puedan secretar de manera continuada y prolongada las sustancias inmuno-moduladoras requeridas para tratar esta enfermedad. “Lo que hemos desarrollado son unas micropartículas que hemos unido a una sustancia ‘activadora’ llamada interferón gamma, que da las señales a la célula madre para que secrete las sustancias beneficiosas que disminuyan los síntomas de la EII.”

Este trabajo se ha realizado con el objetivo de crear un sistema multifuncional para su administración a nivel subcutáneo en el paciente, de forma que libere ininterrumpidamente estas sustancias terapéuticas, como si se tratara de una fábrica celular en constante funcionamiento.

Actualmente, la investigación se encuentra en fase preclínica. “Acabamos de realizar la primera prueba de concepto en ratones, siguiendo el modelo en estos animales para conseguir reproducir la enfermedad al igual que en los humanos”. Para llevar a cabo esta tarea, han contado con la colaboración del servicio de patología del Hospital Universitario de Álava, que diagnostica la enfermedad patológica en humanos y les han apoyado en la creación del modelo en ratones.

Tras realizar la autopsia a los ratones, “lo que se ha comprobado es que las células encapsuladas continúan vivas y siguen secretando las sustancias inmuno-moduladoras, lo que supone un paso hacia adelante en la investigación”, afirma Hernández. Sin embargo, hasta que no comprobemos los resultados histológicos no podremos determinar si este tratamiento ayuda a la regeneración tisular, es decir, de los tejidos del organismo”, afirma Hernández.

Tratamiento para otras enfermedades inmunológicas

La investigación, que comenzó hace cuatro años, tiene todavía un largo camino por delante. “Tendremos que acometer ajustes e ir controlando poco a poco el sistema, incorporando nuevos elementos que conseguirán mejorar el comportamiento de la célula en cuanto a las secreciones. Además de esto, probaremos otro tipo de células con propiedades inmuno-moduladoras, aunque las que estemos utilizando actualmente sean el gold standard.

A futuro, este tipo de terapias, tal y como explica Hernández, “se podrán introducir en el tratamiento de otras patologías inmunológicas en las que también aparecen inflamaciones o respuestas inmunes disfuncionales, como es el caso del lupus u otras enfermedades autoinmunes. Además, hoy en día también las estamos aplicando en terapias de regeneración de heridas crónicas con buenos resultados”.

En este sentido, las terapias celulares se están utilizando incluso en ensayos clínicos para la investigación de la COVID-19, tratando de frenar la respuesta inmune exacerbada en algunos pacientes con este virus.

Conseguir dar el salto del laboratorio al paciente y traducirlo en una mejora de su calidad de vida es el objetivo último de esta investigación. “Queremos aportar todo nuestro conocimiento en el desarrollo de fármacos para ayudar a conseguir unos tratamientos que sean más prolongados en el tiempo, más seguros y que mejoren la calidad de vida de los pacientes con estas patologías”.

Grupo de investigación NanoBioCel de la Facultad de Farmacia de la UPV/EHU.

Rosa Hernández es catedrática en Farmacia y Tecnología Farmacéutica y miembro del grupo de investigación NanoBioCel de la Universidad del País Vasco UPV / EHU.

El artículo Células madre para el tratamiento de la enfermedad inflamatoria intestinal se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Medicina regenerativa: utilización de células madre para el tratamiento de enfermedades humanas
  2. Naukas Pro 2017: Manuel Collado y las células madre
  3. Cómo criopreservar células madre
Categorías: Zientzia

Páginas