Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 10 mins 16 segs

La Geología de Son Goku

Jue, 2024/03/14 - 11:59

Dragon Ball, Bola de Dragón, As Bolas Máxicas, Dragoi Bola, Bola de Drac… da igual el idioma en el que lo escriba, porque todo el mundo sabe a lo que me estoy refiriendo. Aunque solo sea de ver recientemente en los telediarios o las redes sociales noticias sobre el fallecimiento del autor de esta obra, Akira Toriyama. Y como yo soy una de los millones de personas que han crecido disfrutando de la versión animada de este título, quiero hacerle mi pequeño homenaje al gran mangaka descubriendo la Geología que se oculta detrás de Dragon Ball.

El primer opening, es decir, la primera canción de apertura de los capítulos que podemos disfrutar en Dragon Ball Z, titulada Cha-la Head Cha-la (que se podría traducir como “no hay problema”), es una gran compilación de spoilers. Pero no solo de lo que nos deparará la serie, también de la Geología que caracteriza a la Tierra del Universo 7. Sobre todo, si nos ponemos la versión original japonesa de dicho opening y prestamos atención a la letra que acompaña a las imágenes. Así que voy a usarlo como hilo conductor.

Dragon BallA) Mapa del mundo de Dragon Ball. Diseño de jack123noob, tomado de www.deviantart.com. B) Reconstrucción del posible futuro supercontinente Amasia. Imagen de la Universidad Curtin (Australia), tomada de www.bbc.com

La letra dice “volemos atravesando las nubes para poder ver todo el panorama”. Pero, ¿qué aspecto tendría la Tierra de Dragon Ball vista desde el cielo? Pues se trataría de un único supercontinente, con una disposición preferente este-oeste y bordeado por varias islas de diversos tamaños, tanto al norte como al sur. Pasando al mundo real, en la historia geológica de nuestro planeta se han generado varios supercontinentes, o grandes masas continentales, debido a un ciclo sin fin provocado por el movimiento de las placas tectónicas: cada 500 millones de años, las placas convergen formando un supercontinente, que luego acaba rompiéndose por un proceso llamado rift, y vuelta a empezar. El último supercontinente se llama Pangea y empezó a fragmentarse hace unos 250 Millones de años. Pero Pangea tenía una disposición preferente norte-sur, con una forma que recuerda a una letra C mayúscula. El dibujo representado por Toriyama se asemeja más a una de las reconstrucciones hipotéticas del futuro supercontinente que se debería formar dentro de unos 250 Millones de años, Amasia.

La existencia de una tectónica de placas activa en la Tierra ficticia de Dragon Ball también queda evidenciada por la existencia de eventos naturales como volcanes o terremotos. Pero la canción del opening dice “la tierra al ser golpeada se enfada, provocando que estalle un volcán”. Esto indica que algunos de estos procesos, en realidad, no son tan naturales como podemos imaginar. En concreto, la cantidad de energía que son capaces de liberar sobre el terreno los Guerreros Z durante sus peleas son equivalentes a la enorme energía generada por los movimientos tectónicos, provocando la misma respuesta en el planeta: erupciones volcánicas, terremotos y tsunamis de grandes dimensiones.

Dragon BallFotograma del anime Dragon Ball Z donde Pikkoro destruye la Luna. Imagen propiedad de Toei Animation (Japón).

Otro spoiler bastante gordo que nos hace el opening es la escena en la que Pikkoro destruye la Luna para controlar a Son Gohan tras convertirse en Oozaru durante su entrenamiento. Y, después de este evento, parece que el planeta sigue como sin nada tras perder su satélite natural, hasta que Kami sama lo reconstruye más adelante (cosa que ya tuvo que hacer previamente en la serie, después de que Muten Roshi también lo destruyese durante el torneo de artes marciales). Pero, en la vida real, la desaparición de la Luna tendría consecuencias catastróficas para la Tierra. La atracción gravitatoria que ejerce nuestro satélite equilibra el giro de la Tierra sobre su propio eje, controla el ciclo de las mareas, influye en la circulación oceánica y el desplazamiento de las masas de aire atmosféricas y determina la duración del día y la noche. Si perdiésemos esta influencia, directamente se acabaría la vida sobre nuestro planeta tal y como la conocemos hoy en día. Y aquí no tenemos las bolas de dragón para solucionar ese problema.

Dragon BallFotograma del anime Dragon Ball Z donde aparece Goku junto a un grupo de animales, entre los que se encuentran dos especies de dinosaurios (una pareja de triceratópsidos a la derecha de la imagen y una pareja de una especie basada en Tyrannosaurus rex a la izquierda) y una especie de reptil volador extinto. Imagen propiedad de Toei Animation (Japón).

Para terminar este repaso nos vamos a la parte final el opening, que exclama “quisiera encontrar un dinosaurio para entrenarlo”. Y es que, en el mundo fantástico de Dragon Ball, coexisten una gran amalgama de criaturas habitando el planeta Tierra, incluidos animales prehistóricos. Es común ver la aparición de reptiles continentales, o dinosaurios, a lo largo de muchos episodios del anime, algunos basados en fósiles reales, como diversas especies de triceratópsidos o el Tyrannosaurus rex, y otros surgidos de la mente de Toriyama, junto a reptiles voladores o tigres dientes de sable. Aunque la presencia de dinosaurios en la Tierra de Dragon Ball es bastante curiosa, no solo porque en la vida real estos reptiles se extinguieron hace unos 66 Millones de años, sino porque en este mundo fantástico, en principio, también habrían corrido la misma suerte. O, al menos, el Dios de la Destrucción Beerus comenta en Dragon Ball Super que eliminó a todos los dinosaurios de la Tierra hace millones de años porque le faltaron al respeto.

Sin duda, Dragon Ball es uno de los shonen nekketsu más famosos de la historia del manga y el anime, de esos que nunca pasan de moda y cuya acción engancha a jóvenes y mayores. Pero, entre pelea y pelea, también tiene su parte didáctica. Ahora, si volvéis a ver la serie o leer el manga, mientras aprendéis el nombre en japonés de diferentes alimentos o prendas de vestir, seguro que también repasaréis un poco de Geología.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo La Geología de Son Goku se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Caroline Herschel, Mary Somerville, Jessica Mink y el planeta Urano

Mié, 2024/03/13 - 11:59

El 13 de marzo de 1781, el astrónomo William Herschel (1738-1822) descubrió el planeta Urano. Aunque en principio pensó que se trataba de un cometa, se confirmó posteriormente que era el séptimo planeta del Sistema Solar.

Urano (23 de enero de 1986, imagen tomada por la sonda Voyager 2 de la NASA). Fuente: Wikimedia Commons.

 

Herschel lo observó a través de un telescopio situado en el jardín de su casa en Bath, Inglaterra. De hecho, Urano fue el primer planeta descubierto con un telescopio. Como suele suceder en algunas ocasiones, parece que este hallazgo fue fruto de la buena suerte que le llevó a mirar en la dirección adecuada en el momento preciso.

Caroline Herschel (1750-1848)

En este acontecimiento, como prácticamente todos los relacionados con los logros del astrónomo, no se suele citar a su hermana Caroline que durante décadas ayudó a William en sus observaciones astronómicas y en la construcción de diferentes instrumentos de observación.

Aunque en algunos foros citan a ambos hermanos como descubridores del planeta, la propia Caroline se pensaba como una simple ayudante que no merecía ninguna atención:

I am nothing, I have done nothing; all I am, all I know, I owe to my brother. I am only the tool which he shaped to his use—a well-trained puppy-dog would have done as much. [No soy nada, no he hecho nada; todo lo que soy, todo lo que sé, se lo debo a mi hermano. Sólo soy la herramienta que él moldeó para su uso; un perrito bien adiestrado habría hecho lo mismo].

Probablemente, en aquel momento, nadie opinaba que la labor de Caroline fue esencial para que su hermano destacara como astrónomo. Por suerte, hoy en día, su trabajo es ampliamente reconocido.

Mary Somerville (1780-1872)

La matemática y astrónoma Mary Somerville frecuentaba el observatorio astronómico familiar de los Herschel. Fue amiga y colaboradora del matemático y astrónomo John Herschel (1792-1871), hijo de William.

En 1852, John propuso los nombres de los cuatro satélites conocidos entonces de Urano: Titania y Oberón (descubiertos por William Herschel en 1787), Ariel y Umbriel (descubiertos en 1851 por el astrónomo aficionado William Lassell). El otro satélite principal del planeta (de los veintiocho conocidos de Urano), Miranda, fue descubierto por el astrónomo Gerard Kuiper (1905-1973) en 1948.

Mary Somerville también estudió el planeta Urano. En 1842, en la sexta edición de su libro On the Connection of the Physical Sciences incluyó su análisis de las perturbaciones de la órbita de este planeta. A través de sus cálculos, ella intuía la presencia de un hipotético planeta que alteraba a Urano; esta observación llevó al astrónomo John Couch Adams (1819-1892) a buscar y descubrir el planeta Neptuno en 1846, usando únicamente cálculos matemáticos. En Francia, un matemático, Urbain Le Verrier (1811-1877), de manera independiente, anunció la situación de este planeta a la Academia Francesa de Ciencias. Era el 31 de agosto de 1846, dos días antes de que Adams informara de sus deducciones al Real Observatorio de Greenwich. Los cálculos matemáticos de Le Verrier fueron más precisos que los del británico. El matemático francés comunicó al astrónomo alemán Johann Gottfried Galle (1812-1910) sus previsiones sobre la posición del planeta, y Galle lo localizó en septiembre de 1846, comprobando la exactitud de los cálculos de Le Verrier.

Volviendo a Mary Somerville, fue mentora de Ada Byron (1815-1852). Además de transmitirle el apego por las matemáticas, Somerville puso en contacto a su pupila con el ingeniero Charles Babbage (1791-1871). Pero esa es otra historia

Jessica Mink (1951)

Urano es un planeta gélido y ventoso. Es un gigante de hielo que gira en un ángulo de casi 90 grados con respecto al plano de su órbita. Además de sus veintiocho lunas, está rodeado por trece anillos tenues: 1986U2R/ζ, 6, 5, 4, α, β, η, γ, δ, λ, ε, ν y μ.

Los anillos y las lunas de Urano. Fuente: Wikimedia Commons.

 

En 1789, William Herschel ya sospechaba la existencia de un anillo en Urano, aunque ningún otro astrónomo confirmó esta conjetura.

El descubrimiento definitivo de estos anillos tuvo lugar de manera casual el 10 de marzo de 1977 por medio del Observatorio Aerotransportado Kuiper. Los astrónomos James L. Elliot (1943-2011), Edward W. Dunham y Jessica Mink (1951) planeaban usar la ocultación de la estrella SAO 158687 por Urano para estudiar la atmósfera del planeta. Al analizar sus observaciones, descubrieron que la estrella desaparecía brevemente de la vista cinco veces antes y después de ser eclipsada por el planeta. Así, dedujeron que Urano debía presentar un sistema de anillos estrechos.

Jessica Mink es desarrolladora de software, archivista de datos y astrónoma posicional. En el artículo The Rings of Uranus publicado en Nature en 1977 consta con otro nombre. Ella misma explica el motivo en su página personal.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Caroline Herschel, Mary Somerville, Jessica Mink y el planeta Urano se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Nuevos rayos X revelan un universo tan grumoso como predice la cosmología

Mar, 2024/03/12 - 11:59

Al mapear las estructuras más grandes del universo, los cosmólogos han descubierto que una anomalía cósmica parece estar desapareciendo.

Un artículo de Liz Kruesi. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

estructurasEl telescopio de rayos X eRosita detectó miles de cúmulos de galaxias en una vasta franja del cosmos, coloreados en esta imagen según su distancia desde la ubicación del telescopio en el centro. La luz de los cúmulos más lejanos se emitió hace 9 mil millones de años. Fuente: MPE, A. Liu for the eROSITA Consortium

 

Cúmulos de cientos o miles de galaxias se encuentran en las intersecciones de filamentos gigantes de materia que se entrecruzan y que forman el tapiz del cosmos. A medida que la gravedad atrae todo lo que hay en cada cúmulo de galaxias hacia su centro, el gas que llena el espacio entre las galaxias se comprime, lo que hace que se caliente y brille en rayos X.

El telescopio de rayos X eRosita, lanzado al espacio en 2019, pasó más de dos años recopilando rayos de luz de alta energía de todo el cielo. Los datos han permitido a los científicos mapear las ubicaciones y tamaños de miles de cúmulos de galaxias, dos tercios de ellos desconocidos hasta ahora. En una serie de artículos publicados en línea el 14 de febrero que aparecerán en la revista Astronomy & Astrophysics, los científicos usan su catálogo inicial de cúmulos para analizar varias de las grandes cuestiones de la cosmología.

Los resultados incluyen nuevas estimaciones de la heterogeneidad del cosmos –una característica muy discutida últimamente, ya que otras mediciones recientes han descubierto que es inesperadamente homogéneo- y de las masas de esas partículas fantasmales llamadas neutrinos y de una propiedad clave de la energía oscura, la misteriosa energía repulsiva que está acelerando la expansión del universo.

El modelo imperante del universo para los cosmólogos identifica la energía oscura como la energía del espacio mismo y la vincula al 70% del contenido del universo. Otra cuarta parte del universo es materia oscura invisible y el 5% es materia ordinaria y radiación. Todo ello evoluciona bajo la fuerza de la gravedad. Pero algunas observaciones de la última década desafían este “modelo estándar” de la cosmología, planteando la posibilidad de que al modelo le falten ingredientes o efectos que podrían dar paso a una comprensión más profunda.

Las observaciones de eRosita, por el contrario, refuerzan el cuadro existente en todos los aspectos. «Es una confirmación notable del modelo estándar», afirma Dragan Huterer, cosmólogo de la Universidad de Michigan que no ha participado en el trabajo.

Radiografiando el cosmos

Después del Big Bang, las sutiles variaciones de densidad en el universo recién nacido se volvieron gradualmente más pronunciadas a medida que las partículas de materia se pegaban unas a otras. Los grupos más densos atrajeron más material y se hicieron más grandes. Hoy en día, los cúmulos de galaxias son las estructuras unidas gravitacionalmente más grandes del cosmos. Determinar sus tamaños y distribución permite a los cosmólogos probar su modelo de cómo evolucionó el universo.

Para encontrar cúmulos el equipo de eRosita entrenó un algoritmo informático para buscar fuentes de rayos X «realmente esponjosas» en lugar de objetos puntuales, explica Esra Bulbul del Instituto Max Planck de Física Extraterrestre en Garching, Alemania, quien dirigió las observaciones de cúmulos de eRosita. Redujeron la lista de candidatos a una “muestra extremadamente pura”, continúa, de 5.259 cúmulos de galaxias, a partir de casi 1 millón de fuentes de rayos X detectadas por el telescopio.

Luego tuvieron que determinar lo pesados que eran son estos cúmulos. Los objetos masivos curvan la estructura del espacio-tiempo, cambiando la dirección de la luz que pasa y haciendo que la fuente de luz parezca distorsionada, un fenómeno llamado lente gravitacional. Los científicos de eRosita pudieron calcular las masas de algunos de sus 5.259 cúmulos basándose en el efecto lente sobre galaxias más distantes situadas detrás de ellos. Aunque solo un tercio de sus cúmulos tenían galaxias de fondo conocidas y alineadas de esta manera, los científicos descubrieron que la masa del cúmulo se correlacionaba fuertemente con el brillo de sus rayos X. Debido a esta fuerte correlación, podrían utilizar el brillo para estimar las masas de los cúmulos restantes.

Luego introdujeron la información de la masa en simulaciones por ordenador del cosmos en evolución para inferir los valores de los parámetros cósmicos.

Midiendo la grumosidad

Un número de interés es el “factor de grumosidad” del universo, S8. Un valor S8 de cero representaría una vasta nada cósmica, similar a una llanura sin ninguna roca a la vista. Un valor S8 más cercano a 1 corresponde a montañas escarpadas que se ciernen sobre valles profundos. Los científicos han estimado el S8 basándose en mediciones del fondo cósmico de microondas (FCM), una luz antigua procedente del universo primitivo. Al extrapolar las variaciones de densidad iniciales del cosmos, los investigadores esperan que el valor actual de S8 sea 0,83.

Pero estudios recientes que analizan las galaxias actuales han medido valores entre un 8% y un 10% más bajos, lo que implica que el universo es inesperadamente homogéneo. Esa discrepancia ha intrigado a los cosmólogos, señalando potencialmente grietas en el modelo cosmológico estándar.

estructurasEl catálogo de cúmulos de galaxias de eRosita está representado aquí en un mapa del medio cielo. Los colores indican la distancia de los cúmulos y los tamaños de los círculos indican el brillo aparente de los rayos X de cada fuente. Fuente: MPE, J. Sanders for the eROSITA Consortium

El equipo de eRosita, sin embargo, no encontró esta discrepancia. «Nuestro resultado estuvo básicamente en línea con la predicción del FCM desde el principio», afirma Vittorio Ghirardini, quien dirigió el análisis. Él y sus colegas calcularon un S8 de 0,85.

Algunos miembros del equipo se sintieron decepcionados, dice Ghirardini, ya que apuntar a los ingredientes que faltan era una perspectiva más emocionante que coincidir con la teoría conocida.

El valor de S8, que es un poco más alto que la estimación del FCM, probablemente desencadenará más análisis por parte de otros equipos, comenta Gerrit Schellenberger, un astrofísico que estudia los cúmulos de galaxias en el Centro Harvard-Smithsonian de Astrofísica. «Creo que probablemente no es el último artículo que hemos visto sobre ese tema».

Pesando neutrinos

En el universo primitivo se formaron neutrinos abundantemente, casi tantos como fotones (partículas de luz), explica Marilena Loverde, cosmóloga de la Universidad de Washington. Pero los físicos saben que los neutrinos, a diferencia de los fotones, deben tener masas diminutas debido a cómo oscilan entre tres tipos. Las partículas no adquieren masa mediante el mismo mecanismo que otras partículas elementales, por lo que su masa es un misterio muy estudiado. Y la primera pregunta es qué masa tienen en realidad.

Los cosmólogos pueden estimar la masa de los neutrinos estudiando sus efectos sobre la estructura del cosmos. Los neutrinos se mueven casi a la velocidad de la luz y atraviesan otra materia en lugar de quedarse pegados a ella. De modo que su presencia en el cosmos ha atenuado su grumosidad. «Cuanto más masa se le pone a los neutrinos, más masa es homogénea a esas [grandes] escalas», afirma Loverde.

Combinando sus mediciones de cúmulos de galaxias con mediciones de FCM, el equipo de eRosita estimó que la suma de las masas de los tres tipos de neutrinos no supera los 0,11 electronvoltios (eV), o menos de una millonésima parte de la masa de un electrón. Otros experimentos con neutrinos han establecido un límite inferior, mostrando que las tres masas de neutrinos deben sumar al menos 0,06 eV (para un posible ordenamiento de los tres valores de masa) o 0,1 eV (para el ordenamiento inverso). A medida que la distancia entre los límites superior e inferior se reduce, los científicos se acercan más a determinar el valor de la masa del neutrino. «En realidad, estamos a punto de lograr un gran avance», indica Bulbul. En publicaciones de datos posteriores, el equipo de eRosita podría bajar el límite superior lo suficiente como para descartar los modelos de masa de neutrinos de orden inverso.

Es necesario ser precavido. Cualquier otra partícula rápida y ligera que pueda existir (como los axiones, partículas hipotéticas propuestas como candidatas a la materia oscura) tendría los mismos efectos en la formación de estructuras. E introducirían errores en la medición de la masa de los neutrinos.

Siguiendo la energía oscura

Las mediciones de los cúmulos de galaxias pueden revelar no solo cómo crecieron las estructuras, sino también cómo su crecimiento fue dificultado por la energía oscura: la fina capa de energía repulsiva que impregna el espacio, acelerando la expansión del espacio y separando así la materia.

Si la energía oscura es la energía del espacio mismo, como supone el modelo estándar de la cosmología, entonces tendrá una densidad constante en todo el espacio y el tiempo (por eso a veces se la denomina constante cosmológica). Pero si su densidad disminuye con el tiempo, entonces es algo completamente distinto. «Ésa es la pregunta más importante que plantea la cosmología», afirma Sebastian Grandis, miembro del equipo eRosita de la Universidad de Innsbruck, en Austria.

A partir de su mapa de miles de cúmulos, los investigadores descubrieron que la energía oscura coincide con el perfil de una constante cosmológica, aunque su medición tiene una incertidumbre del 10%, por lo que sigue siendo posible una densidad de energía oscura que varíe ligeramente.

Originalmente, eRosita, que se encuentra a bordo de una nave espacial rusa, debía realizar ocho estudios del cielo completo, pero en febrero de 2022, semanas después de que el telescopio comenzara su quinto estudio, Rusia invadió Ucrania. En respuesta, la parte alemana de la colaboración, que opera y dirige eRosita, puso el telescopio en modo seguro, cesando todas las observaciones científicas.

Estos artículos iniciales se basan únicamente en los datos de los primeros seis meses. El grupo alemán espera encontrar aproximadamente cuatro veces más cúmulos de galaxias en el año y medio adicional de observaciones, lo que permitirá identificar todos estos parámetros cosmológicos con mayor precisión. «La cosmología de cúmulos podría ser la sonda cosmológica más sensible además del FCM», apunta Anja von der Linden, astrofísica de la Universidad Stony Brook.

Sus resultados iniciales demuestran la potencia de una fuente de información relativamente sin explotar. “Somos una especie de chico nuevo en el barrio”, comenta Grandis.

 

El artículo original, Fresh X-Rays Reveal a Universe as Clumpy as Cosmology Predicts, se publicó el 4 de marzo de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Nuevos rayos X revelan un universo tan grumoso como predice la cosmología se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El veneno más tóxico

Lun, 2024/03/11 - 11:59
venenoFoto: JJ Jordan / Unsplash

¿Cuál es el veneno más letal? ¿Hay alguno que no deje huella? El envenenamiento ha sido un arma peligrosa utilizada a lo largo de los siglos para eliminar a enemigos políticos, rivales amorosos, y a veces, incluso a seres queridos. Desde las intrigas en las cortes medievales hasta el asesinato del ex agente ruso Alexander Litvinenko, son muchos los venenos empleados para perpetrar crímenes de manera eficaz y sigilosa. La fascinación por las sustancias tóxicas se extiende también a la ficción: Romeo y Julieta, Hamlet, e incluso la manzana de Blancanieves. A continuación, examinamos algunos de los venenos más peligrosos e indagamos en su dosis letal y su análisis toxicológico.

Crímenes por envenenamiento

Los crímenes por envenenamiento han dejado una marca oscura a lo largo de la historia. La evolución de los venenos es también la crónica de luchas de poder entre las sombras y asesinatos anónimos. En la antigua Roma, el veneno era una herramienta comúnmente utilizada para eliminar rivales políticos. Sócrates fue condenado a muerte con cicuta, un veneno mortal, y Cleopatra, la legendaria reina egipcia, se suicidó con veneno de áspid.

Siglos más tarde, en la Europa del siglo XIX, el envenenamiento pasó a ser una táctica popular en las cortes reales, donde se usaban venenos como arsénico y cianuro para eliminar competidores por el poder. Por ejemplo, se cree que el rey Carlos VI de Francia fue envenenado por su hermano y que Napoleón Bonaparte murió por consumir arsénico.

En tiempos más modernos, también ha sido utilizado en asesinatos políticos y asuntos de espionaje. Por ejemplo, en 2006 fue notorio el envenenamiento con polonio-210 del ex agente ruso Alexander Litvinenko, presuntamente por orden del gobierno de su país. Además, no debemos olvidar su uso como arma militar: desde el gas mostaza usado durante la Primera Guerra Mundial hasta agentes neurotóxicos como el Tabún o el Sarín.

venenoLa Mort de Socrate / La muerte de Sócrates (1787), por Jacques-Louis David. Fuente: Google Arts & Culture / Wikimedia CommonsLas sustancias más tóxicas

Determinar las sustancias más tóxicas y sus dosis letales exactas puede ser complejo, ya que la toxicidad de una sustancia puede variar dependiendo de factores como la vía de exposición, la duración de la exposición, la edad y la salud del individuo, entre otros. La Agencia para Sustancias Tóxicas y el Registro de Enfermedades (ASTDR) elabora cada dos años un listado en el que prioriza las sustancias según su frecuencia, toxicidad y potencial de exposición humana.

En toxicología, se denomina dosis letal media (DL50) a la cantidad de una sustancia necesaria para matar a la mitad de una población después de un tiempo determinado. La toxina botulínica, que es la sustancia más tóxica conocida, tiene un valor de DL50 de 1 ng/kg, mientras que el agua, la sustancia menos tóxica, de más de 90 g/kg. Entre las sustancias con una baja DL50 y elevado riesgo de toxicidad encontramos cuatro de los venenos más conocidos: mercurio, arsénico, cianuro y polonio-210.

venenoEscala de veneno en función del logaritmo decimal negativo de los valores de la DL50 estandarizados en kg por kg de peso corporal. Fuente: Wikimedia Commons

 

El arsénico es uno de los venenos más usados en homicidios debido a sus propiedades organolépticas (no tiene sabor, pero presenta un ligero aroma a ajo) y sus efectos son similares a los de una enfermedad gastrointestinal. Además, es fácil de adquirir, ya que está presente de forma natural en el agua. El grado de toxicidad varía según el derivado del arsénico: la arsina es el compuesto más tóxico, letal de forma instantánea a dosis de 250 ppm; le sigue el arsénico trivalente, cuya dosis letal es inferior a 5 mg/kg; por último, el arsénico pentavalente requiere dosis de entre 5 y 50 mg/kg para ser mortal.

La intoxicación por mercurio depende del estado de oxidación: el mercurio inorgánico, como el mercurio metálico y el cloruro de mercurio, es altamente reactivo y puede causar daños en la piel; el metilmercurio, que penetra en el cuerpo humano por el consumo de peces y mariscos contaminados, es bioacumulable y puede provocar daño neurológico, especialmente en el desarrollo fetal y en niños pequeños.

La toxicidad de una sustancia puede variar dependiendo de factores como la vía de exposición, la duración, la edad y la salud del individuo”

A nivel celular, el cianuro es un tóxico que produce inhibición enzimática de numerosos sistemas. Por ejemplo, el cianuro de potasio es un potente inhibidor de la respiración celular, y el cianuro de hidrógeno, un gas incoloro con leve olor amargo, fue la sustancia que se usó en las cámaras de gas. El polonio-210, en cambio, es uno de los compuestos radiactivos más letales que se conocen por ingestión, dado que las partículas alfa que emite dañan el ADN y bastan algunos miligramos para causar la muerte en unas semanas.

La huella del crimen

¿Qué rastro dejan los venenos en el cuerpo del delito? Más allá de lo que las series policiacas nos han hecho creer, lo cierto es que el avance de las técnicas de análisis actuales permiten la detección de muchas de estas sustancias. El mercurio, por ejemplo, puede ser detectado en muestras biológicas como la sangre, la orina o el cabello mediante la espectrometría de masas. Aunque tiene una vida media corta en la sangre (3 días), una concentración en orina superior a 500 µg/L se relaciona con temblores y trastornos del sistema nervioso central.

El cianuro, que produce efectos tóxicos a niveles de 0.05 miligramos de cianuro por decilitro de sangre (mg/dL), también puede ser identificado a través de análisis toxicológicos que buscan sus metabolitos en muestras biológicas. Del mismo modo, el arsénico puede ser detectado y cuantificado utilizando métodos analíticos como la cromatografía de gases y la espectrometría de masas. Además, para concentraciones por encima de 3 μg por decilitro en sangre y/o 200 μg por litro de orina, se observarán también alteraciones en el electrocardiograma, el hemograma y pruebas de las funciones hepática y renal.

El arsénico es uno de los venenos más usados en homicidios debido a sus propiedades organolépticas (no tiene sabor, pero presenta un ligero aroma a ajo)”

En cuanto al polonio-210, su detección puede requerir técnicas de espectrometría gamma para identificar su presencia en muestras biológicas o ambientales. Su tiempo de vida media biológico es de 50 días, ya que a la desintegración radiactiva hay que sumarle la cantidad del elemento que se pierde por excreción en heces y orina. En resumen, si estás pensando en recurrir al envenenamiento para quitarte de en medio a ese jefe que te amarga a diario, quizá te disuada tener en cuenta que las posibilidades de ser descubierto son significativamente altas gracias a las novedosas técnicas de detección toxicológica.

Referencias:

Organización Mundial de la Salud (2017) El mercurio y la salud
Lumitos / Química.es (2024) Categoría Toxicología
Agencia para Sustancias Tóxicas y el Registro de Enfermedades (2016) Resumen de Salud Pública: Cianuro (Cyanide)
López Nicolás, J.M. (2018) Querido Paracelso: el veneno no solo reside en la dosis Cuaderno de Cultura Científica

Sobre la autora: Raquel Gómez Molina es química especialista en laboratorio clínico y comunicación científica

El artículo El veneno más tóxico se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Memoria y creatividad

Dom, 2024/03/10 - 11:59

La memoria no tiene buena prensa; me refiero a la memoria con minúscula, o sea, a la capacidad para recordar ideas, informaciones, situaciones, experiencias, lecturas, etc. Por eso, el calificativo “memorístico”, en realidad, más que calificar, descalifica.

Ya cuando era estudiante a caballo entre COU y los primeros cursos universitarios la organización estudiantil en la que militaba se oponía, al menos de palabra, a la enseñanza memorística. Reivindicaba en su lugar una formación que nos enseñase a pensar. Es curioso cómo, con apenas 17 o 18 años de edad, éramos capaces de decir y defender asertos que hoy no sería capaz ni de enunciar. Es más, ahora ni tan siquiera sabría explicar qué se entiende por pensar en ese contexto, y quizás en ningún otro.

Ha pasado casi medio siglo y la mala prensa de lo memorístico perdura. Aunque ahora sus adversarias son otras y la tecnología nos ha brindado nuevos motivos, reales o ficticios, para menospreciarla. Se pretende devaluar hoy la capacidad memorística porque ese es un rasgo que, supuestamente, ha perdido toda utilidad. En ese argumento está implícita la idea de que antes hacía falta buena memoria para poder recordar muchas cosas, ya que no había dispositivos que permitieran acceder con facilidad al conocimiento acumulado. Pero ahora, con las enormes facilidades de almacenamiento de información y de acceso a ella –volúmenes gigantes al alcance de uno o dos clics–, se supone que ya no es preciso que utilicemos el cerebro propio como almacén.

Hoy se valora la creatividad. En nuestro mundo y, sobre todo, en el mundo hacia el que parecemos dirigirnos –se nos dice– la creatividad es fundamental, pues solo personas creativas son capaces de idear las nuevas soluciones, los nuevos productos, las nuevas obras artísticas o culturales, o de generar el nuevo conocimiento que servirá para alimentar la actividad económica que permita crear riqueza y bienestar.

creatividadJohn von Neumann, una de las mentes científicas más creativas del siglo XX, poseía una memoria portentosa.

La creatividad se considera hoy uno de los rasgos cognitivos más valiosos, si no el más valioso. Y se insiste en la idea de que hay que estimularla o cultivarla. Tal es así que en el ciclo 2022 de PISA (OCDE) se ha incluido la competencia “creatividad” para ser evaluada como competencia innovadora en estudiantes de 15 años. Sin embargo, no parece que en su cultivo o estímulo juegue la memoria papel alguno. Nada se dice de ella en el artículo cuya lectura me permitió saber de la inclusión en las pruebas PISA de la creatividad como competencia innovadora. Deduzco que ello no obedece al olvido de la autora ni a la casualidad. Sencillamente no se la ha dado ninguna importancia.

No sé si en otros campos ocurre algo parecido pero, al menos en el terreno científico, la capacidad memorística es un ingrediente muy valioso de la creatividad. Las nuevas ideas surgen en muchas ocasiones de las relaciones espontáneas, y a veces fugaces, que establece nuestra mente entre piezas de conocimiento o informaciones diferentes y, a veces, sin relación aparente entre sí.

Las nuevas ideas no surgen porque uno vaya en su búsqueda de forma activa y consciente como cuando acudimos a un buscador en la internet. Si así fuera, casi cualquiera podría dar con ellas. Si supiésemos en qué van a consistir, sabríamos en qué archivo, qué documento, qué base de datos deberíamos buscar las piezas de información, los pedazos de conocimiento con los que construir la novedad.

No, la internet o cualquier otro repositorio de información o conocimiento no son sustitutos adecuados de la memoria si de lo que se trata es de crear. Conozco a centenares de personas en el mundo de la ciencia, de la literatura, de las artes plásticas, de la ingeniería y de la empresa. De entre todas esas personas unas son más creativas que otras. Las más creativas tienen una memoria envidiable.

En ciencia muchas ideas nuevas surgen cuando, dando vueltas a elementos aparentemente inconexos, encontramos o establecemos de repente una relación inesperada donde nadie antes lo había hecho. Es posible que eso ocurra mientras leemos un artículo o un libro, pero entonces el conocimiento codificado en forma impresa no suele ser suficiente, ha de cruzarse en su camino algún pasaje que habíamos leído en otra ocasión, o un fragmento de conversación que tuvimos hace un mes con un colega. O, incluso, puede surgir al contemplar una obra de arte o leer una novela. Es del todo azaroso el modo en que surge la idea nueva. En ocasiones lo hace durante el sueño o en estado de duermevela. Pero rara vez surge de confrontar dos o más elementos a los que accedemos directamente en el soporte en que se encuentran almacenados. Sospecho que en campos del saber otros que las ciencias naturales ocurre algo parecido.

Para que esa chispa, ese momento “eureka”, ese “¡ahá!”, ese “¡qué curioso!” o “¡qué raro!” se produzca, hemos debido confrontar alguna observación o idea con elementos almacenados en la memoria. Por eso, estoy convencido de que es necesario cultivar la memoria para promover la creatividad. Es una de sus mejores amigas.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU. Una versión anterior de este texto apareció en Lecturas y Conjeturas (Substack).

El artículo Memoria y creatividad se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2023 – Experimentos con humanos e IAs

Sáb, 2024/03/09 - 11:59

El gran evento de divulgación organizado por Naukas y la Cátedra de Cultura Científica volvió a Bilbao para celebrar su decimotercera edición en el gran Palacio Euskalduna los pasados 15 y 16 de septiembre de 2023.

 

 

Una de las preguntas más inquietantes que pueden hacerse y que pocas veces verás por ahí es: ¿Puede la inteligencia artificial (las IAs) influir en las decisiones humanas? La respuesta, en caso de ser positiva, tiene implicaciones éticas y sociológicas terribles. Los resultados experimentales de su equipo de investigación de la Universidad de Deusto que narra Helena Matute en esta charla son, como mínimo, inquietantes.

Helena Matute es catedrática de Psicología Experimental de la Universidad de Deusto y directora del Laboratorio de Psicología Experimental. Ha sido investigadora visitante en distintas universidades del mundo como la de Gante en Bélgica, las de Sídney y Queensland en Australia o Minnesota en Estados Unidos. Miembro asesor del consejo científico de FECYT, Matute es presidenta de la Sociedad Española de Psicología Experimental y académica de número de Jakiunde – Academia de las Ciencias, las Artes y las Letras del País Vasco. Tiene el premio Prisma y el premio DIPC-Jot Down de divulgación científica.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2023 – Experimentos con humanos e IAs se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Un espinosáurido riojano

Vie, 2024/03/08 - 11:59

El primer dinosaurio descrito en La Rioja es un espinosáurido de unos 7-8 metros de longitud y una masa corporal estimada en 1,5 toneladas. Se trata de una forma bípeda, de hábitos principalmente piscívoros, aunque –como buen predador– también sería capaz de perseguir y alimentarse de presas terrestres. La nueva especie de espinosáurido, bautizada como Riojavenatrix lacustris, vivió hace 120 millones de años.

espinosáurido

Los espinosáuridos son un grupo de dinosaurios carnívoros (terópodos) de tamaño medio a grande con unos caracteres anatómicos muy particulares: tienen un cráneo bajo y alargado con mandíbulas provistas de dientes cónicos, similar al de los cocodrilos modernos, y unos brazos largos y robustos con manos de tres dedos terminadas en poderosas garras, destacando por su gran tamaño la del dedo uno, el equivalente a nuestro dedo pulgar. Algunos espinosáuridos poseían una vela dorsal. Los primeros restos fósiles de espinosáurido hallados en Igea fueron un fragmento de maxilar encontrado en 1983 y dientes aislados. Esos restos, junto con un esqueleto parcial recuperado en 2005, se asignaron al icónico dinosaurio inglés Baryonyx. Sin embargo, la revisión de este material indica la presencia de un nuevo género y especie de espinosáurido, al que se le ha dado el nombre científico de Riojavenatrix lacustris, convirtiéndose en el primer dinosaurio descrito en La Rioja.

“El nuevo género y especie, al que coloquialmente llamamos Britney, está basado en un esqueleto parcial, que consiste en restos de los miembros posteriores (fémur, tibia, fíbula, huesos del tobillo y falanges del pie) y de la pelvis (pubis e isquion), así como un resto vertebral”, señala el investigador de la UPV/EHU Erik Isasmendi. “Presenta una combinación de caracteres anatómicos que lo hacen único y permite diferenciarlo de otros espinosáuridos, añade.

Con Riojavenatrix son cinco los espinosáuridos descritos en el Cretácico Inferior de la Península Ibérica. Los otros espinosáuridos ibéricos son Camarillasaurus en Aragón, Vallibonavenatrix y Protathlitis en la Comunidad Valenciana, e Iberospinus en Portugal. El estudio pone de manifiesto que no es posible confirmar la presencia de Baryonyx en el registro ibérico. Los restos fósiles atestiguan que la península ibérica albergó un conjunto amplio y diverso de estos dinosaurios carnívoros.

espinosáuridoTamaño de algunas especies de espinosáuridos. Fuente: Wikimedia Commons

Para Elena Cuesta, investigadora postdoctoral en el Museo Paleontológico Egidio Feruglio de Argentina y la Universidad de Ludwig Maximilian en Alemania, los numerosos descubrimientos dentro de este icónico grupo “plantean muchísimas nuevas preguntas” sobre la ecología de estos animales. “¿Cómo convivieron estas especies entre sí? Preguntas como esas nos llevan a replantearnos futuros estudios más detallados sobre los espinosáuridos, de los que seguro se obtendrán resultados importantes”, comenta.

La nueva especie riojana será clave para esto y para entender más sobre el origen y evolución de estos terópodos. Xabier Pereda Suberbiola, profesor e investigador del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, es uno de los directores de la tesis doctoral de Erik Isasmendi y director de excavación en Igea. “Los fósiles descubiertos son de gran interés paleontológico y nos permiten poner a Igea en el mapa mundial de los espinosáuridos y de los dinosaurios carnívoros, en general”, declara Pereda.

Garras

Igea es actualmente una de las zonas con mayor cantidad de yacimientos y restos fósiles de espinosáuridos del mundo. Esta situación es el fruto de las actividades desarrolladas por el equipo “Garras”, que reúne un colectivo de paleontólogos y aficionados trabajando al unísono con el objetivo de dar a conocer el rico patrimonio paleontológico de Igea y La Rioja.

El siguiente paso del equipo es publicar otros fósiles de espinosáuridos hallados en Igea, como el esqueleto parcial denominado “Garras” de Peña Cárcena y el excavado en los últimos años en “Virgen del Villar 2” (muy cerca de “Virgen del Villar 1”), al que se le ha dado el nombre coloquial de “Villar”. Este último es “uno de los esqueletos más completos que se conocen en el registro europeo y mundial”. El material de “Garras” está en fase final de estudio antes de su publicación y el de “Villar” está siendo preparado por los integrantes del equipo de laboratorio.

Los dinosaurios carnívoros más comunes

En la Península Ibérica, los espinosáuridos son los dinosaurios carnívoros más comunes en las formaciones del Cretácico Inferior, y son especialmente dominantes en rocas formadas en ambientes lacustres. Es habitual encontrar sus fósiles (principalmente dientes) en diferentes cuencas sedimentarias, como en Cameros (Burgos y La Rioja), el Maestrazgo (Teruel y Castellón) y la cuenca lusitánica en Portugal. Los orígenes de este grupo estarían en el Jurásico Superior de Europa occidental, ya que sus restos han aparecido principalmente en España, Portugal y Reino Unido, con varios intercambios de faunas durante el Cretácico Inferior entre Europa y el norte de África.

Referencia:

Erik Isasmendi, Elena Cuesta, Ignacio Díaz-Martínez, Julio Company, Patxi Sáez-Benito, Luis I. Viera, Angelica Torices, Xabier Pereda-Suberbiola (2024) Increasing the theropod record of Europe: a new basal spinosaurid from the Enciso Group of the Cameros Basin (La Rioja, Spain). Evolutionary implications and palaeobiodiversity Zoological Journal of the Linnean Society doi: 10.1093/zoolinnean/zlad193

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Un espinosáurido riojano se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El Marte con el que soñamos

Jue, 2024/03/07 - 11:59

En 1877, había canales en Marte. O, más concretamente, canali, como llamó el astrónomo italiano Giovanni Schiaparelli (1835-1910) a esa especie de formaciones geográficas o geológicas rectilíneas que le pareció observar a través del telescopio cuando enfocó a nuestro planeta vecino. En ningún momento sugirió que estas pudieran ser de origen artificial, pero un error de traducción, no se sabe si intencionado o no, de su colega estadounidense William Henry Pickering (1858-1935) acabó encendiendo la imaginación de toda una época. Incluso de toda la disciplina. Este tradujo canali por canals, que sugiere artificialidad, en lugar de channels, que se refiere a formaciones naturales, y otros astrónomos, como Percival Lowell (1855-1916), adoptaron el término con entusiasmo:

Schiaparelli detectó la existencia de los canales cuando estaba comprometido en la triangulación de la superficie del planeta con un fin topográfico. Y lo que encontró fue que la triangulación ya estaba hecha. Con sus propias palabras, aquello «parecía haber sido trazado con regla y compás».

MarteMapa de Marte de Giovanni Schiaparelli, del año 1888, en el que se puede ver la famosa red de canales. Fuente: Dominio público

Tras una pequeña decepción lunar, a medida que íbamos sabiendo más de nuestro satélite y la posibilidad de encontrar algo «interesante» en él se desvanecía, los canales de Marte abrieron una nueva puerta a la posibilidad de no estar solos en el universo y de que esas posibles formas de vida no estuvieran tampoco tan lejos. Así que empezamos a imaginarlas.

Sobre esa fina línea que separa lo conocido de lo que nos gustaría conocer, escritores como Edgar Rice Burroughs ―que lo bautizó como Barsoom― o Leigh Brackett ―cuyas versiones de Marte, como Shandakor, inspirarían a su gran amigo Ray Bradbury― edificaron sus civilizaciones.

En el Barsoom de Burroughs, que en un pasado remoto había contado hasta con cinco océanos ―ya secos― la intrincada red de canales de Schiaparelli y Lowell bombeaba agua desde los casquetes polares para regar las franjas de vegetación que se extendían a lo largo de latitudes más templadas. La atmósfera, demasiado tenue, contaba con un sistema de soporte para hacer la vida posible. Y los nativos del planeta habían bautizado a los dos satélites de este ―Phobos y Deimos― como Thuria y Cluros. ¿Demasiado increíble hoy en día? Sí, y afortunadamente. Lo suficiente como para sembrar la duda e inspirar a un niño que creció leyendo esas historias y cuyo nombre era Carl Sagan.

Fue emocionante leer estas novelas. Al principio, pero poco a poco empezaron a corroerme las dudas. El giro argumental de la primera historia de John Carter que leí dependía de que este olvidara que el año es más largo en Marte que en la Tierra. Pero a mí me pareció que, si uno va a otro planeta, una de las primeras cosas que comprueba es la duración del día y el año. También había algunos comentarios incidentales que al principio me parecieron sorprendentes pero que, tras una reflexión seria, resultaron una decepción. Por ejemplo, Burroughs comenta casualmente que en Marte hay dos colores primarios más que en la Tierra. Pasé muchos y largos minutos con los ojos cerrados, tratando de contemplar ferozmente un nuevo color primario, pero siempre percibía algo familiar, como un marrón oscuro o ciruela. ¿Cómo podría haber otro color primario en Marte y mucho menos dos? ¿Qué era un color primario? ¿Tenía algo que ver con la física o con la fisiología? Decidí que, quizás, Burroughs no sabía de qué estaba hablando, pero sí hizo pensar a sus lectores. Y en esos muchos capítulos en los que no había mucho en qué pensar, había enemigos satisfactoriamente malignos y un manejo de la espada apasionante, más que suficiente para mantener el interés de un niño de ciudad de diez años en el largo verano de Brooklyn.1

Dicen que, junto a la puerta de su despacho en Cornell, en el pasillo, Carl Sagan tenía colgado un mapa de Barsoom. Cabría preguntarse si todo aquello tuvo que ver con acabar, entre los años sesenta y setenta, participando en el Programa Mariner, cuya Mariner 4 realizó las primeras fotografías desde la órbita de Marte. O con que el 20 de julio de 1976, la Viking I consiguiera hacer lo mismo desde su superficie.

MarteCráteres en Marte fotografiados por la Mariner 4. Fuente: NASA MartePrimera imagen desde la superficie marciana tomada por la Viking I. Fuente: NASACarl Sagan junto a un prototipo del aterrizador de las Viking. Fuente: NASA/JPL

Sin embargo, es curioso cómo uno de los responsables de materializar, de alguna manera, uno de los grandes sueños de la ciencia ficción de alcanzar Marte fue también responsable de hacernos despertar. Porque el ambiente que encontramos allí fue mucho más hostil de lo que esperábamos: Marte estaba igual o más muerto que la Luna. Así que durante diecisiete años se congelaron tanto los sueños como las misiones… hasta septiembre de 1992. Fue aquel mes cuando se lanzó la sonda Mars Observer, que apenas había llegado a la órbita del planeta rojo alrededor de un año después cuando perdimos el contacto con ella. Pero también fue aquel mes en el que se publicó Marte rojo, de Kim Stanley Robinson, la primera parte de una trilogía de colonización y terraformación marciana que se convertiría, de manera consciente o no, en una suerte de hoja de ruta de lo que podría aguardarnos un día, si intentábamos volver, a 230 millones de kilómetros.

Todo había empezado con la ciencia inspirando a la ficción, luego la ficción inspiró a la ciencia. Y vuelta a empezar. En el punto más bajo de la historia de la exploración marciana, Robinson demostró que, al igual que lo fue el de Schiaparelli, ese Marte inhóspito que nos habían mostrado las primeras sondas también podía ser bello. Y, sorprendentemente, nuevas misiones empezaron a ponerse en marcha. Pathfinder, Spirit, Opportunity, Curiosity… trajeron nuevos datos y de ellos, otra vez, nacieron nuevas historias, como la conocidísima El marciano, de Andy Weir. La ciencia ficción, en lo que se refiere a la inspiración, hizo, y hace, que Marte vuelva a ser posible. Es lo que nos devolvió, en parte y cuando ya nadie daba nada por ello, la ilusión por regresar.

Y sí… tal vez en Marte no haya canales construidos por una antigua civilización, pero se piensa, como también imaginó Burroughs, que existieron océanos, lagos y ríos en él hace unos 3500 millones de años, lo que reaviva en nosotros la esperanza de que, al menos, podamos llegar a encontrar algún día restos de vida microbiana. Tal vez ningún John Carter vaya a salvar a ninguna princesa marciana llamada Dejah Toris, pero es posible que la persona que vaya a poner por primera vez un pie en Marte ya haya nacido y su aventura será, sin duda alguna, una de las más emocionantes ―por no decir la que más― que vaya a vivir la humanidad en su conjunto.

Composición de la ESA con los colores de la superficie de Marte, realizada con motivo del vigésimo aniversario de la misión Mars Express. Fuente: ESA/DLR/FU Berlin/G. Michael

A veces se acusa a la ciencia de arrebatarnos nuestros sueños. De constreñir tanto la imaginación que nos corta las alas, cuando puede que sea, más bien, al contrario. Ciencia y relatos se han retroalimentado constantemente en casi todos los campos de conocimiento a lo largo de nuestra existencia en un bucle infinito que nos ha ido convirtiendo en lo que somos como especie. Por eso las historias son importantes, y por eso no debemos dejar de contarlas, por inverosímiles que puedan parecer. Porque no importa que luego la realidad las pruebe falsas; al hacerlo, estará abriendo una puerta a otras completamente distintas, solo hay que atreverse a cruzar ese nuevo umbral de hacer posible lo imposible.

Así que, como dijo Percy mientras aterrizaba en Marte y como, en realidad, siempre ha hecho la humanidad…

El paracaídas que desplegó el rover Perseverance en su aterrizaje escondía un mensaje: «Dare mighty things». Fuente: NASA/JPL-Caltech

Aunque esas cosas sean buscar marcianos.

Referencias:

NASA Science. MARS exploration

Sagan, Carl (28 de mayo de 1978). Growing up with science fiction. The New York Times.

Schiaparelli, Giovanni (2009). La vida en Marte. Interfolio Libros.

Nota:

1 Traducción de la autora.

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo El Marte con el que soñamos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Once cuatro cuatro, mirar el arte con ojos matemáticos

Mié, 2024/03/06 - 11:59

Cualquier persona que haya leído mi último libro Las matemáticas como herramienta de creación artística (2023), se habrá dado cuenta de la admiración que siento por el trabajo artístico del diseñador, artista polifacético y educador suizo Max Bill (1908-1994), figura central de arte concreto y, en mi opinión, uno de los artistas claves en el arte del siglo xx. Las matemáticas fueron fundamentales para este artista, como dejó recogido en su ensayo El pensamiento matemático del arte de nuestro tiempo (1949) y en el que se pueden leer reflexiones como la siguiente:

Creo que es posible desarrollar ampliamente un arte basado en el pensamiento matemático. Contra esta opinión se plantearon enseguida fuertes objeciones. Se afirma que el arte nada tiene que ver con las matemáticas, y que éstas son una materia árida, no artística, una cuestión puramente intelectual, que es contraria al arte. Para el arte, sólo el sentimiento es importante y el pensamiento es perjudicial. Ninguno de los dos puntos de vista es correcto, porque el arte necesita por igual del sentimiento y del pensamiento.

En el mencionado texto, Las matemáticas como herramienta de creación artística, se puede descubrir la importancia que tuvo el teorema de Pitágoras en su obra, herramienta matemática que utilizó desde, al menos, 1937, año de creación de su obra Construcción con la fórmula a2 +b2 = c2, y que no abandonaría nunca (véase también la entrada El teorema de Pitágoras en el arte); o la profunda relación que tuvo con la banda de Moebius, desde que la redescubriera y bautizara como la cinta sin fin en 1935 (véase también la entrada Arte Moebius (I)). Pero nos podemos encontrar muchas más matemáticas en su trabajo: figuras geométricas planas –polígonos, círculos y otras curvas- y espaciales –esferas y poliedros-, el hipercubo, diferentes sucesiones de números o la combinatoria, entre otras.

En esta entrada quiero que disfrutemos, y analicemos juntos, mirando con ojos matemáticos, una hermosa serie de obras relacionada con la geometría, la combinatoria y el álgebra, su serie 11 x 4 : 4 (1963/1970).

Las once serigrafías de la serie 11 x 4 : 4 (1970), del artista concreto suizo Max Bill

 

¿Qué vemos cuando miramos?

Antes de nada, analicemos esta serie de obras. Si tomamos una cualquiera de ellas, por ejemplo, la última, de la cual he realizado la siguiente reconstrucción, descubriremos algunas cosas interesantes. Para empezar, algo básico, la obra está compuesta por una retícula cuadrada de tamaño 4 x 4, es decir, con 16 pequeños cuadrados. Además, cada uno de los 16 cuadrados están coloreados con uno de los cuatro colores que se han utilizado en cada pieza, en la serigrafía de la siguiente imagen azul, rojo, amarillo y verde.

Max BillReconstrucción de una de las serigrafías de la serie 11 x 4 : 4 (1970), de Max Bill

 

Si la descomponemos por colores, observaremos que está formada (como se muestra en la siguiente imagen) por cuatro estructuras básicas, que son la misma, salvo rotaciones de 90, 180 y 270 grados. Es decir, si tomamos la primera (la azul) podemos obtener las demás girando, en el sentido contrario a las agujas del reloj, 90 grados (verde), 180 grados (amarilla) y 270 grados (roja).

Descomposición, por colores, de la serigrafía anterior de la serie 11 x 4 : 4 (1970), de Max Bill

 

Consideremos otra de las once serigrafías que componen esta serie y veamos que ocurre lo mismo que en la anterior.

Reconstrucción, y descomposición por colores, de una de las serigrafías de la serie 11 x 4 : 4 (1970), de Max Bill

 

Si llamamos “patrón básico” a la estructura formada por las cuatro casillas que llevan un mismo color y de manera que una de ellas sea el vértice superior izquierdo, que en el primer ejemplo son las cuatro casillas azules y en el segundo las cuatro casillas violetas, está claro que estas obras se forman tomando el patrón básico de un color y cada rotación del patrón básico, de 90, 180 y 270 grados, con otro color distinto cada una.

Pero cuidado, no vale cualquier elección de cuatro casillas de la retícula 4 x 4, puesto que puede ocurrir que la girar, 90, 180 y 270 grados, la estructura básica haya casillas que se superponen o casillas que no estarían ocupadas, que no tendrían color, como ocurre en el siguiente ejemplo (para el que hemos elegido los mismos colores que la primera serigrafía).

Candidato a patrón básico (azul) y las rotaciones de 90, 180 y 270 grados, en el sentido contrario de las agujas del reloj (verde, amarillo y rojo)

 

Si observamos el candidato a patrón básico (azul) y sus giros en el sentido contrario a las agujas del reloj (verde, amarillo y rojo), podemos observar que hay cuatro casillas de los lados de la retícula que no quedarían cubiertas, no podríamos asignarles color según lo establecido, en concreto la tercera de la primera fila, la primera de la segunda fila, la cuarta de la tercera y la segunda de la cuarta. Y, además, las cuatro casillas del centro tendrían dos colores asignados cada una de ellas, las dos casillas centrales de la diagonal descendente tendrían asignados los colores azul y amarillo, mientras que las dos casillas centrales de la diagonal ascendente tendrían asignados los colores verde y rojo. En consecuencia, este candidato a patrón básico no sirve para generar una obra del estilo de las serigrafías de la serie de Max Bill.

Pero volvamos de nuevo a la serie 11 x 4 : 4 y representemos los once patrones básicos asociados a las once serigrafías de la misma.

Los once patrones básicos correspondientes a las once serigrafías de la serie 11 x 4 : 4 de Max Bill

Entonces, podemos observar más cosas, además del análisis anterior de que los cuatro cuadrados del patrón básico, junto a los cuadrados de cada una de las estructuras (4 cuadrados por estructura) que consisten en girar 90, 180 y 270 grados el patrón básico, llenan la retícula 4 x 4, como que los cuadrados del patrón básico (luego los cuadrados de un mismo color en cada serigrafía de la serie) o no se tocan o se tocan solo en un vértice, nunca comparten un lado entero.

Por ejemplo, ninguno de las dos creaciones siguientes que verifica la condición de ser cuatro estructuras de cuatro cuadrados, tal que cada una se relaciona con las otras mediante giros de 90, 180 y 270 grados, y que las cuatro juntas rellenan la retícula 4 x 4, podrían formar parte de la serie de Max Bill, ya que hay cuadrados del mismo color que se tocan en un lado.

¿Y si pensamos matemáticamente?

Entre las notas de Max Bill puede encontrarse una explicación (siguiente imagen) de cómo ha generado cada una de las once estructuras básicas (patrones básicos). En este apartado intentaremos explicar el motivo por el cual considera exactamente esos once patrones básicos para generar las obras de la serie. En su explicación gráfica, empieza con una estructura básica y desplaza uno de los cuatro cuadrados de la misma para obtener una nueva estructura básica, y así hasta el final. Por ejemplo, en su primera estructura básica (que es la primera de la segunda fila de la anterior imagen de las once estructuras básicas) desplaza el cuadrado de la tercera fila y cuarta columna, al cuadrado de la primera fila y tercera columna. Debemos percatarnos que al mover ese cuadrado solo tiene tres opciones para moverlo, ya que al girar tiene que cubrir los mismos cuatro huecos (casillas) que cubría el cuadrado que ha movido. Esto nos lleva a una pequeña reflexión matemática relacionada con este proceso creativo, lo que en matemáticas se denomina la “acción de un grupo sobre un conjunto”.

Max BillNota explicativa, de puño y letra de Max Bill, sobre el proceso creativo de la obra 11 x 4 : 4 (1970)

 

En este proceso creativo de Max Bill interviene un grupo algebraico, el grupo G de las rotaciones de un cuadrado que lo dejan invariante, que está formado por los giros de 0 grados (este giro es la identidad, no mover el cuadrado), 90 grados, 180 grados y 270 grados. En las entradas Cuadrados latinos, matemáticas y arte abstracto y La teoría de grupos en el arte contemporáneo: John Ernest se puede leer sobre la estructura algebraica de grupo, pero realmente no es necesario para entender esta entrada, cuya lectura podéis continuar sin necesidad de saber nada más que estamos trabajando con el grupo de rotaciones de un cuadrado, es decir, rotaciones de 0, 90, 180 y 270 grados. Además, se está considerando, de forma implícita, lo que se denomina la acción de un grupo sobre un conjunto. En este caso, el conjunto X estaría formado por las 16 casillas de la retícula, que en la siguiente imagen hemos nombrado con letras, de la a a la p, para entender mejor la acción del grupo.

Una acción de un grupo G sobre un conjunto X consiste en una aplicación que a cada elemento del grupo g (de G) y cada elemento del conjunto x (de X) se les asocia otro elemento del conjunto X, que denotamos gx, o g(x), que consiste en aplicar g sobre x. Por ejemplo, si g es el giro de 90 grados y x es la casilla a, entonces g(x) es la casilla d, o si g es el giro de 270 grados y x es la casilla j, entonces g(x) es la casilla f (la que se obtiene al girar 270 grados en el sentido contrario a las agujas del reloj). Más aún, si tomamos g = giro de 90 grados, podemos ver en la siguiente imagen cómo se moverían todas las casillas.

El proceso creativo de Max Bill está relacionado con lo que en matemáticas se llama las órbitas de una acción de un grupo sobre un conjunto. Dado un punto cualquiera x del conjunto X, se llama “órbita de x”, a todos los elementos del conjunto que se obtienen al aplicar los elementos del grupo G sobre ese elemento x. Escrito de forma matemática, la órbita de un elemento x sería el subconjunto {g(x): para todo g de G}. Por ejemplo, en nuestro caso, si tomamos la casilla a, resulta que al aplicarle los elementos del grupo (rotaciones de 0, 90, 180 y 270 grados) se obtienen las casillas {a, d, p, m} (las casillas de las esquinas). En total, en la acción que hemos descrito, relacionada con la serie artística de Max Bill, existen cuatro órbitas, la descrita antes y otras tres, todas ellas descritas en la siguiente imagen, en la que cada color describe los elementos de una misma órbita: {a, d, p, m} (rosa), {b, h, o, i} (azul claro), {c, l, n, e} (verde claro) y {f, g, j, k} (amarillo).

Las cuatro órbitas, cada una de un color, de la acción del grupo de las rotaciones de 0, 90, 180 y 270 grados sobre el conjunto de las 16 casillas de la retícula 4 x 4

 

¿Cómo se relaciona esto con el proceso creativo de Max Bill? Cada uno de los patrones básicos está formado por un cuadrado de cada una de las cuatro órbitas, como podéis comprobar en los once patrones básicos que hemos descrito más arriba. Por lo tanto, para crear los patrones básicos para obras de la serie de Max Bill hay que coger, para cada patrón básico, un cuadrado de cada órbita, pero con algunas condiciones que iremos explicando paso a paso.

Para empezar, de cada órbita tenemos 4 posibles cuadrados, luego existen 4 x 4 x 4 x 4 = 256 formas distintas de elegir un cuadrado de cada órbita, que son muchas formas para empezar. Como cada patrón básico, girado 90, 180 y 270 grados forma una obra de la serie de Max Bill, hay candidatos a patrones básicos de los 256 anteriores que darían lugar a la misma obra. Por ejemplo, en la siguiente imagen vemos cuatro de estos posibles patrones básicos, pero que dan lugar a la misma obra, ya que son iguales, salvo una rotación, de 90, 180 o 270 grados.

Estos cuatro candidatos a patrones básicos darían lugar a la misma obra de Max Bill, elegidos los colores convenientemente, ya que son iguales salvo una rotación de 90, 180 o 270 grados

 

Luego de esos cuatro elegiríamos solo uno, por ejemplo, el que tiene el cuadrado de la esquina superior izquierda. Este es el motivo por el cual más arriba pusimos la condición de que un patrón básico tenga el cuadrado de la esquina superior izquierda. En consecuencia, de los 256 candidatos a patrones básicos, nos quedaremos con 256 / 4 = 64, los que tienen el cuadrado de la esquina superior izquierda, los demás son iguales a estos salvo rotación.

Es decir, de la órbita de las casillas de las esquinas, tenemos fijada la asignación de la esquina superior izquierda, y es la elección de un cuadrado en cada una de las otras tres órbitas lo que nos genera los 64 candidatos a patrones básicos. Pero no todos estos candidatos son válidos. Como comentamos más arriba, los cuadrados elegidos no se pueden tocar lado con lado, luego hay que eliminar los candidatos a patrones básicos que, como los de la siguiente imagen, tengan cuadrados que comparten un lado.

Estos dos candidatos a patrones básicos no son válidos ya que en cada uno hay cuadrados, al menos un par, que comparten un lado

 

Ya tenemos documentadas las dos condiciones sobre los patrones básicos que habíamos observado en el apartado anterior, que la estructura básica rellene la retícula 4 x 4, mediante los giros de 90, 180 y 270 grados, y que no haya dos cuadrados que se toquen a través de un lado. Llegados hasta aquí, tenemos un problema de combinatoria:

¿cuántos patrones básicos existen?

Vamos a computar la cantidad de patrones, y describirlos, viendo las opciones que existen para los cuadrados de las otras tres órbitas. El primer cuadrado del patrón ya está fijado, en la esquina superior izquierda y el segundo cuadrado lo vamos a elegir de la órbita de los cuatro cuadrados centrales. Hay cuatro opciones para ese segundo cuadrado, puesto que no hay opción a que en alguna de las cuatro opciones tenga un lado en común con el cuadrado de la esquina, que son las que aparecen en la siguiente imagen.

Ahora, para cada una de esas cuatro opciones, vamos a ver dónde pueden colocarse los dos cuadrados que se corresponden con las otras dos órbitas. La primera de las cuatro opciones anteriores, la de la izquierda, que tiene los dos cuadrados que se tocan por un vértice, es diferente a las otras tres, por lo que vamos a analizarla primero. Para esa primera opción cada uno de los otros dos cuadrados tienen tres opciones cada uno, solo la opción en la que comparten lado con los otros dos cuadrados no es válida. Por lo tanto, de aquí se deducen 3 x 3 = 9 patrones básicos distintos, aunque hay que eliminar dos de ellos, puesto que coinciden los cuadrados en un mismo lateral de la retícula y se tocan en un lado, quedando solo 7 patrones básicos, que se muestran a continuación (los 7 negros, ya que hemos eliminado los dos rojos).

Para cada una de las otras tres opciones, cada uno de los otros dos cuadrados tienen dos opciones cada uno, luego cuatro patrones básicos para cada opción. Sin embargo, en dos de ellas dos de los cuadrados coinciden en uno de los lados, luego comparten lado, por lo tanto, en total son 10 estructuras más.

Para la primera opción …

Para la segunda opción …

Y para la tercera opción …

Por lo tanto, en total son 17 patrones básicos distintos. A continuación, los mostramos todos juntos, marcando en azul los correspondientes patrones de las 11 serigrafías de la serie 11 x 4 : 4 de Max Bill. Por lo tanto, existen 6 patrones básicos que no estarían, a priori, considerados por Max Bill, aunque veremos que esto no es así.

En la explicación de Max Bill sobre el proceso creativo, que hemos incluido más arriba, el artista concreto comenta “se han excluido cinco variantes por la inversión de los grupos II, III, IV, V y XI”. Lo que ocurre es que Max Bill ha añadido, además, otra forma, intuitiva y geométrica, de establecer que dos patrones básicos son el mismo. Expliquémosla.

Tomemos el primero de los patrones básicos de la clasificación anterior, que no está en la lista de las 11 estructuras básicas de Max Bill, el patrón que está en la segunda fila, primera columna. Imaginemos que es una estructura tridimensional, formada por pequeños cuadrados que tienen el mismo color, blanco o negro, en la cara superior y en la cara inferior, si diésemos la vuelta (por eso Max Bill habla de “inversión”) a nuestra retícula 4 x 4 tridimensional (cuyo resultado es el mismo que tomar la imagen especular respecto a la diagonal principal descendente) nos quedaría un patrón básico, imagen especular / inversión del anterior, como se muestra en la siguiente imagen, y podríamos considerar que son la misma estructura esencialmente (ya que una es simétrica de la otra). Y ese patrón básico al que es simétrico (el de la derecha de la imagen), sí está en el listado de los patrones básicos de Max Bill, véase más arriba, es el patrón II del documento del propio artista.

Veamos que los demás patrones básicos que, a priori, no estaban en la clasificación de Max Bill, son simétricos a alguno de los que sí está en la clasificación. Tomemos el patrón que está en la segunda fila y quinta columna, resulta que es simétrico (es como voltearlo) al patrón XI de Max Bill (véase la siguiente imagen).

Ahora vamos a considerar otro patrón básico que no estaba, el que está en la tercera fila y cuarta columna. Resulta ser simétrico, como se observa en la siguiente imagen, al patrón V de la clasificación de Max Bill.

El siguiente patrón básico a considerar es el que está es el primero de la cuarta fila, que resulta ser, como se muestra en la siguiente imagen, simétrico al patrón básico III de Max Bill.

Mientras que el segundo patrón básico de la cuarta fila es simétrico, como se muestra en la siguiente imagen, al patrón IV de Max Bill.

Y ahí tenemos las “inversiones de los grupos II, III, IV, V y XI” a las que alude el artista suizo y que aquí hemos denominado patrones simétricos respecto a los patrones (II, III, IV, V y XI) de la clasificación de Max Bill. Pero resulta que nos falta una estructura básica que no tuvo en cuenta Max Bill, la que está en la segunda fila y segunda columna. Aunque está también es simétrica a uno de los patrones de las de la clasificación de Max Bill, el patrón X.

En consecuencia, Max Bill realizó una clasificación completa de todas las estructuras básicas posibles para su serie de obras 11 x 4 : 4, sin dejarse ninguna fuera, como hemos comprobado mediante esta pequeña reflexión matemática sobre su proceso creativo. Dicho de otra forma, el proceso creativo de Max Bill utiliza elementos de la geometría, el álgebra y la combinatoria.

Max BillSystem mit Funf Vierfarbigen Zentren / Sistema con cinco centros de cuatro colores (1970), del artista concreto suizo Max Bill

 

Bibliografía

1.- R. Ibáñez, Las matemáticas como herramienta de creación artística, Libros de la Catarata – FESPM, 2023.

2.- Max Bill, El pensamiento matemático del arte de nuestro tiempo, 1949.

3.- Valentina Anker, Max Bill ou la recherche d´un art logique, Editions l´Age d´Homme, 1979

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Once cuatro cuatro, mirar el arte con ojos matemáticos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Una ecuación de estado general para el simulador cuántico de Fermi-Hubbard

Mar, 2024/03/05 - 11:59

Se han caracterizado las propiedades termodinámicas del modelo de Fermi-Hubbard, que utiliza átomos fríos para simular distintos fenómenos en física de la materia condensada.

Fermi-Hubbard

Cuando un determinado sistema cuántico resulta difícil de investigar, una opción es estudiar otro que sea físicamente equivalente pero más accesible. Por ejemplo, para comprender cómo se comportan los electrones en un sistema de electrones fuertemente correlacionados (un problema experimental y teóricamente no trivial), los investigadores pueden estudiar una red de átomos fríos (un sistema controlable que obedece las mismas reglas estadísticas que el sistema electrónico más complejo).

Ahora, un equipo de investigadores ha caracterizado exhaustivamente la ecuación de estado para la versión general de un modelo que se emplea para traducir el comportamiento de los átomos fríos en una red al de los electrones correlacionados. Sus resultados confirman la fiabilidad de los tratamientos numéricos de vanguardia de este modelo, lo que lo hace aún más atractivo para estudiar nuevos fenómenos en física de la materia condensada.

El modelo en cuestión es el de Fermi-Hubbard, que tiene en cuenta las interacciones entre átomos fermiónicos en una red. Los átomos preparados con dos estados posibles se utilizan para explorar problemas que involucran las dos direcciones de espín de un electrón, como el transporte de electrones, mientras que los átomos con más estados se utilizan para explorar fenómenos más complejos, como los nuevos tipos de magnetismo. La ecuación de estado para el modelo de dos estados de Fermi-Hubbard se había caracterizado previamente numérica y experimentalmente. Pero los modelos multiestado, que son más difíciles de manejar numéricamente, siguen siendo mucho menos comprendidos.

Los investigadores utilizaron átomos de iterbio-173, que pueden adoptar seis estados posibles. Midieron las propiedades termodinámicas del modelo multiestado de Fermi-Hubbard utilizando una red de estos átomos y compararon los resultados con las predicciones utilizando los últimos cálculos numéricos disponibles. Las mediciones también accedieron a regímenes que a día de hoy son numéricamente intratables y proporcionaron los datos para derivar una ecuación de estado general para el modelo de Fermi-Hubbard.

Referencias:

G. Pasqualetti, O. Bettermann, N. Darkwah Oppong, E. Ibarra-García-Padilla, S. Dasgupta, R. T. Scalettar, K. R. A. Hazzard, I. Bloch, and S. Fölling (2024) Equation of State and Thermometry of the 2D SU(N) Fermi-Hubbard Model Phys. Rev. Lett. doi: 10.1103/PhysRevLett.132.083401

M. Stephens (2024) A General Equation of State for a Quantum Simulator Physics 17, s27

Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad Politécnica de Madrid

El artículo Una ecuación de estado general para el simulador cuántico de Fermi-Hubbard se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Eris y Makemake… ¿dos planetas enanos “vivos”?

Lun, 2024/03/04 - 11:59

Hace apenas dos semanas hablábamos en planeta B sobre como, en ocasiones, las apariencias engañan y un cuerpo planetario que a simple vista parece no tener ningún tipo de actividad geológica, como es el caso de Mimas, podría estar más vivo -en el sentido geológico de la palabra- de lo que pensamos. Y es que los últimos estudios apuntan a que la actividad geológica no solo es algo con lo que nazcan los planetas, satélites y otros cuerpos menores, sino que, a lo largo de toda su evolución, pueden sufrir procesos capaces de aportar una energía a su interior que los mantenga activos durante más tiempo… o incluso volver a ponerlos en marcha por completo.

Esta etapa de actividad tardía probablemente solo ocurra en los satélites de los gigantes gaseosos, ya que esa “nueva” fuente de energía puede ser simplemente otorgada por una interacción gravitatoria con otros satélites del sistema o con el planeta al que orbita, generando unas mareas que al estirar y encoger su interior como un acordeón transformen su fricción en calor, el responsable último de esta renovada actividad geológica.

Eris y su satélite Disnomia vistos con el Telescopio Espacial Hubble. Tiene un diámetro de 615 kilómetros, convirtiéndolo en el segundo satélite más grande de un planeta enano tras Caronte. Cortesía de NASA/ESA y Mike Brown.

Pero hoy nos vamos a marchar mucho más lejos: Dejaremos el reino de los gigantes gaseosos y nos dirigimos hasta el reino de los objetos transneptunianos, aquellos objetos que giran alrededor del Sol más allá de la órbita de Neptuno y donde se esconden nuestros dos protagonistas de hoy: los planetas enanos Eris y Makemake.

Debido a la enorme distancia que nos separa de estos objetos, Makemake tarda en completar una órbita algo más de 306 años y Eris unos 560, sabemos muy pocos detalles sobre ellos porque, además, no son objetos muy grandes, por lo que observar detalles de su superficie es, ahora mismo, una quimera hasta con los mejores telescopios.

Pero no todo está perdido y gracias a la buena “vista” del JWST en longitudes de onda infrarrojas parece que estos cuerpos que pensaríamos que son bastante anodinos, fríos y sin ninguna actividad… igual también se guardan un as debajo de la manga, aumentando el interés de los científicos por explorarlos un poco más de cerca.

Y es que un nuevo estudio publicado en Icarus por Glein et al. (2024) usa los datos de este telescopio espacial para intentar responder al origen del metano que observamos en la superficie de estos planetas enanos, puesto que este puede provenir al menos de tres fuentes: un origen primordial, heredado de la nebulosa protoplanetaria que dio origen del Sistema Solar, un origen abiótico a partir del monóxido o dióxido de carbono o, por último, el origen termogénico a partir de la descomposición de compuestos orgánicos.

Para resolver esta cuestión, los científicos han estudiado la proporción isotópica entre el deuterio y el hidrógeno. El deuterio es un isótopo pesado del hidrógeno, con un protón y un neutrón en su núcleo, mientras que el hidrógeno más abundante solo tiene un protón.

MakemakeMakemake y su satélite MK2 vistos también por el Hubble en abril de 2015. El diámetro de este pequeño satélite es de unos 175 kilómetros. Cortesía de NASA, ESA, A. Parker y M. Buie

Esta proporción -o ratio, como les sonará a algunos de ustedes- entre ambos es muy importante en las ciencias planetarias, ya que nos permite estudiar el origen del agua, por ejemplo, y también de otros compuestos que llevan hidrógeno, como en este caso es el metano, así como las condiciones en las que se ha formado o incluso las distintas rutas geoquímicas por las que puede haber circulado.

Pero esto no es suficiente… ¿Cómo adscribimos esta proporción observada a un origen u otro? Los investigadores no solo han tomado los datos del JWST que nos permiten conocer esta proporción, sino que han trabajado en complejos modelos geoquímicos que simulan la evolución de la proporción isotópica D/H en el metano a partir de distintos orígenes para ver cual se aproxima más a los datos reales.

El resultado: El ratio D/H observado en Eris y Makemake no tiene un origen primordial, sino que debería haberse formado a partir de procesos abióticos o termogénicos. Y no solo eso, sino que necesitaría una temperatura superior a los 150 °C para formarse, lo que requiere de una gran cantidad de energía interna que permita alcanzar esta temperatura.

¿Qué fuentes de energía pueden tener estos planetas enanos? Pues la única explicación plausible para la presencia de una fuente de energía activa en la actualidad y que permita altas temperaturas en su interior sería la desintegración de los elementos radioactivos en su núcleo rocoso. Este calor podría facilitar la producción de metano a través de procesos hidrotermales o metamórficos, de tal manera que compuestos inorgánicos u orgánicos -orgánicos no en el sentido de con origen biológico- puedan transformarse en este metano a través de reacciones químicas.

Y esto tiene una importante derivada: si hay actividad hidrotermal, podría también existir un océano subterráneo gracias a un calor que podría fundir el hielo y mantener el agua en estado líquido durante largos periodos de tiempo -largos a nivel geológico- bajo la capa de hielo y donde, por supuesto, dando lugar a los fenómenos hidrotermales que, por un lado, general el metano que posteriormente llega a la superficie a través de fracturas así como generar posibles ambientes habitables en las profundidades de estos océanos, donde haya un intercambio de energía, pero también de sustancias disueltas que proceden del núcleo rocoso.

Por lo tanto, este estudio abre también una puerta a que ambos planetas enanos sean también de un gran interés astrobiológico y no solo geológico, lo que podría ayudar a que en el futuro -esperamos que no dentro de muchas décadas- podamos ver una misión que nos permita, por primera vez, visitar estos lejanos mundos.

Referencias:

Glein, C. R., Grundy, W. M., Lunine, J. I., Wong, I., Protopapa, S., Pinilla-Alonso, N., Stansberry, J., Holler, B. J., Cook, J. C., & Souza-Feliciano, A. C. (2024). Moderate D/H ratios in methane ice on Eris and Makemake as evidence of hydrothermal or metamorphic processes in their interiors: Geochemical analysis Icarus doi: doi: 10.1016/j.icarus.2024.115999

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Eris y Makemake… ¿dos planetas enanos “vivos”? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Lo de la Luna fue real

Dom, 2024/03/03 - 11:59
conspiratoriasGene Cernan conduciendo un vehículo eléctrico en la superficie de la Luna en diciembre de 1972. Fuente: NASA

Si alguna vez han intentado ustedes argumentar con una de esas personas que creen que la llegada a la Luna fue un montaje, se habrán dado cuenta de lo difícil que resulta convencerles de lo contrario. Se trata de una de las más conocidas y persistentes hipótesis conspiratorias que, gracias a las redes sociales, circulan por todo el mundo y que lamentablemente no dejan de ganar adeptos de día en día. La confianza que esta peculiar categoría de pensadores tiene en sus creencias suele rozar el convencimiento absoluto y entre sus más coloridas versiones está la que propone —siguiendo con la categoría de “la llegada a la Luna que nunca ocurrió”— que el director Stanley Kubrick fue contratado por la administración Nixon para filmar las escenas del alunizaje que en su día se televisaron al mundo entero (1, 2). Por sorprendente que parezca, esta “teoría” ha ido ganando fuerza a lo largo de los años, hasta el punto de que la propia agencia espacial norteamericana, NASA, hubo de sacar un desmentido oficial (3) en un par de ocasiones (la primera en 1977 y de nuevo en 2001) asegurando que las muestras lunares que trajeron los astronautas y el sentido común deberían ser suficientes para desmontar cualquier teoría que sugiera que el Apollo 11 nunca llegó a la Luna. Por desgracia, el negacionismo es impermeable a las evidencias y el sentido común no abunda entre los conspiracionistas.

La necesaria enormidad de las tramas conspiratorias

De entre los muchos esfuerzos que la ciencia viene haciendo por contrarrestar esta peculiar parcela de ignorancia y oscurantismo, destaca la del biólogo David Robert Grimes, quien en 2016 se tomó la molestia de elaborar una ecuación para calcular el número de personas que deberían estar implicadas en una conspiración a gran escala y cuánto tiempo tardaría el secreto en hacerse de dominio público (4). Por supuesto, cuanto mayor sea el primero, menor será el segundo, algo que la propia intuición sugiere, pero que Grimes tradujo en cifras concretas: “Bajo circunstancias ideales, solo sería posible que un evento conspiratorio escapase de la detección si el número de conspiradores implicados fuese muy pequeño (<<1000).” En el caso concreto de una supuesta falsa llegada a la Luna, el número aproximado de personas implicadas sería de 411.000, tomando como referencia a los empleados en la NASA en aquel momento, 1965. Esta cifra es tan elevada que convierte en ridícula la idea de un complot semejante. Simplemente, no es posible que tantas personas estén involucradas en un secreto, sea cual sea, sin que el resto del mundo se entere más pronto que tarde, y de acuerdo a los cálculos de Grimes, el engaño habría acabado por salir a la luz en el plazo de 3.68 años, como mucho.

Por supuesto, las fórmulas que Grimes utilizaba en su estudio trabajaban con estimaciones aproximadas y reconocía que había en ellas una considerable, pero inevitable ambigüedad, en concreto a la hora de determinar el número de personas que estarían al tanto de una supuesta conspiración. Por establecer una comparación, vendrían a ser algo parecido a la ecuación que en su día propuso el astrónomo Frank Drake para calcular cuántas civilizaciones tecnológicamente avanzadas podría haber en la Vía Láctea. Tanto en un caso como en el otro, la intención final no es hacer una descripción precisa de la realidad a la que cada uno se refiere, sino proporcionar una idea aproximada de dicha realidad.

Por desgracia, desde que Grimes publicó su estudio, el número de teorías conspiratorias no ha hecho sino crecer, y en ámbitos que, en algunos casos, afectan directamente a nuestro bienestar. Este es el caso de las relacionadas con las vacunas contra el COVID, a las que se acusa de todo tipo de males —la última de las cuales (5) afirma que podría dañar el ADN de los pacientes— y que han provocado un descenso en el número de personas vacunadas. Se da la circunstancia de que quienes niegan la eficacia de las vacunas promueven, además, el uso de sustancias que han resultado ser dañinas para la salud, como ha sido el caso de la hidroxicloroquina. Un reciente estudio publicado en Biomedicine & Pharmacotherapy (8) ha revelado que la hidroxicloroquina —impulsada en su momento por medios populistas— está asociada con un incremento de un 11% en la tasa de mortalidad entre afectados por COVID.

Populismo político y ausencia de grises

Aunque, por otro lado, los estudios académicos sobre este fenómeno social siguen apareciendo también con mayor frecuencia. Uno de ellos, publicado el pasado año, es el realizado por Marc Guinjoan (Universidad Oberta de Catalunya) y Carol Galais (Universidad Autónoma de Barcelona), quienes concluyen que la narrativa conspiratoria precede a las actitudes populistas en el ámbito político, al favorecer una visión dualista de la realidad (6). En dichas conclusiones, los investigadores tampoco descartan un camino inverso, es decir, que la exposición a discursos populistas termine haciendo que algunas personas abracen creencias conspiratorias y señalan que sería interesante realizar nuevos estudios que aclaren la relación causa y efecto entre ambos. La abundancia y diversidad de factores que intervienen en este proceso —edad, nivel cultural, inclinaciones políticas previas, exposición a los medios de comunicación— hace que sea difícil establecer una relación unívoca entre cualquiera de esta causas y el resultado.

En el lado opuesto estaría el ensayo de Seth J. Hill y Margaret E. Roberts, ambos de la Universidad de California San Diego, quienes advierten que las elevadas tasas de creencias en teorías conspiratorias que algunas encuestas proporcionan, podrían no ser exactas (7). Los investigadores californianos aseguran que buena parte de ellas podrían haberse visto afectadas por el sesgo de aquiescencia o la tendencia inconsciente a confirmar lo que nos preguntan. Proponen, para futuros sondeos de opinión, preguntas de respuesta múltiple y correctamente redactadas como alternativa a las respuestas “sí/no” habituales. En realidad, los resultados de Hill y Roberts son de utilidad para quienes investigan la opinión pública sobre cualquier cuestión de interés social —no solo teorías conspiratorias— de cara a obtener unos resultados más precisos y reales. Los análisis estadísticos son valiosas herramientas para obtener una imagen comprensible de una realidad demasiado amplia o compleja como para percibirla a simple vista. Sin embargo, es importante que no se vean afectados por sesgos o errores de procedimiento que puedan tergiversar sus resultados.

David Grimes advertía que las teorías conspiratorias socavan la credibilidad de las instituciones gubernamentales y la de quienes utilizan la razón y las evidencias contrastables para alcanzar la verdad. Guinjoan y Galais, por su parte, consideran que el pensamiento maniqueísta asociado a las creencias conspiratorias afecta a la forma en que concebimos las sociedades democráticas y es incompatible con escenarios políticos pluralistas y no polarizados. Por todo ello nuevos estudios científicos en este campo serán muy bienvenidos, pues la proliferación de las teorías conspiratorias no deja de ser, en realidad, un síntoma de una preocupante enfermedad social: la desconfianza de la población en sus clases dirigentes y en sus instituciones. Los resultados de dichas investigaciones, más allá de sus aspectos anecdóticos, podrían contribuir a encontrar la cura y recuperar esa tan necesaria salud social.

Referencias:

  1. How moon landing conspiracy theories began and why they persist today.’ Manchester 1824. The University of Manchester.
  2. The Flat-out Truth: Earth Orbits? Moon Landings? A Fraud! Says This Prophet.’ Robert J. Schadewald, Science Digest, July 1980.
  3. ‘Did U.S. Astronauts Really Land on the Moon?’ NASA Facts. February 14, 2001 (Reissued). Wayback Machine (archive.org)
  4. ‘On the Viability of Conspiratorial Beliefs.’ David Robert Grimes. PLOS ONE. January 26, 2016. https://doi.org/10.1371/journal.pone.0147905
  5. No, COVID mRNA Vaccines Won’t Damage Your DNA’. Tanya Lewis, SCYAM, January 4, 2024.
  6. ‘I want to believe: The relationship between conspiratorial beliefs and populist attitudes in Spain’. Marc Guinjoan and Carol Galais. Science Direct, February 2023. https://doi.org/10.1016/j.electstud.2022.102574
  7. ‘Acquiescence Bias Inflates Estimates of Conspiratorial Beliefs and Political Misperceptions.’ Seth J. Hill and Margaret E. Roberts. Political Analysis, January 2023. https://doi.org/10.1017/pan.2022.28
  8. ‘Deaths induced by compassionate use of hydroxychloroquine during the first COVID-19 wave: an estimate.’ Alexiane Pradelle et al. Biomedicine & Pharmacotherapy, February 2024. https://doi.org/10.1016/j.biopha.2023.116055

 

Sobre el autor: Juan F. Trillo es doctor en Lingüística y Filosofía por la Universidad Autónoma de Madrid y doctor en Estudios Literarios por la Universidad Complutense de Madrid.

El artículo Lo de la Luna fue real se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Leyendo el ADN marino

Sáb, 2024/03/02 - 11:59

ADN marino

El océano, además de constituir una importante fuente de recursos, es un elemento clave en el funcionamiento del planeta. A pesar de ello, el conocimiento sobre este ecosistema sigue siendo bastante limitado, sobre todo en lo que respecta a las capas más profundas.

La investigadora de AZTI Naiara Rodríguez-Ezpeleta aporta una visión no muy conocida de los océanos con la  charla “Leyendo el ADN marino: un viaje para comprender la ecología y evolución de los océanos” dentro del ciclo Zientziaren Ertzetik.

La bióloga y doctora en Bioquímica por la Universidad de Montreal aborda en ella cómo los avances en el campo de la genética han posibilitado estudios de ADN que se han convertido en una oportunidad para comprender la ecología y la evolución de los ecosistemas marinos. Unos estudios que abarcan desde la comprensión del origen de la vida hasta el establecimiento de cuotas de captura de especies pesqueras.

La charla, organizada por la Cátedra de Cultura Científica de la UPV/EHU y la Biblioteca Bizenta Mogel de Durango, tuvo lugar el 9 de febrero en la misma biblioteca.

Ponente

Naiara Rodríguez-Ezpeleta, natural de Durango, es licenciada en Biología por la Universidad del País Vasco y doctora en Bioquímica por la Universidad de Montreal (Quebec, Canadá). Durante su carrera investigadora Rodríguez-Ezpeleta ha aplicado técnicas genéticas a ámbitos tan diversos como el origen de la célula eucariota y la fotosíntesis o la evolución humana y las asociaciones genéticas de enfermedades complejas. Actualmente, es investigadora en AZTI, aplicando sus conocimientos en ecología y evolución molecular para entender los ecosistemas marinos y sus recursos, y así mejorar su gestión y conservación.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Leyendo el ADN marino se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Potencial diana terapéutica contra el miedo

Vie, 2024/03/01 - 11:59
miedoFuente: Alex Green / Pexels

Los trastornos relacionados con el miedo reúnen algunas de las afecciones psiquiátricas más diagnosticadas, entre ellas el trastorno de pánico, varias fobias y el trastorno de estrés postraumático. Estos trastornos son muy perturbadores para la vida profesional y social de las personas afectadas y representan costes sociales considerables.

Un equipo de investigación liderado por la Universidad de Coimbra (UC), en el que también ha participado Garikoitz Azkona Mendoza, profesor titular de la UPV/EHU, ha identificado un nuevo mediador responsable de la alteración de los recuerdos relacionados con el miedo. El equipo científico cree que este descubrimiento podría ayudar a crear nuevas terapias más eficaces para el tratamiento de los trastornos de ansiedad. Estas patologías se caracterizan por un miedo exagerado o inapropiado y un déficit en la extinción de este, y son una de las afecciones de salud más prevalentes en todo el mundo, agravadas por la pandemia.

En el estudio, haciendo uso de un modelo conductual para la extinción del miedo, el equipo ha podido identificar «un aumento de la activación de la proteína TrkC en la amígdala (la región cerebral que controla la respuesta al miedo) en la fase de formación de recuerdos de extinción del miedo, lo que conduce a un aumento de la plasticidad sináptica (la capacidad de las neuronas de cambiar la forma en que se comunican entre sí en función de los estímulos que reciben)», explica Mónica Santos, investigadora del Centro de Neurociencia y Biología Celular de la UC (CNC-UC) y del Centro de Innovación en Biomedicina y Biotecnología (CIBB).

Actualmente, una de las opciones terapéuticas para los trastornos de ansiedad es la terapia de exposición, que se basa en el mecanismo de extinción del miedo. Sin embargo, «las terapias de exposición, así como el uso de fármacos como ansiolíticos y antidepresivos, no son 100 % eficaces en el tratamiento de estos problemas de salud y, por ello, esta investigación abre nuevas opciones terapéuticas para esta categoría de trastornos», afirma Mónica Santos.

«Este estudio valida la vía TrkC como potencial diana terapéutica para personas con trastornos relacionados con el miedo y revela que la combinación de terapias de exposición con fármacos que potencian la plasticidad sináptica puede representar una forma más eficaz y duradera de tratar los trastornos de ansiedad», añade la responsable de la investigación.

En cuanto a los próximos pasos, el equipo de investigación pretende «identificar compuestos que tengan la capacidad de activar específicamente la molécula TrkC y así poder ser utilizados como fármacos aliados a la terapia de exposición en el tratamiento de pacientes con trastornos de ansiedad», explica la investigadora.

Referencia:

Gianluca Masella, Francisca Silva, Elisa Corti, Garikoitz Azkona, Maria Francisca Madeira, Ângelo R. Tomé, Samira G. Ferreira, Rodrigo A. Cunha, Carlos B. Duarte & Mónica Santos (2024) The amygdala NT3-TrkC pathway underlies inter-individual differences in fear extinction and related synaptic plasticity Molecular Psychiatry doi: 10.1038/s41380-024-02412-z

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Potencial diana terapéutica contra el miedo se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿De dónde ha salido este fósil?

Jue, 2024/02/29 - 11:59
Foto: Kvnga / Unsplash

Cuando estamos haciendo un estudio geológico en algún lugar porque queremos descubrir qué medio ambiente se desarrolló en esa zona hace millones de años, lo más fácil es buscar un afloramiento de rocas sedimentarias e intentar identificar algún fósil que nos dé una pista rápida. Así, si en una roca aparecen, por ejemplo, los restos fosilizados de un trilobites, diremos que esos materiales se formaron en el fondo del mar. Incluso, podemos asignarle una edad aproximada a esa roca, en este caso hace entre 500 y 250 millones de años, ya que es el rango de tiempo geológico desde que aparecieron los trilobites hasta que se extinguieron.

Hasta aquí todo muy fácil, pero, ¿de verdad es así de sencillo en la vida real? ¿Y si os dijera que ese fósil no se formó ni en el mismo sitio ni en el mismo momento en que lo hizo la roca en la que aparece? Pues, para evitar sacar este tipo de conclusiones erróneas a la hora de realizar las reconstrucciones de los ambientes del pasado, existe una disciplina de la Paleontología llamada tafonomía. Su nombre, procedente del griego y que viene a significar algo así como “normas de enterramiento”, ya nos está indicando que se trata de aquellos estudios que se les realizan a los restos bióticos para comprender sus aventuras y desventuras desde que pasan a formar parte del registro sedimentario hasta que nos los encontramos fosilizados en la actualidad.

Fotografía de lupa binocular de una población viva normal, formada por una mezcla de ejemplares adultos y juveniles, de una especie de ostrácodo típica de medio ambiente de lago somero. Foto: Blanca María Martínez

Para ponernos en situación de para qué sirve la tafonomía, voy a hacer un pequeño símil. Si, en la actualidad, queremos conocer los organismos que habitan en un medio ambiente concreto, nos vamos allí y hacemos un censo de los que viven, comen, se reproducen y mueren en ese medio, dejando aparte aquellos que, digamos, pasan por allí de repente (como si fuese un área de servicio, parando un momento para comer o descansar antes de seguir su viaje), ya que estos últimos no habitan en ese ambiente y podrían darnos una información errónea sobre su ecología. Pues gracias a la tafonomía podemos hacer lo mismo en los medios del pasado, identificar los organismos que realmente habitaban el ambiente en el que se formó la roca donde encontramos los restos fósiles, a los que llamamos asociación autóctona, separándolos de aquellos que han acabado depositados en este medio por haber sufrido algún tipo de transporte tras su muerte, a los que denominamos asociación alóctona.

Para poder diferenciar entre elementos alóctonos y autóctonos debemos fijarnos en el aspecto que presentan todos los restos que componen la asociación fósil encontrada en la roca y, para ello y de manera muy resumida, utilizamos tres grandes grupos de herramientas tafonómicas que son indispensables a la hora de realizar reconstrucciones paleoambientales.

Las herramientas tafonómicas

La primera es el análisis poblacional. En este caso no me refiero a que haya mucha o poca diversidad de organismos, con diferentes grupos y especies, porque eso depende de las condiciones ecológicas del medio, sino que tenemos que prestar atención a qué ejemplares aparecen en cada una de las especies. En una asociación autóctona aparecerá una mezcla de adultos y juveniles y, si tienen dimorfismo sexual, machos y hembras. Pero si únicamente encontramos ejemplares adultos o solo ejemplares juveniles, debemos sospechar que han sido transportados por corrientes de agua desde otro lugar y se han depositado en el medio en el que se formó esa roca, por lo que no nos darían una información fiable de este ambiente.

Ejemplos de procesos de alteración mecánica en el exterior de dos valvas de dos especies marinas de ostrácodos actuales. A) Abrasión; F) Fractura; R) Rotura; P) Perforación. Fotografías de Microscopio Electrónico de Barrido, donde la escala representa 0,1mm. Foto: Blanca María Martínez

La segunda herramienta es el estudio de las alteraciones mecánicas que han sufrido los restos fósiles. Aquí se incluye el análisis de todas las fracturas, roturas, abrasiones y perforaciones que se pueden observar en los ejemplares. Por regla general, cuanta mayor es la alteración mecánica que sufren, mayor ha sido el transporte hidrodinámico de estos organismos, por lo que aquellos que se encuentran más afectados representarían la asociación alóctona que debemos descartar. Pero, como en toda regla, hay algunas excepciones que la confirman. Por ejemplo, en algunas ocasiones podemos encontrarnos con elementos fósiles muy frágiles, ya que los organismos no necesitaban generar unos caparazones gruesos para proteger su cuerpo blando porque no estaban sometidos a condiciones ecológicas demasiado exigentes. Es habitual que estos restos aparezcan muy fracturados, pero no porque sufrieran un transporte durante su depósito, sino porque se nos han roto durante la extracción y procesado de las muestras en el laboratorio. O también es frecuente que aparezcan ejemplares muy perforados y rotos debido a la bioturbación de otros animales que rompieron la coraza para alimentarse de sus partes blandas. Y esto indica que, o bien estaban vivos en ese momento y fueron depredados, o bien acababan de morir y acudieron los carroñeros para comérselos. En estos dos casos especiales, esas especies formarían parte de la asociación autóctona.

Grados de alteración mecánica en valvas de una especie de ostrácodo típica de arroyos actuales. Los grados 1 y 2 corresponden con ejemplares autóctonos, mientras que los grados 3, 4 y 5 representan ejemplares alóctonos. Fotografías de Microscopio Electrónico de Barrido, donde la escala representa 0,1mm. Foto: Blanca María Martínez

Y la tercera herramienta tafonómica es el análisis de las alteraciones químicas de los ejemplares. En este caso, se trata de identificar disoluciones, recristalizaciones (un mineral de nueva formación reemplaza a otro de su misma composición) o encostramientos (formación de una capa mineral superficial generalmente de diferente composición) en los restos fósiles. Estas alteraciones se pueden producir durante el depósito de los ejemplares antes de su enterramiento o, de manera más habitual, durante el propio proceso de fosilización y formación de las rocas. Para diferenciar entre la asociación fósil autóctona y la alóctona, hay que comprobar el aspecto general de la muestra que estemos estudiando, incluida la propia roca que incluía los restos: si los ejemplares han sufrido los mismos procesos de alteración química que el resto de la muestra, son autóctonos; si tienen un grado de conservación diferente, son alóctonos.

Ejemplos de procesos de alteración química en la superficie interna (A) y externa (B y C) de tres especies de ostrácodos típicos de estuarios y marismas. A) Recristalización; B) Disolución; C) Encostramiento. Fotografías de Microscopio Electrónico de Barrido, donde la escala representa 0,1mm. Foto: Blanca María MartínezEn qué ambiente vivió el fósil

Una vez realizado el análisis tafonómico completo podemos identificar los restos fósiles que componen la asociación autóctona, que nos permitirá realizar la reconstrucción paleoambiental de ese medio, así como darle una edad geológica lo más precisa posible. Pero no debemos descartar por completo la asociación alóctona, porque nos estará dando información de ciertos procesos hidrodinámicos que acontecieron en este ambiente, pudiendo también identificar el área fuente de las corrientes de agua.

Para explicarme, que este último párrafo me ha quedado demasiado técnico, voy a volver al ejemplo del principio, esa roca con restos de trilobites que no eran de ahí. Imaginaos que, después de estudiar la muestra con detalle hemos identificado una asociación autóctona formada por organismos microscópicos que nos permiten caracterizar el medio como un lago continental de hace unos 20 Millones de años en el que desembocaban algunos pequeños ríos y arroyos en momentos esporádicos. Pues la presencia de unos restos de trilobites alóctonos de hace unos 300 Millones de años nos estaría diciendo que esos riachuelos procederían de unas rocas concretas situadas al norte de ese lago, no de otras circundantes al sur, porque son las únicas de esa edad y que incluyen ese tipo de fósiles. Es decir, que gracias a la asociación transportada podemos complementar algunos detalles de la reconstrucción paleoambiental realizada con la asociación autóctona.

Los estudios tafonómicos son básicos en cualquier estudio paleontológico para evitar meter la pata en tus conclusiones y lo tenemos tan interiorizado que lo vamos haciendo sobre la marcha según estudiamos la muestra. Pero, como os he dicho antes, para hacerlo bien tenemos que tener una visión general de la roca y de todos los restos fósiles que incluye, ya que hay que comparar el aspecto de los organismos que vayamos a estudiar con todo lo demás. Por este motivo, siempre decimos a la gente que nunca extraiga fósiles de las rocas en las que están si se encuentran alguno durante sus excursiones, porque sacarían el ejemplar de contexto y perdería todo el valor científico y toda la información que nos puede aportar. Recuerda, si te encuentras un fósil en alguna roca, sácale una foto y déjalo donde está, o destruirías millones de años de información que nos permiten reconstruir la historia de este planeta.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo ¿De dónde ha salido este fósil? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La teselación de József Kürschák

Mié, 2024/02/28 - 11:59

József Kürschák nació el 14 de marzo de 1864 en Buda (Hungría). Su padre, András Kürschák, falleció cuando él tenía solo seis años. A partir de entonces fue criado solo por su madre, Jozefa Teller, en Budapest (fundada en 1872 al unificarse las ciudades de Buda, Óbuda y Pest), ciudad que se había convertido en un lugar privilegiado de educación y de vida intelectual y artística. Allí Kürschák asistió a la escuela secundaria.

KürschákJózsef Kürschák. Fuente: Wikimedia Commons.

 

Ingresó en la Universidad Politécnica de Budapest en 1881 y se graduó en 1886. Tras dos años trabajando como docente de matemáticas y física en una escuela de enseñanza secundaria en Eslovaquia, regresó a la Universidad Politécnica de Budapest para dedicarse a la investigación. Se doctoró en 1890 y durante toda su carrera siguió vinculado a este centro de enseñanza superior.

La teselación de Kürschák

En un artículo publicado en 1978 en la revista The Mathematical Gazette, los autores (los matemáticos Gerald L. Alexanderson y Kenneth Seydel) describían un trabajo de Kürschák, escrito en 1898, en el que se estudian algunas propiedades de un dodecágono regular inscrito en la circunferencia unitaria.

Los autores dedican su texto a demostrar el siguiente teorema:

El área de un dodecágono regular inscrito en una circunferencia unitaria es 3.

Podría parecer extraño destinar un artículo de cinco páginas a probar este resultado, puesto que el área de los polígonos regulares (inscritos en una circunferencia unitaria) se calcula sin dificultad usando herramientas trigonométricas. De hecho, es:

donde n es el número de lados del polígono. Es decir, en este caso en el que n = 12, el área es 3.

Sin embargo, el argumento que empleaba Kürschák es puramente geométrico. Se trata de una prueba sin palabras en la que el matemático demuestra que un dodecágono puede diseccionarse en un conjunto de triángulos que, reorganizados de la manera adecuada, rellenan tres cuadrados de lados de longitud 1. Y Kürschák usa para ello una teselación, de la que los autores del artículo de 1978 dicen con admiración:

La teselación es tan bonita e ingeniosa que creemos que debería conocerse mejor.

KürschákLa teselación de Kürschák. Fuente: Wikimedia Commons.

 

Esta teselación de un cuadrado posee dos tipos de baldosas triangulares: son 16 triángulos equiláteros (cuyos lados son de la misma longitud que los lados del dodecágono) y 32 triángulos isósceles (cada rombo de color rosa está formado por dos de ellos, iguales a los ocho que definen el perímetro del cuadrado. Dos de sus ángulos son de 15 grados y el restante de 150 grados) dispuestos como se indica en la imagen superior. En la siguiente animación se puede ver cómo se utiliza la teselación de Kürschák para calcular el área de dodecágono.

https://www.youtube.com/watch?v=7lCJDdD_fHs

Sin duda, Gerald L. Alexanderson y Kenneth Seydel tienen razón en que es una demostración tan hermosa que vale la pena recordarla.

József Kürschák: investigador y docente

Kürschák no sólo se dedicó a la construcción de demostraciones geométricas sin palabras. Trabajó en diferentes ramas de las matemáticas, entre otras, en ecuaciones diferenciales, álgebra, teoría de números o cálculo de variaciones.

En la década de 1910 obtuvo el reconocimiento internacional por su teoría de valoraciones, según la cual, al generalizar el valor absoluto y el valor límite, estos conceptos pueden extenderse a estructuras abstractas. Esta teoría fue posteriormente completada por Alexander Ostrowski.

En teoría de números, simplificó la demostración de David Hilbert de la conjetura de Waring (todo número natural puede expresarse como suma de no más de cuatro cuadrados, de 9 cubos, de 18 cuartas potencias, etc.). Además, en varios de sus trabajos se ocupó de la irreducibilidad de determinantes y matrices.

Kürschák fue un docente apreciado. Muchos reconocidos matemáticos disfrutaron de sus enseñanzas, entre ellos John von Neumann, Edward Teller o Dénes König, que defendió su tesis doctoral (Elementary Discussion of Rotations and Finite Rotation Group of a Space of Many Dimensions) en 1907 con una memoria supervisada por Kürschák y Hermann Minkowski.

KürschákUniversidad de Szeged, 1928. De izquierda a derecha (de pie): Frigyes Riesz, Béla Kerékjártó, Alfréd Haar, Gyula Kőnig, Rudolf Ortvay. Sentados en sillas: József Kürschák, George David Birkhoff, Oliver Dimon Kellog, Lipót Fejér. Sentados en el suelo: Tibor Radó, István Lipka, László Kalmár y Pál Szász. Fuente: Wikimedia Commons.

Además, Kürschák fue uno de los principales organizadores de los concursos de matemáticas de su país. Para honrar sus contribuciones en esta área, el Concurso de Matemáticas Loránd Eötvös, iniciado en 1925, pasó a llamarse Concurso de Matemáticas József Kürschák en 1949. Él había fallecido dieciséis años antes, el 26 de marzo de 1933.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo La teselación de József Kürschák se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Los mejores barrios para empezar una vida en la galaxia

Mar, 2024/02/27 - 11:59

Algunos vecindarios de la Vía Láctea pueden ser más adecuados que otros para crear planetas habitables.

Un artículo de Rebecca Boyle Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

galaxiaIlustración: Kristina Armitage / Quanta Magazine

Para albergar vida, al menos tal como la conocemos, un planeta debe orbitar una estrella que sea relativamente tranquila y estable. La órbita del planeta también debe ser casi circular para que el planeta experimente un calor similar durante todo el año. Y no debe estar demasiado caliente, para que el agua de la superficie no hierva; ni demasiado frío, para que el agua no se quede fijada en hielo; sino el adecuado, para que los ríos y los mares permanezcan líquidos.

Estas características definen una “zona habitable” alrededor de las estrellas, lugares tentadores a los que apuntar en la búsqueda de exoplanetas aptos para la vida. Pero los científicos someten cada vez más a toda la galaxia a un escrutinio similar. De la misma manera que los continentes con biosferas distintas albergan flora y fauna distintas, diferentes regiones de la galaxia podrían albergar diferentes poblaciones de estrellas y planetas. La turbulenta historia de la Vía Láctea significa que no todos los rincones de la galaxia son iguales y que solo algunas regiones galácticas podrían ser las adecuadas para crear planetas que creemos que podrían estar habitados.

Conforme los científicos exoplanetarios afinan sus ideas sobre dónde buscar vida extraterrestre, ahora están considerando el origen de la estrella y su vecindario, explica Jesper Nielsen, astrónomo de la Universidad de Copenhague. Nuevas simulaciones, junto con observaciones de satélites que buscan planetas y monitorean millones de estrellas, están pintando una imagen de cómo diferentes vecindarios galácticos (y tal vez incluso diferentes galaxias) forman planetas de manera diferente.

«Esto, a su vez, puede ayudarnos a comprender mejor hacia dónde apuntar nuestros telescopios», afirma Nielsen.

Geografía galáctica

Hoy, la Vía Láctea tiene una estructura complicada. Su agujero negro supermasivo central está rodeado por el «bulbo», una espesa masa de estrellas que contiene a algunos de los ciudadanos más ancianos de la galaxia. El bulbo está rodeado por el “disco delgado”, la estructura que se puede ver serpenteando sobre nuestras cabezas en una noche clara y oscura. La mayoría de las estrellas, incluido el Sol, se encuentran en los brazos en espiral del disco delgado, que están abrazados por un «disco grueso» más ancho que contiene estrellas más viejas. Y un halo difuso, mayoritariamente esférico, de materia oscura, gas caliente y algunas estrellas envuelve toda la arquitectura.

Durante al menos dos décadas, los científicos se han preguntado si las condiciones habitables varían entre esas estructuras. El primer estudio sobre la habitabilidad galáctica data de 2004, cuando los científicos australianos Charles Lineweaver, Yeshe Fenner y Brad Gibson modelaron la historia de la Vía Láctea y la utilizaron para estudiar dónde podrían encontrarse zonas habitables. Querían saber qué estrellas anfitrionas tenían suficientes elementos pesados (como carbono y hierro) para formar planetas rocosos, qué estrellas habían existido el tiempo suficiente para que evolucionara vida compleja y qué estrellas (y cualquier planeta en órbita) estaban a salvo de las supernovas vecinas. Terminaron definiendo una “zona habitable galáctica”, una región en forma de dónut con el agujero centrado en el centro de la galaxia. El límite interior de la región comienza a unos 22.000 años luz del centro galáctico y su límite exterior termina a unos 29.000 años luz.

En las dos décadas posteriores los astrónomos han intentado definir con mayor precisión las variables que controlan la evolución tanto estelar como planetaria dentro de la galaxia, explica Kevin Schlaufman, astrónomo de la Universidad Johns Hopkins. Por ejemplo, continúa, los planetas nacen en discos de polvo que rodean a estrellas recién nacidas y, en pocas palabras, si “un disco protoplanetario tiene mucho material que puede formar rocas, entonces producirá más planetas”.

Algunas regiones de la galaxia pueden estar más densamente sembradas con esos ingredientes formadores de planetas que otras, y los científicos están trabajando ahora para comprender en qué medida los vecindarios galácticos influyen en los planetas que albergan.

Aquí hay exoplanetas

Entre los aproximadamente 4.000 exoplanetas conocidos, hasta ahora existen pocas reglas que rijan qué tipos de planetas están en qué sitio; ningún sistema estelar se parece mucho al nuestro, y la mayoría de ellos ni siquiera se parecen mucho entre sí.

Nielsen y sus colegas querían saber si los planetas podrían formarse de manera diferente en el disco grueso, el disco delgado y el halo de la Vía Láctea. En general, las estrellas del disco delgado contienen más elementos pesados que las del disco grueso, lo que significa que surgieron de nubes que también podrían contener más ingredientes formadores de planetas. Utilizando datos del satélite de seguimiento de estrellas Gaia de la Agencia Espacial Europea, Nielsen y sus colegas primero separaron las estrellas en función de la abundancia de ciertos elementos. Luego simularon la formación de planetas entre esas poblaciones.

Sus simulaciones, que publicaron en octubre, mostraron que los planetas gigantes gaseosos y las supertierras (el tipo más común de exoplaneta) crecen más abundantemente en el disco delgado, probablemente porque (como se esperaba) esas estrellas tienen más material de construcción con el cual trabajar. También descubrieron que las estrellas más jóvenes con elementos más pesados tienden a albergar más planetas en general, y que los planetas gigantes son más comunes que los más pequeños. Por el contrario, los gigantes gaseosos son casi inexistentes en el disco grueso y el halo.

Schlaufman, que no participó en el trabajo, comenta que los resultados tienen sentido. La composición del polvo y el gas a partir del cual nacen las estrellas es crucial para determinar si las estrellas formarán planetas. Y aunque esa composición puede variar según la ubicación, argumenta que si bien la ubicación puede preparar el escenario para la construcción de mundos de una estrella, puede no determinar el resultado final.

Las simulaciones de Nielsen son teóricas, pero algunas observaciones recientes respaldan sus hallazgos.

En junio, un estudio que utilizó datos del telescopio espacial Kepler de la NASA, que busca planetas, encontró que las estrellas en el disco delgado de la Vía Láctea tienen más planetas, especialmente supertierras y mundos de tamaño subneptuno, que las estrellas en el disco grueso. Una explicación, apunta Jessie Christiansen, científica exoplanetaria del Instituto de Tecnología de California y coautora del estudio, es que las estrellas viejas del disco grueso pueden haber nacido cuando los ingredientes para formar planetas eran escasos, antes de que generaciones de estrellas moribundas sembrase el cosmos con los componentes básicos de los mundos. O tal vez las estrellas de disco grueso nacieron en ambientes densos y de alta radiación, donde la turbulencia impide que los planetas nacientes lleguen a fusionarse.

A los planetas les puede ir mejor en áreas abiertas, como los suburbios, en lugar de en áreas “urbanas” densamente pobladas, afirma Christiansen. Nuestro sol se encuentra en una de esas zonas suburbanas escasamente pobladas.

Otras Tierras

Los estudios de Christiansen y las simulaciones de Nielsen se encuentran entre los primeros en estudiar la ocurrencia de planetas en función del vecindario galáctico; Vedant Chandra, astrónomo del Centro Harvard-Smithsonian de Astrofísica, se está preparando para ir un paso más allá y estudiar si la formación de planetas podría haber sido diferente en algunas de las galaxias que la Vía Láctea consumió a medida que crecía. En el futuro Nielsen espera que estudios e instrumentos perfeccionados, como el próximo telescopio espacial Nancy Grace Roman de la NASA, nos ayuden a comprender la formación de planetas de la misma manera que los demógrafos entienden las poblaciones. ¿Podemos predecir qué tipos de estrellas albergarán qué tipos de planetas? ¿Es más probable que las Tierras se formen en ciertos vecindarios? Y si sabemos dónde mirar, ¿encontraremos algo mirándonos?

Sabemos que vivimos en una zona habitable, en un mundo que orbita alrededor de una estrella tranquila. Pero cómo empezó la vida en la Tierra, y cuándo y por qué, es la pregunta más importante de todos los campos de la ciencia. Quizás los científicos también deberían pensar en la historia del origen de nuestra estrella, e incluso en la de los ancestros estelares que dieron forma a nuestro rincón de la Vía Láctea, hace miles de millones de años.

“¿Era inevitable la vida en la Tierra? ¿Fue especial?” se pregunta Chandra. «Solo una vez que empieces a tener esta imagen global… podrás empezar a responder preguntas como esa».

 

El artículo original, The Best Neighborhoods for Starting a Life in the Galaxy, se publicó el 24 de enero de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Los mejores barrios para empezar una vida en la galaxia se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Aquí huele a pescado podrido: la trimetilamina

Lun, 2024/02/26 - 11:59

Pocos olores hay tan desagradables como el del pescado en mal estado. Cuando esa lubina comprada hace varios días que permanece en la nevera empieza a desprender un aroma nauseabundo, no hay vuelta atrás: la trimetilamina ya ha aparecido como producto de descomposición. Esta molécula también es la responsable del mal aliento y del molesto olor de algunas personas con alteraciones en el metabolismo de determinados aminoácidos.

Fuente: Pexels¿Qué es la trimetilamina?

La trimetilamina (TMA), compuesto orgánico de fórmula N(CH3)3, es un gas irritante e incoloro a temperatura ambiente que en contacto con las membranas de las mucosas causa necrosis y corrosión. Se trata de una amina terciaria, fácilmente soluble en el agua y más básica que el amoniaco. La TMA es un producto de degradación microbiana de macromoléculas nitrogenadas tales como la colina, la L-carnitina y la betaína presentes en los tejidos de animales y plantas.

Trimetilamina. Nitrógeno en azul, carbono en negro, hidrógeno en blanco. Fuente: Wikimedia Commons

En el agua salada, los animales marinos presentan sustancias que equilibran y limitan la concentración salina en el interior de sus células. Entre estos compuestos, el óxido de trimetilamina (TMAO) supone alrededor del 5% del tejido muscular de los peces de mar (atún, anchoa, dorada, gallo, pez espada, rodaballo…). Aunque este componente es inodoro y no da sabor, el TMAO se oxida y se transforma en TMA pocos minutos tras la muerte del pez por la acción de las bacterias y enzimas de su cuerpo. A eso hay que sumar la acción del aire, que también contribuye a la degradación de las grasas y de la urea en amoniaco. Todo ello compone una fétida mezcla de compuestos volátiles que son señal inequívoca de que el pescado no está fresco.

El olor a pescado en los humanos

Los seres humanos también sintetizamos TMA como producto de la degradación de aminoácidos como la colina y la carnitina, pero en individuos sanos pasa desapercibido al transformarse a TMAO en el hígado y excretarse en la orina. Existe un trastorno del metabolismo por el cual algunas personas desprenden un intenso olor a pescado en descomposición debido a un fallo de las enzimas que llevan a cabo esta reacción. Aunque es una enfermedad rara, la trimetilaminuria o síndrome del olor a pescado tiene un origen genético y provoca que las personas afectadas expulsen elevadas concentraciones de TMA en la orina, el sudor, el aliento y otros fluidos, como los vaginales en las mujeres.

Los niveles elevados de trimetilamina no son tóxicos para el organismo, pero el olor corporal de las personas con trimetilaminuria puede degenerar en problemas psicosociales por aislamiento y baja autoestima. Actualmente, no existe tratamiento específico y las recomendaciones para mitigar el mal olor pasan por reducir la ingesta de productos ricos en aminoácidos ricos en azufre y nitrógeno (como los pescados azules, las legumbres, la carne y la clara de huevo).

Fuente: PexelsUna delicatessen sueca apestosa

El mal olor que desprende el pescado suele ser un indicador fiable de que no se encuentra en buen estado y nos puede ahorrar una desagradable intoxicación alimentaria. Sin embargo, existe una curiosa excepción: el surströmming. Este producto típico de Suecia consiste en arenques del Mar Báltico fermentados y es considerado uno de los alimentos más hediondos jamás creados por el ser humano. En este caso, el mal olor no se debe a la TMA desprendida por el pescado, sino a los productos de la fermentación que se encuentran en la propia salmuera. El surströmming suele venderse en latas, donde las bacterias del género Haloanaerobium producen dióxido de carbono y varios componentes que provocan su particular olor: ácido propanoico, sulfuro de hidrógeno (huevo podrido), ácido butírico (mantequilla rancia) y ácido acético (vinagre).

Pese a ser un producto tradicional, su consumo está descendiendo y la respuesta parece encontrarse en la genética. Un estudio publicado en la revista Current Biology relacionó la aversión hacia el hedor de este producto con una variante genética del gen TAAR5, responsable de la síntesis de un receptor olfativo encargado de detectar la ya archiconocida TMA. Vamos, que cientos de años de evolución nos han preparado para evitar la comida podrida.

 

En conclusión, el olor desagradable del pescado podrido se debe al compuesto volátil trimetilamina. Esta molécula, formada a partir de la descomposición bacteriana de TMAO presente en el pescado, aumenta a medida que progresa la degradación y su detección olfativa nos alerta de que el producto no se encuentra fresco. Más allá del pescado en mal estado, la trimetilamina también está vinculada al olor penetrante del mal aliento y el sudor de algunas personas que presentan alteraciones en el metabolismo de algunos aminoácidos. Un mal olor que también está presente y nos hace rechazar otros platos típicos, como el sueco surströmming, en el que el repugnante aroma se debe a la fermentación. En conjunto, la trimetilamina ejemplifica la intersección entre la química, la percepción sensorial y la cultura culinaria.

Referencias:

1. Instituto Nacional de Seguridad y Salud en el Trabajo DLEP 142 – Trimetilamina

2. Márquez Moreno (2013) Síndrome del olor a pescado: trimetilaminuria  Formación Activa en Pediatría de Atención Primaria 6, 4

Sobre la autora: Raquel Gómez Molina es química especialista en laboratorio clínico y comunicación científica

El artículo Aquí huele a pescado podrido: la trimetilamina se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Diccionario del asombro

Dom, 2024/02/25 - 11:59

Quizás conozca la palabra clina, o quizás no. Expresa la variación gradual de un rasgo. La palabra fue idea de Julian Huxley, quien la usó para referirse a la variación gradual, a lo largo de un espacio geográfico, de rasgos fenotípicos dentro de una misma especie. Proviene del griego cline (κλινειν), que significa «inclinación», un étimo que contiene, a su vez, la raíz indoeuropea klei, que expresa inclinación, pendiente o subida.

Los términos científicos sinclinal y anticlinal también están relacionados con Klei. Pero la presencia de esa raíz no se limita a términos técnicos, ni muchísimo menos. El lenguaje común está plagado de palabras que la contienen: Inclinar, reclinar, declinar, proclive, clínica, cliente y hasta clima, son palabras relacionadas con klei. Y es probable que clítoris también sea una de ellas.

La etimología es una disciplina preciosa. Además de satisfacer la curiosidad acerca del origen de las palabras, el hecho de conocer cómo se han generado significados transfiriendo propiedades de unos objetos a otros o de unos hechos a otros –en otras palabras, cómo se ha recurrido a elaboraciones metafóricas para expresar nuevas nociones– aporta un conocimiento más profundo también de los conceptos a los que dan nombre las palabras.

En “Diccionario del asombro. Una historia de la ciencia a través de las palabras” hay bastante de esto. Antonio Martínez Ron, su autor, ha escogido un término por cada letra del alfabeto y, a la vez que introduce el marco conceptual al que corresponde la palabra, hace un breve recorrido, a medio camino entre temporal y etimológico, por las nociones y términos emparentados con el que da título al capítulo.

asombro

A cada uno de los capítulos antecede un calendario en forma de línea vertical de la que salen, en su correspondiente fecha de creación, las diversas palabras que nombran conceptos relacionados con el de la palabra que da nombre al capítulo. Así, el capítulo “G de Gen” viene precedido de un calendario en el que aparece, en primer lugar “eugenesia” y que termina con “CRISPR”. A lo largo del tiempo transcurrido desde la primera a la última han pasado cromosoma, ácido nucleico, clon, genética, gen, epigenética, transhumanismo, meme y LUCA, aunque en el texto se van glosando muchas otras, siempre con la fecha en que se usaron por primera vez. De esa forma se puede trazar la historia de la disciplina, en este caso de la genética.

A lo largo de las sucesivas letras –de los sucesivos capítulos–, Martínez Ron va construyendo de ese modo una historia de la ciencia diferente, en la que, a la dimensión cronológica, se une otra terminológica que redunda en un conocimiento más profundo de las nociones y de la secuencia de hallazgos que jalonaron el desarrollo del campo del saber al que pertenecen esas nociones.

En sendos apéndices, el autor, de propina, nos ofrece dos breves colecciones adicionales de palabras. En la primera incluye términos creados originalmente en idioma español; no son muchos, pero es una colección interesante, con alguna incorporación muy reciente. Y en el segundo apéndice incluye otra relación de palabras que al autor le ha parecido que debían figurar en su diccionario y para las que no había encontrado acomodo en los capítulos regulares.

Hay un apotegma vasco que dice «izena duenak izana du». Literalmente, «lo que tiene nombre, tiene ser» o, lo que es lo mismo, «lo que tiene nombre, existe». En cierto modo, resulta más expresivo en forma negativa, porque igualmente podría decirse que lo que carece de nombre, no existe. El proverbio vasco refleja fielmente una de las ideas que inspiran el “Diccionario del asombro”. El avance del conocimiento científico produce nuevos conceptos. Pero los conceptos no cristalizan, no se pueden compartir, difundir, ni utilizar, si no se nombran. De hecho, en muchas ocasiones ni tan siquiera existen en tanto no se les da un nombre: izena duenak, izana du. La etimología es una fecunda fuente de saber, también en ciencia.

Título: Diccionario del asombro. Una historia de la ciencia a través de las palabras

Autor: Antonio Martínez Ron

Ed. Crítica, 2023.

 

En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

Una versión de este texto de Juan Ignacio Pérez Iglesias apareció anteriormente en Lecturas y Conjeturas (Substack).

 

El artículo Diccionario del asombro se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Día de Darwin 2024: evolución del sistema visual y neandertales

Sáb, 2024/02/24 - 11:59

Tras 150 años siendo objeto de estudio, ¿se puede decir algo nuevo sobre los neandertales? ¿Sabemos cómo ha condicionado la visión en la evolución de los seres vivos? Esas son algunas de las preguntas que se van a plantear en la decimoctava edición del Día de Darwin.

Esta nueva edición tuvo lugar el 12 de febrero en la Biblioteca Bidebarrieta de Bilbao, justo cuando se cumplen 215 años del nacimiento del geólogo y biólogo inglés Charles Darwin y contará con la participación de la doctora en Neurociencias y profesora de la Facultad de Biología de Salamanca Conchi Lillo Delgado y el doctor, paleontólogo e investigador de la UPV/EHU, Asier Gómez Olivencia que ofrecerán dos charlas de 40 minutos cada una.

Lillo Delgado ofrece la charla “Una mirada a la evolución” en la que, partiendo desde las curiosidades y características de los vertebrados e invertebrados, explica cómo funciona el sistema visual de los seres vivos que, captando las formas, colores y profundidad del mundo que les rodean han desarrollado ventajas evolutivas para sobrevivir y defenderse.

Gómez Olivencia, por su parte, acerca al público los últimos descubrimientos que se han hecho en torno a los neandertales con la charla titulada “¿Qué tal, neandertal? Nuevos datos sobre un viejo conocido”, en la que profundiza en los nuevos hallazgos gracias a la utilización de nuevas tecnologías y la revisión de yacimientos clásicos.

El Día de Darwin es una iniciativa organizada desde 2007 por la Cátedra de Cultura Científica de la Universidad del País Vasco, el Círculo Escéptico y la Biblioteca Bidebarrieta de Bilbao. Una cita que se ha convertido en ineludible para los y las aficionadas a la ciencia y que cuenta con la ayuda del diario El Correo.

Ponentes

Conchi Lillo Delgado es bióloga y doctora en Neurociencias y profesora en la Facultad de Biología de la Universidad de Salamanca. Su área de investigación es el de la neurobiología de la visión en el Instituto de Neurociencias de Castilla y León. En su faceta de divulgadora científica hay que destacar la publicación del libro ¡Abre los ojos! y la colaboración con distintas plataformas de divulgación como Naukas, The Conversation o una sección quincenal en el programa Hoy por Hoy en Ser Salamanca.

Asier Gómez Olivencia es doctor y paleontólogo especializado en Evolución Humana. Cuenta con una dilatada experiencia de investigación y publicación con más de 90 artículos científicos. Realizó su tesis en el Equipo de Investigación de Atapuerca, ha trabajado en la Universidad de Cambridge y en el Musée de l´Homme de París y en 2014 se incorporó a la Universidad del País Vasco, primero como investigador Ikerbasque y después como investigador Ramón y Cajal. Además de excavar en Atapuerca, dirige la excavación en varios yacimientos de Euskadi.

Edición realizada por César Tomé López

El artículo Día de Darwin 2024: evolución del sistema visual y neandertales se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Páginas