Cuaderno de Cultura Científica jarioa-rako harpidetza egin
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Eguneratua: duela 6 min 13 seg

Inmersión, un cómic empapado de matemáticas (I)

Az, 2025-05-14 11:59

Acabo de terminar de leer el cómic Inmersión (Hill House Comics – DC Black Label; ECC Ediciones, 2021), de Joe Hill (guion), Stuart Immonen (dibujo) y Dave Stewart (color), que tiene muchas referencias matemáticas, de las cuales vamos a hablar en esta entrada del Cuaderno de Cultura Científica.

 

InmersiónPortada de la edición en español, publicada por ECC Ediciones en 2021, del cómic Inmersión, de Joe Hill (guion) y Stuart Immonen (dibujo), que recoge los seis números/grapas que lo conforman

 

En la propia portada del recopilatorio de los seis números que componen el cómic Inmersión, que es del artista estadounidense Jeremy Wilson, ya vemos diferentes símbolos que, aunque quizás no reconozcamos, sí los identificamos como símbolos matemáticos.

 

Un cómic de Joe Hill, Stuart Immonen y Dave Stuart

 

Los seis números del cómic Inmersión (Plunge, en inglés), creado por el escritor estadounidense Joe Hill, responsable también de su guion, dibujado por el artista canadiense Stuart Immonen y coloreado por el artista del color estadounidense Dave Stewart, fueron publicados originalmente por Hill House Cómics, una línea editorial de cómics de terror creada y dirigida por Joe Hill, dentro del sello editorial DC Black Label de DC cómics.

 

El escritor y creador de cómics estadounidense Joseph Hillstrom King (1972), cuyo nombre artístico es Joe Hill, es un autor destacado dentro de los géneros literarios de terror, fantasía oscura y ciencia ficción. Entre las novelas escritas por Joe Hill están El traje del muerto (2007) o NOS4A2 (2013), mientras que dentro de la ficción gráfica es el autor de los guiones de comics como Locke & Key (2008-13), La capa (2007-2011) o Un cesto de cabezas (2019). Como anécdota diremos que este galardonado escritor es el hijo del famoso escritor de misterio y terror Stephen King (1947).

 

Fotografía del escritor y creador de cómics Joe Hill y portada de su novela NOS4A2 (Nosferatu)

 

Stuart Immonen es un dibujante de cómics canadiense que ha trabajado tanto para cómics de DC cómics, como Action comics (1997-1999), Inferno (1997), Las aventuras de Superman (1995-2000), Superman: End of the Century (2000) o Superman: Identidad secreta (2004), entre otros, como para cómics de Marvel, como Los 4 fantásticos (2001-2009), Nextwave: Agentes de H.A.T.E (2006-07), Los nuevos vengadores (2009-2011), Miedo encarnado (2011), El increíble Spiderman (2017-18), entre muchos otros.

 

Fotografía del dibujante Stuart Immonen y portada del cómic Nextwave: Agentes de H.A.T.E, escrito por Warren Ellis y dibujado por Stuart Immonen

 

Finalmente, el color de los dibujos de Inmersión se debe al artista Dave Stewart, cuyo trabajo ha sido galardonado en diferentes ediciones de los prestigiosos Premios Eisner. Entre sus trabajos destacan AIDP (2006-2020), Baltimore (2010-2017), Fatale (2013-2015), Black Hammer (2017-2025), Sherlock Frankenstein y la legión del mal (2018), Gideon Falls (2019-2021), Hellboy (2020-2024), entre muchos otros, que incluyen las últimas portadas de The Walking Dead.

 

Portadas del volumen 1 de Black Hammer (2017) y Gideon Falls (2019), cuyo colorista es Dave Stewart

 

Inmersión, de Joe Hill

 

El escritor Joe Hill, el dibujante Stuart Immonen y el colorista Dave Stewart se juntaron para crear este cómic de terror, que intenta homenajear al género de terror de los años ochenta. Mientras lo leía me vinieron a la cabeza dos referencias del género de terror, por una parte, una película clásica de terror de los años ochenta, La cosa (1983), del director estadounidense John Carpenter (1948), pero también un clásico del terror como es el escritor estadounidense H. P. Lovecraft (1890-1937) y sus mitos de Cthulhu. De hecho, el propio Joe Hill menciona la ciudad submarina de R’lyeh, un lugar ficticio de los mitos de Cthulhu, que según su autor estaba situada en la latitud 47°9′ sur y la longitud 126°43′ oeste en el océano Pacífico, como un punto de partida en su relato de horror.

 

Un par de curiosidades relacionadas con R’lyeh. La primera es que el escritor August W. Derleth (1909-1971), del círculo de Lovecraft, también utilizó la ciudad sumergida de R’lyeh en sus escritos. Además, su nombre, como veremos más adelante, aparece mencionado en el cómic Inmersión. La segunda curiosidad es que la primera vez que aparece la ciudad submarina de R’lyeh, que es el lugar en el que habita aletargada la entidad cósmica Cthulhu, es en el relato corto de H. P. Lovecraft La llamada de Cthulhu (1926). En este relato puede leerse la siguiente descripción de la ciudad.

 

Sin conocer el futurismo, Johansen describe, al hablar de la ciudad, algo muy parecido a una obra futurista. En vez de referirse a una estructura definida, algún edificio, se reduce a hablar de vastos ángulos y superficies pétreas… superficies demasiado grandes para ser de este mundo, y cubiertas por jeroglíficos e imágenes horribles. Menciono estos ángulos pues me recuerdan los sueños que me relató Wilcox. El joven escultor afirmó que la geometría de la ciudad de sus sueños era anormal, no euclidiana, y que sugería esferas y dimensiones distintas de las nuestras. Ahora un marino ilustrado tenía ante la terrible realidad la misma impresión.

 

En la misma se hace mención a la geometría no euclideana, así como a esferas y dimensiones distintas de las nuestras. Pero dejemos a Lovecraft y volvamos a nuestro cómic lovecraftiano Inmersión.

 

InmersiónPortada de la edición de 2017 de la editorial Alma, dentro de su colección Clásicos Ilustrados (la ilustración es del artista, escritor y diseñador inglés John Coulthart), del relato corto La llamada de Cthulhu (1926), de H. P. Lovecraft

 

Esta es la sinopsis escrita sobre el cómic en la página web de la editorial ECC:

 

En 1983, el Derleth, un buque de perforación de última generación, desaparece cerca del Círculo Polar Ártico. Décadas más tarde empieza a emitir una señal de socorro…

 

La compañía petrolífera Rococo sigue la señal hasta un remoto atolón del Estrecho de Bering y contrata a los hermanos Carpenter y su tripulación de rescate para investigar el barco fantasma. Junto con una bióloga marina y un ejecutivo petrolífero, los hermanos se embarcan en una siniestra misión para averiguar las causas de la desaparición del barco y recuperar los cuerpos de la tripulación… ¡pero resulta que los hombres del Derleth no están muertos! Aunque tampoco están ya del todo… vivos…

 

Como vemos hay dos referencias claras en la sinopsis. Por una parte, el buque de perforación que desapareció en 1983 es el Derleth, que nos remite al círculo de Lovecraft. Por otra parte, dos de los personajes de la historia son los hermanos Carpenter, que nos hace pensar que la asociación con la película La cosa (1982) no es casual, sino intencionada.

 

Las portadas de las grapas del cómic Inmersión

 

Las matemáticas están muy presentes en este cómic de terror creado por Joe Hill, tanto en la historia, como en la estética, puesto que ya desde las portadas, así como en las páginas de los créditos, de los seis números que componen este cómic, están presentes las matemáticas.

 

En la siguiente imagen se muestran las seis portadas de la publicación original de Inmersión (Plunge), que realizó el artista Jeremy Wilson.

 

InmersiónPortadas de la edición original (en inglés) de los números #1-6 del cómic Plunge / Inmersión, de Joe Hill, Stuart Immonen y Dave Stewart

 

En las dos primeras portadas aparecen símbolos matemáticos como si hubiesen sido sacados de una pizarra, aunque muy mezclados unos con otros. En la tercera portada, que veremos con más detalle ahora, vemos a una persona ante una pared que está llena de números. En las portadas de los números cuatro y cinco no hay números, ni símbolos matemáticos. Y en la última portada nos encontramos con una espiral de Arquímedes (más o menos) en blanco.

 

Pero volvamos a la portada del número tres. Como se puede ver en la siguiente imagen el número que aparece pintado en la pared es el número pi (para saber un poco más sobre este número véase la entrada ¿Es normal el número pi? ). En la primera línea podemos ver 3.1415926535; en la segunda línea 89793238462643383279; en la tercera línea 5028841971693993751058209; y así siguen muchas más líneas con los distintos decimales del número pi.

 

InmersiónPortada de la edición original (en inglés) del número #3 del cómic Plunge / Inmersión, de Joe Hill, Stuart Immonen y Dave Stewart, en la que aparecen los primeros decimales del número pi

 

Matemáticas hasta en los créditos

 

En la página de créditos, que en todos los números va en la parte del principio, salvo en el número seis, también nos encontramos matemáticas. Todas las páginas de créditos son el dibujo oscuro, con sombras, de una parte del buque Derleth medio hundido, como en la siguiente imagen.

 

InmersiónPágina de créditos de la edición original (en inglés) del número #1 del cómic Plunge / Inmersión, de Joe Hill, Stuart Immonen y Dave Stewart

 

Como podemos observar en esta imagen, en una plancha de metal del barco, a la izquierda en la imagen, al lado de una puerta metálica, vemos una fórmula matemática, que parece pintada en sangre, pero escrita de tal manera que a la izquierda tenemos una expresión matemática que es igual a la parte de la derecha, que es un número que va a coincidir con el número de entrega de la serie, por lo que en este caso está pintado el número 1. La fórmula que aparece en la plancha metálica es correcta, de hecho, en este caso es la famosa fórmula de Euler, conocida como la fórmula más hermosa de las matemáticas.

 

Esta es una imagen con la famosa fórmula de Euler, de la exposición Mathematical Photography de Justin Mullins, que podéis ver en el portal divulgamat o en la página web de su autor, Justin Mullins

 

Además, como vemos, se incluye un número, en concreto, el número 1, en el título del cómic, en inglés “P1unge” (un “1” en lugar de la letra “ele”) y en español “1nmersión” (un “1” en lugar de la “i”). Y si nos fijamos un poco más en los nombres responsables del cómic aparece un “3”, en lugar de una “e”, en el nombre de uno de los dos productores, Mark Doyl3 y Amadeo Turturro.

 

Esta idea de sustituir letras de los créditos por números o símbolos matemáticos va a ir aumentando en cada entrega del cómic, hasta la sexta y última grapa que vemos en la siguiente imagen, en la que además cambia un poco el formato, separando la imagen del buque, con el número de entrega (sexta), y los créditos.

 

InmersiónPáginas de créditos de la edición original (en inglés) del número #6 del cómic Plunge / Inmersión, de Joe Hill, Stuart Immonen y Dave Stewart

 

Los nombres de los responsables del cómic (guion, dibujo, color, editores, portada, portada alternativa y creado por) ya son completamente irreconocibles por los números y símbolos matemáticos que aparecen, así como el título, Plunge (en inglés), que vemos en la anterior imagen cómo está escrito, e Inmersión (en español), que está escrito así: “1 = # 3 ? 5 1 0 =”.

 

Si observamos la fórmula matemática de la plancha metálica, que nos da igual a 6, ya que estamos en el número seis de la publicación, podemos observar que también es una expresión matemática correcta (bueno, hay una pequeña errata ya que falta una x, pero la idea está bien). De hecho, es un límite del tipo 0/0 que se calcula mediante la conocida regla de L’Hopital (el nombre deriva del matemático francés Guillaume François Antoine, marqués de l’Hopital (1661-1704), aunque el resultado es realmente del matemático suizo Johann Bernoulli (1667-1748), de hecho, esa es una interesante historia que ya contaremos en otra ocasión) para el cálculo de límites de la forma 0/0 (cero / cero) o (infinito / infinito), que consiste en derivar numerador y denominador.

 

Incluyamos la regla de L’Hopital simplemente para entender un poco mejor la fórmula que aparece en el cómic, aunque sin darle más importancia de la necesaria.

 

Regla de L’Hopital: Sean f y g dos funciones continuas definidas en un intervalo [a, b], derivables en el intervalo abierto (a, b) y sea c perteneciente a dicho intervalo (a, b) tal que f(c) = g(c) = 0 y g‘(x) distinto de 0, si x = c.

 

Si existe el límite L de f ‘ / g‘ (las derivadas) en c, entonces existe el límite de f / g (en c) y es igual a L. Por lo tanto,

 

 

La imagen que aparece en el cómic, corregida, sería la siguiente.

 

Expresión del cálculo de un límite del tipo 0/0 utilizando la regla de L’Hopital, que aparece en el número seis del cómic Inmersión

 

En las páginas de créditos de los números #2, #3, #4 y #5 también aparecen fórmulas matemáticas, pintadas como si fuera sangre, integrales, derivadas y límites.

InmersiónPáginas de créditos de los números #2, #3, #4 y #5 de la edición original (en inglés) del cómic Plunge / Inmersión, de Joe Hill, Stuart Immonen y Dave Stewart

Las matemáticas contribuyen a crear el ambiente de terror del cómic. Diagramas y símbolos matemáticos, listas de números (los decimales del número pi), así como fórmulas matemáticas pintadas de rojo, como si fuera sangre que está goteando, fórmulas extrañas, raras, frías, sin ningún significado para la persona que lee el cómic.

 

En la siguiente entrada del Cuaderno de Cultura Científica abordaremos las matemáticas que aparecen en la propia historia del cómic.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Inmersión, un cómic empapado de matemáticas (I) se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Un aumento en el límite sin repetidores nos acerca a la criptografía cuántica comercial

Ar, 2025-05-13 11:59

La criptografía cuántica promete comunicaciones seguras basadas en las leyes fundamentales de la física. Sin embargo, llevar esta tecnología del laboratorio al mundo real es todo un reto, especialmente debido a las pérdidas de señal en largas distancias. Un reciente presenta un avance significativo en este aspecto: un sistema de distribución de claves cuánticas (QKD, por sus siglas en inglés) que supera el llamado «límite sin repetidores» utilizando tecnologías ya disponibles comercialmente.

Source: Likang Zhang et al (2025) Phys. Rev. X doi: 10.1103/PhysRevX.15.021037  CC BY 4.0¿Qué es el «límite sin repetidores»?

En la distribución de claves cuánticas las señales se transmiten a través de fibras ópticas. A medida que la distancia aumenta la señal se debilita debido a la pérdida de fotones. Este fenómeno impone un límite teórico conocido como el «límite sin repetidores», que establece la máxima distancia a la que se puede transmitir una clave cuántica sin utilizar dispositivos intermedios que amplifiquen o regeneren la señal.

El planteamiento por defecto hasta ahora ha sido que superar este límite requiere  el uso de repetidores cuánticos, dispositivos complejos y costosos que ni siquiera se puede decir que existan porque aún están en desarrollo. La alternativa ha sido desarrollar protocolos que optimicen la transmisión sin necesidad de estos repetidores.

El protocolo de emparejamiento de modos

El estudio introduce una implementación práctica del protocolo de emparejamiento de modos (MP-QKD), una técnica que permite distribuir claves cuánticas sin necesidad de una referencia de fase global. Sin necesidad de entrar en profundidades, el resultado es que esto simplifica significativamente el sistema y reduce los requisitos técnicos.

Una de las principales innovaciones del trabajo es la utilización de láseres comerciales, en lugar de los costosos láseres ultraestables que se han venido empleando. Para manejar las fluctuaciones de fase inherentes a estos láseres, los investigadores han desarrollado un esquema de seguimiento de frecuencia basado en la transformada rápida de Fourier. Esta técnica permite extender la longitud de emparejamiento de los pulsos, mejorando la eficiencia del sistema.

El sistema desarrollado logró una tasa óptima de generación de claves secretas a través de 403 kilómetros de fibra óptica estándar, con una pérdida de 76,5 decibelios. Este rendimiento aumenta el límite sin repetidores en un factor de casi 3, un logro sin precedentes utilizando tecnologías comerciales.

Más cerca del mundo real

La posibilidad de utilizar componentes comerciales reduce significativamente los costos y la complejidad de los sistemas de QKD, facilitando su adopción en aplicaciones del mundo real. Esto podría tener un impacto considerable en áreas como la banca, la defensa y las infraestructuras críticas, donde la seguridad de las comunicaciones es esencial.

El estudio demuestra que la criptografía cuántica práctica y escalable es una realidad alcanzable con las tecnologías actuales, marcando un hito en la evolución de las comunicaciones seguras.

Referencias:

Likang Zhang, Wei Li, Jiawei Pan, Yichen Lu, Wenwen Li, Zheng-Ping Li, Yizhi Huang, Xiongfeng Ma, Feihu Xu, and Jian-Wei Pan (2025) Experimental Mode-Pairing Quantum Key Distribution Surpassing the Repeaterless Bound Phys. Rev. X doi: 10.1103/PhysRevX.15.021037

Day, C. (2025) Toward Practical Quantum Cryptography  Physics 18, s53

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Un aumento en el límite sin repetidores nos acerca a la criptografía cuántica comercial se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

El volcán Caldereta como análogo planetario

Al, 2025-05-12 11:59

Un análogo planetario es un lugar -aunque a veces también es una reproducción en laboratorio- de nuestro planeta que guarda muchas similitudes con una o varias de las principales características de otros lugares de nuestro sistema solar. La analogía puede referirse a la química de su superficie, la geología, las condiciones climáticas, la radiación ambiental o el potencial para albergar vida.

Los científicos usan estos análogos como un fantástico banco de pruebas donde poder experimentar tecnologías que un día podrían viajar en misiones espaciales. Ejemplos son los áridos suelos del desierto de Atacama en Chile que nos permiten probar nuestras tecnologías para detectar la vida en la superficie de Marte; las oscuras aguas del lago Vostok donde podemos encontrar pistas sobre cómo podría ser el océano subterráneo de Encélado o Europa; o los paisajes volcánicos del archipiélago canario donde podemos entrenar a los astronautas para que puedan reconocer mejor la geología durante los paseos lunares y ser capaces de traer de vuelta las muestras más interesantes para su análisis en la Tierra.

Si son capaces de experimentar en estos entornos similares, los investigadores no solo tienen una mayor capacidad de perfeccionar la instrumentación y las técnicas que usamos, sino también de mejorar la interpretación de los datos que se obtienen. Al fin y al cabo, funcionan como un espejo: no solo vamos a mirar a otros lugares del Sistema Solar, también a nosotros mismos y cómo hacemos las cosas.

Pero bueno, vamos al tema que hoy nos ocupa. La superficie de los distintos planetas rocosos de nuestro sistema solar se encuentra salpicada por volcanes, un signo de la energía en el interior de estos cuerpos. Algunas formas volcánicas nacen de la violenta interacción entre el agua y el magma, algo que también ocurre en la Tierra.

A este tipo de erupciones las llamamos hidromagmáticas o freatomagmáticas. Son fenómenos explosivos producidos por el rápido cambio a gas del agua o el hielo, lo que puede provocar la acumulación de grandes presiones en los poros y fisuras de las rocas, con la consiguiente explosión. De auí que la existencia de este tipo de volcanes podría ser una prueba importante a favor de la existencia de agua en el pasado y, potencialmente, de su habitabilidad.

análogo planetarioA la izquierda, la Caldera Blanca en Lanzarote (Las Palmas, Islas Canarias, España). A la derecha, la Caldereta, el análogo escogido en este estudio. Se puede apreciar perfectamente su forma de herradura y el fondo plano del cráter volcánico. Foto: IGN/CNIG.

Un nuevo estudio publicado en el Journal of Applied Geophysics por investigadores del INTA y del Centro de Astrobiología propone el uso de un análogo terrestre, un volcán de las Islas Canarias, para poder identificar edificios volcánicos creados mediante este tipo de erupciones. La idea es ayudarse de drones para poder cartografiar la “huella” magnética de estos volcanes.

Nuestro planeta genera un campo magnético global desde su núcleo. Este es el responsable de protegernos contra parte de la radiación cósmica y de las partículas cargadas que proceden del Sol. Pero no solo eso: su existencia deja cierta huella en las rocas. Cuando las rocas volcánicas se enfrían, los minerales magnéticos se alinean con el campo magnético que existe en ese momento, de tal forma que sirven como un registro de su dirección e intensidad… como si congelásemos la aguja de una brújula.

En Marte, la historia ha sido muy diferente a la de la Tierra. Tenemos evidencias de que tuvo un campo magnético global, quizás entre hace 4300 y 3700 millones de años, pero, en algún momento, este desapareció. De él solo quedan ahora parches de “magnetismo cortical”, rocas antiguas que fueron magnetizadas por ese campo magnético.

Aunque misiones como la Mars Global Surveyor o la MAVEN han podido generar mapas del campo magnético del planeta rojo, su resolución no es suficiente, ya que solo pueden resolver detalles que tienen decenas o centenares de kilómetros. Las misiones de superficie -los rovers o las estaciones fijas- tienen un recorrido muy limitado y a veces dificultado por la topografía, por lo que las medidas tomadas tienen un alcance muy limitado.

Pero ahora que sabemos que es posible volar drones por la atmósfera marciana, si a estos los equipásemos con magnetómetros tendríamos una puerta abierta a conocer con mucho más detalle el magnetismo marciano. Eso si, para interpretar mejor estos datos, necesitamos también una buena biblioteca de ejemplos terrestres que puedan vincular lo que vemos en Marte con los procesos y formas geológicos que hay en nuestro planeta.

Y aquí es donde entra en juego nuestro análogo. El volcán Caldereta, situado en la isla de Lanzarote, es un edificio volcánico construido a partir de erupciones freatomagmáticas, un proceso en parte facilitado gracias a la escasa altura sobre el océano, lo que permite al sistema volcánico interactuar más fácilmente con el agua.

Los investigadores han realizado un estudio morfométrico detallado del cráter, caracterizado por su baja elevación -apenas alcanza los 37 metros-, su anchura -unos 407 metros de diámetro- y la relación entre la altura y anchura. El gran tamaño del cráter, junto con el hecho de que el fondo del cráter esté por debajo del propio nivel del terreno, apunta a que podría ser un maar, un tipo de cráter formado también por la interacción entre el magma y el agua.

análogo planetarioEn esta imagen podemos ver diferentes cráteres, unos de posible origen volcánico y otros de impacto. C27 es el cráter de la zona central de la imagen cuya abertura mira hacia abajo. Si nos fijamos, también tiene una forma de herradura muy característica, parecida a la Caldereta. Foto: NASA/JPL/ASU.

Para compararlo con un posible volcán del mismo tipo, pero en Marte, los científicos escogieron uno denominado C27, situado cerca del límite entre las tierras altas del hemisferio sur y las bajas del norte o, lo que es lo mismo, próximo a la frontera de la dicotomía marciana. Durante años, los científicos han discutido el origen de algunos de los cráteres que se observan en esta zona, que va desde volcanes de barro hasta un origen freatomagmático, pero sin poder llegar a comprobarlo de manera definitiva.

Si nos fijamos en la imagen de arriba, este cráter guarda grandes similitudes en su forma con Caldereta, incluida la forma de herradura. Eso sí, es un poco más grande, con 116 metros de altura y 3.5 kilómetros de diámetro. Pero este detalle no es nada raro, ya que la menor gravedad del planeta Marte y una presión atmosférica más baja permiten que los edificios volcánicos del planeta rojo puedan crecer más que los formados bajo el resto de mismas condiciones en la Tierra.

Y aquí es donde viene la parte más aplicada de este estudio. Para conocer la señal magnética de Caldereta los investigadores usaron un hexacóptero con un magnetómetro separado del dron mediante un sistema de pértiga a más de un metro de su cuerpo, con objeto de evitar interferencias del dron. Volando sobre el cráter volcánico a unos 20 metros de altura sobre el terreno, para lo que llevaba un láser que le permitía calcular continuamente su distancia del suelo, fue capaz de obtener un detallado mapa del campo magnético del volcán.

A continuación crearon un modelo computacional de Caldereta en tres dimensiones. El modelo incluía el campo magnético a partir de los valores de mediciones directas del magnetismo de las rocas del propio cráter.

Este modelo simplificado mostró una concordancia bastante buena con las mediciones realizadas por el dron, tanto en el patrón del campo magnético observado, como en la intensidad de las anomalías magnéticas. El análisis de la señal obtenida muestra además que no hay una fuerte señal en el interior de Caldereta, lo que indicaría que sería un maar relleno de fragmentos de roca en vez de que exista un conducto de lava solidificado en su interior.

análogo planetarioEn esta imagen de alta resolución podemos ver con más detalle la topografía de C27. Una de las cosas que destacan es la gran cantidad de cráteres de impacto que tiene a su alrededor, lo que nos indica que se formó hace mucho tiempo. Las líneas de color blanco que se ven en la imagen son pequeñas dunas de arena. Foto: NASA/JPL/Universidad de Arizona.

¿Los siguientes pasos? Extrapolar estos conocimientos para futuras misiones marcianas. Para ello, también replicaron el cráter C27 de manera digital, pero con dos posibles formación diferentes.

Uno es que este cráter se formase mientras Marte tuviese activo su campo magnético global, de tal manera que sus rocas se habrían magnetizado al mismo tiempo que se iban enfriando, prediciendo un patrón magnético asociado a la forma del propio edificio volcánico.

El segundo es que, si este cráter se formó después de que el campo magnético de Marte cesase su actividad, las rocas volcánicas no tendrían una magnetización fuerte y coherente, por lo que su análisis magnético descubriría una especie de “agujero” o un “mínimo” de magnetización si lo comparamos con el terreno que lo rodea, que es más antiguo y probablemente sí se formó en presencia de un campo magnético.

La detección de cualquiera de estos patrones magnéticos mediante misiones voladoras podría ayudarnos a comprender mejor la contemporización de los episodios volcánicos del planeta y la duración del campo magnético, pero también a discriminar el origen de estas formas y si realmente representan episodios hidromagmáticos o han sido otros procesos los responsables de su formación.

Y, evidentemente, si estamos ante fenómenos freatomagmáticos, implicaría la presencia de agua o de hielo muy cerca de la superficie en el momento que ocurría la erupción volcánica, aportando una prueba más sobre la habitabilidad de Marte en el pasado. Pero, sobre todo, este estudio demuestra el poder de usar análogos terrestres para poder interpretar mejor los relieves que observamos en otros lugares de nuestro Sistema Solar.

Referencia:

Díaz Michelena, M., Losantos, E., Rivero, M. Á., Oliveira, J., García Monasterio, Ó., Mansilla, F., Melguizo, Á., García Bueno, J. L., Salamanca, D., & Fernández Romero, S. (2025). Vector magnetometry to analyse the Caldereta volcano in the Canary Islands as a possible terrestrial analogue of Mars Journal of Applied Geophysics doi: 10.1016/j.jappgeo.2025.105709

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo El volcán Caldereta como análogo planetario se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

De la energía oscura a los mercados: la geometría oculta de los sistemas complejos

Ig, 2025-05-11 11:59
sistemas complejosNebulosa de la mariposa. Fuente: NASA, ESA y J. Kastner (RIT), CC BY

La ciencia ha logrado avances significativos en la comprensión de sistemas simples y lineales, como el péndulo de un reloj antiguo. Sin embargo, los fenómenos complejos continúan desafiando los grandes modelos teóricos.

En los fenómenos complejos, las interacciones entre elementos generan comportamientos no previsibles a partir de sus partes. El clima en la Tierra lo es, también los mercados bursátiles y el modelo estándar que explica el universo actual, contando con la energía oscura como una constante.

Pero ¿y si la complejidad no fuera un obstáculo?

Desde hace algún tiempo, investigo la complejidad como una estructura aún no descifrada. Parto de la hipótesis de la existencia de una “geometría interna” que organiza los sistemas de forma emergente, sin recurrir a jerarquías rígidas ni a simplificaciones reduccionistas. Es posible avanzar en modelos que respeten la naturaleza intrínseca de la complejidad, abiertos al dinamismo, la inestabilidad y la autoorganización.

De la teoría del caos a los fractales

El estudio de la complejidad se aborda desde hace más de un siglo: la teoría del caos, los sistemas dinámicos no lineales, la lógica difusa o la geometría fractal indagan en el desorden aparente, que muchas veces esconde un patrón. La propuesta de una geometría relacional emergente se sitúa en continuidad con estos esfuerzos.

La paradoja de los sistemas complejos

Desde los inicios de la ciencia moderna, la estrategia fundamental ha sido la simplificación: dividir, aislar, medir. Y ha sido una vía poderosa para construir conocimiento. Algunos ejemplos son el movimiento de un objeto (física clásica), las reacciones químicas simples o la genética mendeliana.

Sin embargo, cuando intentamos aplicar este método a fenómenos como el clima, las redes neuronales, las economías globalizadas o la dinámica de grandes grupos sociales, encontramos un límite evidente. Los elementos no se comportan de forma independiente, y sus relaciones generan efectos cualitativamente nuevos, que no pueden anticiparse a partir de las partes.

En este contexto, el concepto de “emergencia” cobra protagonismo: la aparición de propiedades globales a partir de interacciones locales. La dificultad no está tanto en observar estas propiedades, sino en modelarlas sin traicionar su esencia.

Una propuesta: geometría relacional emergente

Investigo una perspectiva contemporánea sobre cómo las estructuras y relaciones emergentes pueden dar forma a nuestra comprensión de la realidad y la geometría en sistemas complejos.

Esta perspectiva define a los sistemas complejos no por su tamaño, ni por su cantidad de variables, sino por la naturaleza de las relaciones que se dan entre sus componentes. Son relaciones dinámicas, adaptativas y no jerárquicas. Forman una estructura interna que, aunque no sea visible como tal, determina el comportamiento global del sistema.

He denominado a esta estructura “geometría relacional emergente”. No es estática ni predeterminada, sino que surge y evoluciona con el sistema mismo; una geometría no dibujada con reglas y compases, sino tejida por las propias interacciones del sistema, como una red que se forma mientras se usa. No se trata, por ahora, de una formulación matemática cerrada, sino de un modelo conceptual que permite comprender fenómenos donde otras herramientas fracasan.

El coral como ejemplo

Este enfoque tiene implicaciones directas en diversos campos. En biología, podría permitir explicar por qué ciertos ecosistemas son resilientes frente a perturbaciones externas, mientras que otros colapsan.

Como ejemplo, en el ecosistema de arrecifes de coral, algunos muestran una sorprendente capacidad de recuperación después de eventos como el blanqueamiento masivo causado por el aumento de temperatura del océano. Un estudio del Arrecife de la Gran Barrera (Australia) muestra que la resiliencia del sistema está fuertemente influenciada por la diversidad y el tipo de relaciones entre especies (como peces herbívoros que controlan algas invasoras). No es solo la presencia de muchas especies, sino cómo se relacionan entre ellas lo que permite al ecosistema adaptarse y regenerarse.

En economía, ofrecería una lectura alternativa a las crisis sistémicas, alejándose de la idea de “fallos del mercado” para centrarse en fallos estructurales de interconexión.

En inteligencia artificial y redes neuronales, permitiría pensar la estabilidad y el aprendizaje desde una lógica relacional, no únicamente estadística.

Lo que une todos estos casos es la idea de que no es el contenido lo que importa, sino la forma en que las partes se conectan. Esa forma, la geometría emergente, es lo que otorga al sistema su capacidad de adaptación o su fragilidad. Este cambio de perspectiva aplica a sistemas biológicos o sociales y puede ofrecer nuevas lecturas en la física teórica.

Aplicaciones cosmológicas

El modelo tradicional para explicar el universo introduce la energía oscura como una constante cosmológica, un término que explica por qué el universo se expande aceleradamente. Pero esta constante, paradójicamente, no se puede deducir de ninguna interacción local ni tiene fundamento dinámico conocido. Podría verse como una herramienta matemática útil, aunque conceptualmente incómoda.

Desde la perspectiva de la geometría relacional emergente, la energía oscura no sería una fuerza misteriosa ni una constante arbitraria, sino una manifestación emergente del patrón global de relaciones en el tejido espacio-temporal.

Imaginemos el universo no como una estructura rígida con valores fijos, sino como una red de relaciones dinámicas que evoluciona.

Lo que percibimos como “aceleración de la expansión” podría no deberse a una fuerza oscura constante, sino a un cambio gradual en la estructura relacional del universo: por ejemplo, en cómo se conectan regiones del espacio-tiempo a gran escala.

Dentro de esta hipótesis, podríamos considerar que la energía oscura no es constante porque la geometría emergente tampoco lo es. La expansión del universo refleja un cambio en la conectividad interna del sistema, no una presión externa. Y, así como un sistema complejo cambia su forma interna sin necesidad de efectos externos, el universo también podría hacerlo.

Este enfoque permitiría reformular preguntas como ¿qué es la energía oscura?, ¿qué patrón relacional da lugar al comportamiento que interpretamos como energía oscura?

Más allá del caos

Aunque en fases posteriores se formalizará esta teoría con herramientas matemáticas, creo que es posible –y necesario– construir modelos que no dependan exclusivamente de ecuaciones para tener validez teórica. El pensamiento científico también se alimenta de metáforas, analogías, intuiciones estructuradas. Y es en ese terreno donde esta propuesta busca abrir un camino.

La complejidad no es un síntoma de confusión, sino la expresión más genuina del orden cuando este no responde a reglas fijas. Comprenderla exige un cambio de mirada: dejar de buscar certezas y empezar a detectar patrones sutiles, estructuras que no se imponen, sino que emergen.

Lo que aún no vemos

Estamos, quizás, ante una transición epistemológica. Así como en su día la física newtoniana cedió parte de su territorio ante la relatividad y la mecánica cuántica, hoy la modelización lineal y reduccionista muestra sus límites frente a la complejidad real del mundo. No se trata de renunciar al rigor, sino de expandir sus fronteras

El desafío está en imaginar nuevos lenguajes, nuevas formas de pensar, y, por qué no, nuevas geometrías. No visibles, no euclidianas, pero tan reales como las órbitas de los planetas o la doble hélice del ADN.

Tal vez el orden esté ahí, solo que aún no hemos aprendido a reconocerlo.The Conversation

Sobre el autor: Gastón Sanglier Contreras, Catedrático de Ingeniería, Universidad CEU San Pablo

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo De la energía oscura a los mercados: la geometría oculta de los sistemas complejos se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

BCAM Naukas 2025: La longitud de la costa y otros fractales

La, 2025-05-10 11:59

La fascinación que ha suscitado durante siglos el número π es tal, que se viene estudiando desde hace más de 4.000 años e, incluso, cuenta con su propio día en el calendario: el 14 de marzo. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés.

El número Pi representado por la letra griega π, es una de las constantes matemáticas más famosas e importantes que existen en el mundo y la celebración del Día de Pi a nivel internacional vino de la mano del físico estadounidense Larry Shaw, quien en 1988 lanzó la propuesta de celebrar esta efeméride. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.

F=ma

Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU se sumaron a la celebración, organizando la quinta edición del evento BCAM NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de UPV/EHU.

Cualquier dato publicado sobre la longitud de una costa es, en sentido estricto, erróneo. Nos lo explica Daniel Eceizabarrena, investigador postdoctoral en BCAM.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo BCAM Naukas 2025: La longitud de la costa y otros fractales se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

El efecto de la presencia humana en la diversidad oscura

Or, 2025-05-09 11:59

Los ecosistemas naturales están formados por conjuntos de especies capaces de vivir en unas condiciones específicas. Sin embargo, si visitamos un espacio natural concreto, no encontraremos todas las especies capaces de vivir en él. La proporción de especies que podrían vivir en un lugar específico, pero que no lo hacen, se conoce como diversidad oscura, un concepto acuñado en 2011 por investigadores de la Universidad de Tartu (Estonia). Una investigación en la que participa la Universidad del País Vasco ha descubierto ahora que esta diversidad oscura se incrementa en regiones con mayor actividad humana.

diversidad oscura Idoia Biurrun investigando durante la pandemia. Foto: Grupo de Investigación en Biodiversidad y Evolución / UPV/EHU

El trabajo, publicado en Nature, en el que participa el grupo de Investigación en Biodiversidad y Evolución de la Facultad de Ciencia y Tecnología de la Universidad del País Vasco, se ha desarrollado en el marco de la red internacional DarkDivNet. Se han estudiado cerca de 5.500 localidades de 119 regiones de todo el planeta.

En cada localidad estudiada, los equipos de investigación analizaron todas las especies de plantas presentes en diferentes hábitats para identificar la diversidad oscura. Esta metodología novedosa para un estudio de la biodiversidad ha permitido estimar la diversidad vegetal potencial de cada localidad de estudio y compararla con las plantas realmente presentes.

Efectos desconocidos en la diversidad oscura

Los resultados revelan un efecto de las actividades humanas en la biodiversidad desconocido hasta ahora. En regiones con poco impacto humano, los hábitats naturales contienen de media un tercio de las especies potenciales, principalmente debido a que, de forma natural, no todas las especies pueden dispersarse en todo el territorio.

Por el contrario, en regiones con fuerte impacto humano, los hábitats tienden a incluir solo un quinto de las especies potenciales. Los métodos tradicionales de estimación de la biodiversidad, basados en el conteo del número de especies presentes sin tener en cuenta las potenciales, tienden a subestimar el efecto real del impacto humano.

El estudio del Parque Natural de Gorbeia

La red DarkDivNet comenzó en 2018, basada en la idea original del profesor Meelis Pärtel, de la Universidad de Tartu, y primer autor del estudio. A partir de entonces se fueron sumando grupos de investigación de todo el mundo para poder muestrear el mayor número posible de regiones del planeta. Los trabajos se extendieron durante cinco años y tuvieron que sortear la pandemia COVID-19 y crisis políticas en muchos países de la red.

El  equipo científico de la UPV/EHU, formado por los profesores del área de Botánica del Departamento de Biología Vegetal y Ecología Idoia Biurrun Galarraga y Juan Antonio Campos Prieto, se unieron a la red, eligiendo el entorno del Parque Natural de Gorbeia para muestrear 55 localidades de estudio, tomando como hábitats objetivo hayedos y brezales

El grado de impacto humano en cada región se midió a partir del índice de huella humana (Human Footprint Index, HFI), basado en factores como densidad de población, cambios en el uso del suelo y construcción de infraestructuras (vías de comunicación).

Cientos de kilómetros

El estudio demostró que el HFI afecta negativamente a la diversidad de plantas en una localidad en un radio de varios cientos de kilómetros. Los autores indican que los resultados “son alarmantes porque muestran que las perturbaciones humanas tienen un impacto mucho mayor que lo que se pensaba inicialmente, llegando incluso a espacios protegidos alejados del origen del impacto humano. La contaminación, la deforestación, el sobrepastoreo o los incendios forestales pueden excluir a las especies de plantas de sus hábitats naturales, impidiendo su recolonización”.

Proteger el 30 %

Los investigadores también comentan que “la influencia negativa de la actividad humana fue menos pronunciada cuando al menos un tercio del área de una región permanecía bien conservada, lo que apoya el objetivo global de proteger el 30% de la superficie del planeta”.

En conclusión, este estudio resalta la importancia de mantener ecosistemas sanos más allá de las reservas naturales y destaca el concepto de diversidad oscura como una herramienta útil para evaluar el estado de ecosistemas en proceso de restauración, identificando las especies que tienen preferencia por un hábitat, pero no están aún presentes en el mismo.

Referencia:

Pärtel, M., Tamme, R., Carmona, C.P. et al. (2025) Global impoverishment of natural vegetation revealed by dark diversity Nature doi: 10.1038/s41586-025-08814-5

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El efecto de la presencia humana en la diversidad oscura se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Iluminando la respuesta inmune al ADN anómalo

Or, 2025-04-11 11:59

Nuestras células albergan un detector de ADN llamado cGAS, que informa al sistema inmunológico sobre infecciones virales y bacterianas, la muerte celular y la transformación durante el cáncer. Un grupo de investigación liderado por el Profesor de Investigación Ikerbasque Sergio P. Acebrón (UPV/EHU y Universidad de Heidelberg) ha “reutilizado” este proceso celular para crear un nuevo biosensor fluorescente. El estudio proporciona una herramienta biomédica que ofrece múltiples opciones para visualizar la respuesta inmune innata al ADN anómalo en poblaciones celulares.

ADN anómaloFuente: Smarduch et al (2025)

Cada una de nuestras células almacena su información genética en el núcleo (ADN genómico) y en las mitocondrias (ADN mitocondrial). Una vía molecular conservada, controlada por las proteínas cGAS, STING e IRF3, puede detectar ADN fuera de estos compartimentos y comunicarlo a las células vecinas y al sistema inmunológico mediante mensajeros secundarios, como cGAMP e Interferón. De esta manera, este sistema actúa como una «navaja suiza» protegiendo al cuerpo de células dañadas, que a menudo contienen fragmentos de ADN fuera del núcleo y/o las mitocondrias, así como contra ADN externo proveniente de infecciones virales y bacterianas.

Un “detector” celular clave

La desregulación de estos procesos está relacionada con la resistencia a la respuesta inmune en infecciones virales y cáncer, mientras que su activación anómala se asocia con enfermedades autoinmunes. Este estudio demuestra cómo la ingeniería de la interacción funcional entre STING e IRF3 activados puede utilizarse para capturar la dinámica espaciotemporal y heterogénea de la respuesta al mensajero intracelular y extracelular cGAMP. Este nuevo biosensor fluorescente, junto con herramientas de análisis de imágenes, permite visualizar la respuesta de células individuales y poblaciones celulares a la infección por el virus del herpes, la liberación de ADN mitocondrial durante la apoptosis y otras fuentes de ADN anómalo.

El desarrollo tumoral suele estar asociado a errores en la segregación de cromosomas que contienen el ADN genómico, lo que puede llevar a su extravasación del núcleo. Usando el nuevo biosensor, el estudio revela que los cromosomas mal segregados no activan la respuesta inmune innata a través de STING, probablemente debido al empaquetamiento natural del ADN genómico por las histonas. Este hallazgo es relevante, ya que varios ensayos clínicos han planteado a STING como un posible objetivo terapéutico contra tumores con inestabilidad cromosómica.

Este estudio representa un avance significativo en el campo de la respuesta inmune innata al proporcionar a la comunidad científica un método para visualizar estos procesos en modelos biológicos complejos.

Referencia:

Steve Smarduch, Serbio David Moreno-Velasquez, Doroteja Illic, Shashank Dadsena, Ryan Morantt, Anja Ciprinidis, Gislene Pereira, Marco Binder, Ana J. García-Sáez, Sergio P. Acebrón (2025) A novel biosensor for the spatiotemporal analysis of STING activation during innate immune responses to dsDNA The EMBO Journal doi: 10.1038/s44318-025-00370-y

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Iluminando la respuesta inmune al ADN anómalo se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Una Geología muy vikinga

Og, 2025-04-10 11:59

Hace poco estuve en un concierto de un grupo de los que se suelen considerar “viking metal”, un estilo dentro del heavy metal en el que los grupos se caracterizan por asumir un estilismo, tanto en las portadas de los discos como en su propia indumentaria y puesta en escena sobre el escenario, y tratar temas en las letras de las canciones recordando a esos pueblos nórdicos que, hace más de un milenio, decidieron convertirse en grandes navegantes, comerciantes y conquistadores: los vikingos (y las skjaldmær o escuderas, que no quiero que Lagertha se enfade).

 

Estas canciones suelen centrarse mucho en grandes batallas y viajes de conquista, desde esas primeras incursiones en tierras sajonas a finales del siglo VIII hasta las navegaciones hacia el noroeste que llevaron a estos pueblos a asentarse en Islandia (tierra de hielo) un siglo después, Groenlandia (tierra verde) a finales del siglo X y Hellulandia (tierra de rocas), Marklandia (tierra de bosques) y Vinlandia (tierra de viñas), las tres últimas en la actual Canadá, a comienzos del siglo XI. Pero no todo son cánticos de victoria, algunas canciones también hablan de la batalla de Stamford Bridge, ocurrida a finales del siglo XI y que supuso el principio del fin de la era vikinga.

vikingaMapa de la expansión de los pueblos del norte de Europa a lo largo de la era vikinga. Fuente: Max Naylor / Dominio público, Wikimedia Commons

Pero, ¿qué tiene que ver este periodo de la historia de los pueblos nórdicos con la Geología? Pues mucho, porque una de las principales hipótesis para explicar este “repentino” ímpetu navegante de los vikingos (y las escuderas, no nos olvidemos de las mujeres) es un evento climático bastante peculiar: el Óptimo Climático Medieval, también llamado Periodo Cálido Medieval o Anomalía Climática Medieval.

 

Par entender lo que es esto vamos a empezar por el principio. Actualmente vivimos en el Holoceno, la última Época en la que se subdivide el Periodo Cuaternario, y que se caracteriza por ser un interglacial, es decir, un momento relativamente cálido que acontece entre dos glaciaciones. Pero, si acercamos una lupa a la gráfica de variación de la temperatura atmosférica en el Atlántico Norte durante los últimos miles de años, veremos que se dibuja una línea en forma de dientes de sierra, con picos que representan eventos climáticos cálidos y fríos que se van alternando con una periodicidad centenaria. Y ahí es donde encontramos al Óptimo Climático Medieval, un periodo relativamente cálido que comenzó aproximadamente en el año 780 y terminó más o menos en el 1180, cuando dio paso a un momento más frío conocido como Pequeña Edad de Hielo, y que tuvo un pico máximo de temperaturas alrededor del año 1000.

vikingaVariación de la temperatura promedia en el Atlántico Norte (de 30º a 60º N de latitud) durante los últimos 2000 años. Imagen modificada de un original de la Administración Nacional Oceánica y Atmosférica de los Estados Unidos (National Oceanic and Atmospheric Administration, NOAA).

En realidad, aún no se conocen exactamente cuáles son las causas que provocan estos cambios climáticos de escala centenaria, considerando que posiblemente se deba a la combinación de varios factores, siendo los más probables las variaciones en la irradiancia solar (es decir, la potencia de la radiación solar en un área terrestre determinada), la fuerza de la Circulación de Vuelco Meridional Atlántica (nuestra vieja amiga AMOC), el efecto atmosférico de erupciones volcánicas muy explosivas, cambios en la retroalimentación entre el hielo marino y el agua oceánica, o la propia variabilidad atmosférica. Vamos, un cóctel explosivo capaz de provocar variaciones de varios grados centígrados en las temperaturas promedio de ciertas zonas de nuestro planeta durante décadas.

 

Sin embargo, parece que estos eventos climáticos de escala centenaria no han sucedido de manera homogénea en todo el planeta, sino que han tenido un efecto muy concentrado en el Atlántico Norte, sobre todo en la zona europea. Más en concreto, en el centro y el norte de Europa el Óptimo Climático Medieval supuso un periodo relativamente cálido, con veranos no muy áridos e inviernos suaves y húmedos, que, entre otras cosas, supusieron un gran impacto beneficioso para la agricultura, permitiendo, por ejemplo, el cultivo de productos como la vid en latitudes y altitudes hasta entonces nada productivas. Y en las zonas boreales provocó un retroceso de los mantos de hielo, tanto continentales como marinos, exponiendo terrenos vírgenes hasta entonces cubiertos y abriendo pasos marítimos generalmente congelados. Aunque en la Península Ibérica parece que no lo pasamos tan bien, ya que han quedado registros, tanto geológicos como históricos, de varias épocas de sequía que llegaron a producir importantes hambrunas, alternantes con momentos de lluvias torrenciales que arrasaban con todo lo que pillaban a su paso. Vamos, lo típico de un clima semiárido.

 

Seguro que ya os habéis fijado en la coincidencia de fechas entre el Óptimo Climático Medieval y el auge de la era vikinga. Y os habéis quedado con ese efecto de retirada de los hielos en zonas de latitudes altas, despejando rutas marítimas hasta entonces inexpugnables. Pues estas coincidencias son las que han llevado a la comunidad científica a suponer que esta anomalía climática propició que los pueblos del norte decidiesen subirse a sus drakar y explorar zonas completamente desconocidas. Y que ese ímpetu navegante se apagase con el comienzo de la Pequeña Edad de Hielo tampoco parece casualidad, ya que este evento climático frío provocó una caída generalizada de las temperaturas y un nuevo aumento de la extensión de los mantos de hielo en Europa del Norte, volviendo a aislar, marítimamente hablando, a los pueblos nórdicos.

 

Aunque si leéis un libro de historia encontraréis que el final de la era vikinga se debió a varios cambios sociales en los pueblos del norte, como su conversión al cristianismo, la competencia comercial con productos procedentes de Asia occidental, o varias pérdidas de cosechas que provocaron enfermedades y hambrunas. Pero, ¿acaso los eventos geológicos, en especial los cambios climáticos, no suelen ser los desencadenantes de todos los cambios sociales que ha vivido la humanidad a lo largo de su historia?

 

Ahí os dejo la pregunta. Mientras pensáis la respuesta, yo voy a seguir limpiando mi cuerno para estar preparada para el siguiente concierto. Y me refiero al cuerno de beber, no a los de los cascos, que esos sí que fueron una fantasía.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Una Geología muy vikinga se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Leopold Vietoris, un topólogo supercentenario

Az, 2025-04-09 11:59

Las contribuciones fundamentales de Leopold Vietoris a la topología general y algebraica, así como a otras ramas de las ciencias matemáticas, lo han convertido en un personaje inmortal en el mundo científico. Como persona, era excepcionalmente humilde y agradecido por su bienestar, que también deseaba y concedía a sus semejantes. Dedicaba su tiempo libre a su numerosa familia, la meditación religiosa, la música y sus queridas montañas. […] En investigación, Vietoris fue un «luchador solitario»: solo uno de sus más de setenta artículos matemáticos tiene coautor. La mitad de los artículos fueron escritos después de su sexagésimo cumpleaños.

Heinrich Reitberger

 

Leopold Vietoris el día de su 110 cumpleaños.Foto Konrad Jacobs / Mathematisches Institut Oberwolfach (MFO), , CC BY-SA 2.0 / Wikimedia Commons

 

Leopold Vietoris nació en Bad Radkersburg, Austria, el 4 de junio de 1891. Falleció en Innsbruck, Austria, el 9 de abril de 2002, con casi 111 años. Publicó su último artículo con 103 años. ¡Así se entiende mejor la última frase de la cita que abre este escrito!

 

De la ingeniería a las matemáticas

 

Leopold era hijo de Hugo Vietoris, ingeniero ferroviario, y Anna Diller. Con seis años comenzó su educación primaria en Viena. Entre 1902 y 1910 completó su formación secundaria. Siguiendo los deseos de su padre, ingresó en la Universidad Técnica de Viena en 1910, pensando estudiar ingeniería. Pero, a finales de ese mismo año, cambió sus planes para centrarse en las matemáticas, que aprendió con Hermann Rothe, Emil Müller (geometría descriptiva) y Theodor Schmid (geometría proyectiva).

 

En 1912, Vietoris asistió a una conferencia de Wilhelm Gross sobre topología, en la que el matemático describía su propio trabajo en esta área. En esta misma época, también siguió lecciones impartidas por Hermann Rothe sobre el concepto de variedad; Vietoris pensó en usar un enfoque topológico para crear una noción geométrica de variedad.

 

Trabajaba en estas ideas, tutorizado por Gustav von EscherichWilhelm Wirtinger, cuando estalló la Primera Guerra Mundial. El 28 de julio de 1914, el Imperio austrohúngaro declaró la guerra al reino de Serbia y Vietoris se presentó voluntario para el servicio en el ejército en agosto de 1914. Fue gravemente herido en septiembre de 1914 y, tras su recuperación, fue enviado al frente italiano como guía de montaña del ejército. Incluso durante las penurias de la guerra, Vietoris fue capaz de reflexionar sobre sus problemas de investigación. De hecho, en 1916 publicó su primer artículo.

 

El 4 de noviembre de 1918, fue capturado por el ejército italiano y permaneció preso hasta el 7 de agosto de 1919. Durante el tempo de su cautiverio pudo completar su tesis doctoral. Tras ser liberado y regresar a Viena, la presentó, obteniendo su doctorado en julio de 1920. Ese mismo año comenzó a trabajar como profesor asistente en la Universidad Técnica de Graz. En 1922, se trasladó a la Universidad de Viena, donde obtuvo su habilitación al año siguiente.

 

Investigando en topología: la sucesión de Mayer-Vietoris

 

La década de 1920 fue una época emocionante para los topólogos, y Viena era un lugar tan atractivo como cualquier otro, con HahnMengerReidemeister y, posteriormente, Hurewicz y Nöbeling. En medio de la conmoción general, surgieron muchas ideas de forma independiente y casi simultánea en varios lugares. Vietoris, quien siempre fue una persona extremadamente modesta, nunca participó en debates sobre prioridades (en contraste, por ejemplo, con su joven y apasionado colega Karl Menger). Pero Vietoris fue el primero en introducir filtros (a los que llamó «coronas») y uno de los primeros en definir espacios compactos (a los que llamó «lückenlos»), utilizando la condición de que cada filtro tuviera un punto de acumulación. También introdujo el concepto de regularidad y demostró que (en lenguaje moderno) los espacios compactos son normales.

Gilbert Helmberg y Karl Sigmund

 

En 1925, Vietoris pasó tres semestres en Ámsterdam donde participó en un seminario dirigido por Luitzen Egbertus Jan Brouwer. Influenciado por las ideas algebraicas que se discutían en esta escuela, comenzó a investigar en topología algebraica. De regreso en Viena, impartió algunas conferencias sobre grupos de homología y de cohomología, dos de los más conocidos invariantes algebraicos de espacios topológicos.

 

A estas conferencias asistió Walther Mayer que intentó resolver algunas de las conjeturas que Vietoris había descrito, solucionando un caso particular de una de ellas que publicó en 1929 (Über abstrakte Topologie). Vietoris completó la prueba del resultado general para los grupos de homología en 1930 (Über die Homologiegruppen der Vereinigung zweier Komplexe), teorema que hoy en día se conoce como sucesión de Mayer-Vietoris. Este precioso resultado es un método para calcular los grupos de homología de un espacio topológico a partir de los de algunos de sus subespacios.

Leopold Vietoris se había casado con Klara Anna Maria Riccabona von Reichenfels (1904-1935) en otoño de 1928. En 1930, tras varios cambios de centro, comenzó a trabajar en la Universidad de Innsbruck como profesor titular;  permaneció allí durante el resto de su carrera.

 

Klara falleció en 1935 al dar a luz a su sexta hija. Al año siguiente, Vietoris se casó con su hermana, Maria Josefa (1901-2002).

 

Tras la Segunda Guerra Mundial trabajó en diferentes áreas, incluida la estadística, publicando su último artículo con 103 años.

 

Una larga vida, el matemático (conocido) más longevo

 

 

Leopold Vietoris falleció el 9 de abril de 2002, dos meses antes de cumplir 111 años. Dos semanas antes había fallecido su esposa Maria Josefa, con la que compartió 66 años de vida, a los 100 años.

 

En el archivo MacTutor, se incluye una gráfica con la esperanza de vida de 2891 matemáticos cuyas fechas de nacimiento y fallecimiento se conocen. Vietoris es el más longevo. El matemático con una vida más corta fue Évariste Galois, que falleció a los 20 años.

 

También fueron longevos Guacolda Antoine Lazzerini y Serguéi Nikolski (fallecieron con 107 años), Manuela Garín Pinillos (105 años), Henri Cartan (104 años), Johanna Weber (103 años) o Katherine Johnson y Kathleen Ollerenshaw (101 años), por citar algunos.

 

Referencias

 

 

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia

El artículo Leopold Vietoris, un topólogo supercentenario se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Cómo un problema sobre palomas impulsa la teoría de la complejidad

Ar, 2025-04-08 11:59

Cuando hay más palomas que palomares, algunas aves deben agruparse. Esta afirmación obvia, y su inversa, tiene profundas conexiones con muchas áreas de las matemáticas y la informática.

Un artículo de Ben Brubaker. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

Imagen: BenFrantzDale / McKay. CC BY-SA 3.0, Wikimedia Commons

Dicen que más vale pájaro en mano que ciento volando, pero para los informáticos, dos pájaros en un agujero es mucho mejor. Esto se debe a que esas aves que cohabitan son las protagonistas de un teorema matemático engañosamente simple llamado el principio del palomar. Es fácil de resumir en una frase corta: si diez palomas se acurrucan en nueve palomares, al menos dos de ellas deben compartir un agujero. Ahí está, eso es todo.

«El principio del palomar es un teorema que provoca una sonrisa», comenta Christos Papadimitriou, informático teórico de la Universidad de Columbia. «Es un tema de conversación fantástico».

Pero el principio del palomar no es solo cosa de pájaros. Aunque suene dolorosamente simple, se ha convertido en una potente herramienta para los investigadores dedicados al proyecto central de la informática teórica: mapear las conexiones ocultas entre diferentes problemas.

El principio del palomar se aplica a cualquier situación en la que objetos se asignan a categorías y el número de objetos supera al de categorías. Por ejemplo, implica que, en un estadio de fútbol abarrotado con 30.000 asientos, algunos asistentes deben tener la misma contraseña de cuatro dígitos, o PIN, para sus tarjetas bancarias. En este caso, las palomas son los aficionados al fútbol y los agujeros son los 10.000 PIN posibles, del 0000 al 9999. Esto representa que hay menos posibilidades que el número total de personas, por lo que algunas deben tener los mismos dígitos.

Esta demostración destaca no solo por su simplicidad, sino también por lo que omite. Muchos métodos matemáticos para demostrar la existencia de algo son «constructivos», lo que significa que también muestran cómo encontrarlo. Las demostraciones «no constructivas», como las basadas en el principio del palomar, carecen de esta propiedad. En el ejemplo del estadio de fútbol, ​​saber que algunas personas deben tener el mismo PIN no indica cuáles son. Siempre se puede recorrer la grada preguntando a cada persona por turno. Pero, ¿existe una manera más sencilla?

Preguntas como esta, sobre la manera más eficiente de resolver problemas, son fundamentales en la rama de la informática conocida como teoría de la complejidad computacional. Los teóricos de la complejidad estudian estas cuestiones agrupando los problemas en clases según ciertas propiedades compartidas. A veces, el primer paso hacia un avance es simplemente definir una nueva clase para agrupar problemas que los investigadores no habían estudiado previamente.

Eso fue lo que ocurrió en la década de 1990, cuando Papadimitriou y otros teóricos de la complejidad comenzaron a estudiar nuevas clases de problemas, en los que el objetivo es encontrar algo que debe existir debido al principio del palomar u otra demostración no constructiva. Esta línea de trabajo ha propiciado importantes avances en diversos campos de la informática, desde la criptografía hasta la teoría de juegos algorítmica.

Christos Papadimitriou (recuadro) y Oliver Korten demostraron que el principio del palomar vacío se relaciona con importantes problemas en matemáticas e informática. Fuentes: Columbia Engineering / Recuadro: cortesía de Christos Papadimitriou.

Para enero de 2020, Papadimitriou llevaba 30 años reflexionando sobre el principio del palomar. Así que se sorprendió cuando, bromeando con un colaborador frecuente, les llevó a una enfoque simple del principio que nunca habían considerado: ¿Y si hay menos palomas que agujeros? En ese caso, cualquier disposición de las palomas debe dejar algunos agujeros vacíos. De nuevo, parece obvio. Pero ¿invertir el principio del palomar tiene alguna consecuencia matemática interesante?

Puede parecer que este principio del «palomar vacío» es simplemente el original con otro nombre. Pero no es así, y su carácter sutilmente diferente lo ha convertido en una herramienta nueva y fructífera para clasificar problemas computacionales.

Para comprender el principio del palomar vacío, volvamos al ejemplo de la tarjeta bancaria, transpuesto de un estadio de fútbol a una sala de conciertos con 3000 asientos, un número menor que el total de PIN posibles de cuatro dígitos. El principio del palomar vacío dicta que algunos PIN posibles no están representados en absoluto. Sin embargo, si se desea encontrar uno de estos PIN que faltan, no parece haber mejor manera que simplemente preguntarle a cada persona su PIN. Hasta ahora, el principio del casillero vacío es igual que su contraparte más famosa.

La diferencia radica en la dificultad de comprobar las soluciones. Imaginemos que alguien dice haber encontrado dos personas específicas en el estadio de fútbol con el mismo PIN. En este caso, correspondiente al planteamiento del palomar original, existe una forma sencilla de verificar dicha afirmación: simplemente comprobar con las dos personas en cuestión. Pero en el caso de la sala de conciertos, imaginemos que alguien afirma que ninguna persona tiene el PIN 5926. En este caso, es imposible verificarlo sin preguntar a todos los presentes cuál es su PIN. Esto hace que el principio del palomar vacío sea mucho más complejo para los teóricos de la complejidad.

Dos meses después de que Papadimitriou comenzara a reflexionar sobre el principio del palomar vacío, lo mencionó en una conversación con un futuro estudiante de posgrado. Lo recuerda vívidamente, porque resultó ser su última conversación en persona con alguien antes de los confinamientos por la COVID-19. Encerrado en casa durante los meses siguientes, se enfrentó a las implicaciones del problema para la teoría de la complejidad. Finalmente, él y sus colegas publicaron un artículo sobre problemas de búsqueda con soluciones garantizadas gracias al principio del palomar vacío. Estaban especialmente interesados ​​en problemas donde abundan los palomares, es decir, donde superan con creces a las palomas. Siguiendo la tradición de acrónimos complicados en la teoría de la complejidad, denominaron a esta clase de problemas APEPP, por sus siglas en inglés, «principio del palomar vacío polinomial abundante».

Uno de los problemas de esta clase se inspiró en una famosa demostración de hace 70 años del pionero de la informática Claude Shannon. Shannon demostró que la mayoría de los problemas computacionales deben ser inherentemente difíciles de resolver, utilizando un argumento basado en el principio del palomar vacío (aunque no lo llamó así). Sin embargo, durante décadas, los informáticos han intentado, sin éxito, demostrar que ciertos problemas específicos son realmente difíciles. Al igual que los PIN de tarjetas bancarias que faltan, los problemas difíciles deben existir, incluso si no podemos identificarlos.

Históricamente, los investigadores no han considerado el proceso de búsqueda de problemas complejos como un problema de búsqueda que pudiera analizarse matemáticamente. El enfoque de Papadimitriou, que agrupó este proceso con otros problemas de búsqueda relacionados con el principio del palomar vacío, tenía un matiz autorreferencial característico de gran parte del trabajo reciente en teoría de la complejidad: ofrecía una nueva forma de razonar sobre la dificultad de demostrar la complejidad computacional.

“Estás analizando la tarea de la teoría de la complejidad utilizando la teoría de la complejidad”, explica Oliver Korten, investigador de Columbia.

Korten es el futuro estudiante con quien Papadimitriou había discutido el principio del palomar vacío justo antes de la pandemia. Llegó a Columbia para trabajar con Papadimitriou y, durante su primer año de posgrado, demostró que la búsqueda de problemas computacionales complejos estaba íntimamente ligada a todos los demás problemas de APEPP. En un sentido matemático específico, cualquier progreso en este problema se traducirá automáticamente en progreso en muchos otros que los informáticos y matemáticos han estudiado durante mucho tiempo, como la búsqueda de redes que carecen de una subestructura simple.

El artículo de Korten atrajo inmediatamente la atención de otros investigadores. «Me sorprendió bastante cuando lo vi», cuenta Rahul Santhanam, teórico de la complejidad de la Universidad de Oxford. «Es increíblemente emocionante». Desde entonces, él y otros investigadores han aprovechado el avance de Korten para demostrar una serie de nuevos resultados sobre las conexiones entre la dificultad computacional y la aleatoriedad.

«Esto tiene una riqueza asombrosa», dijo Papadimitriou. «Aborda la esencia de importantes problemas de complejidad».

El artículo original, How a Problem About Pigeons Powers Complexity Theory, se publicó el 4 de abril de 2025 en Quanta Magazine.

Traducido por César Tomé López

El artículo Cómo un problema sobre palomas impulsa la teoría de la complejidad se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

De leche y mIEL: linfocitos T promueven la lactogénesis mamaria

Al, 2025-04-07 11:59

 

La lactancia materna fue un factor esencial en el éxito evolutivo de los mamíferos. La posibilidad de alimentar al neonato extiende en el tiempo la inversión parental, es decir, el esfuerzo invertido por los progenitores para optimizar la supervivencia de su prole. Los mamíferos placentados alimentan a sus descendientes antes y después del parto, de forma que crezcan, maduren y puedan enfrentarse con mayores garantías a los desafíos que encontrarán antes de llegar a la edad reproductiva.

Las aves también han optado por una estrategia de alimentación postnatal, transportando comida al nido y distribuyéndola a los polluelos. Sin embargo, la lactancia de los mamíferos es excepcional. Las madres sintetizan el alimento necesario para sus crías en las glándulas mamarias. Estas glándulas se preparan para la producción de leche a lo largo de la gestación, bajo el control hormonal de estrógenos, progesterona y prolactina. Tras el parto, la secreción de leche (lactogénesis) es activada por la prolactina.

Esto es lo que sabíamos hasta ahora, pero un artículo que acaba de ser publicado en la revista Cell por un grupo de investigadores del NIH (Bethesda, EE.UU.) ha revelado otros protagonistas inesperados de la lactogénesis. Se trata de linfocitos, en concreto de un tipo no convencional de linfocitos T denominados mIEL (por mammary intraepithelial lymphocytes).

mIELFigura 1. Los precursores de los linfocitos T intraepiteliales (IEL) se encuentran en el timo. En ratonas que no han gestado anteriormente (nulíparas) migran al intestino delgado. La fotografía muestra siIEL (small-intestine intraepithelial lymphocytes) en el epitelio intestinal (flechas). En ratonas gestantes el timo disminuye de tamaño, pero se enriquece en precursores de IEL que migran a la glándula mamaria dando lugar a los mIEL (mammary intraepithelial lymphocytes). Estas células activan la producción de leche en el epitelio mamario y la diferenciación de células mioepiteliales contráctiles. Figuras modificadas de Ivanova et al. (2021) doi: 10.3390/genes12020231; Singh et al., (2020), doi: 10.3389/fimmu.2020.01850; Wiarda et al. (2022), doi: 10.3389/fimmu.2022.1048708; y Olek Remesz, CC BY 4.0.

La función de los linfocitos y del resto de células del sistema inmune es protegernos contra las infecciones y los agentes externos en general. No obstante, en los últimos años estamos comprendiendo que, más allá de las tareas defensivas, células inmunitarias también participan en otras funciones relacionadas con el desarrollo y la vida adulta.

El grupo del NIH, liderado por Yasmine Belkaid, observó que una deficiencia en linfocitos perjudicaba el desarrollo de las mamas y la lactancia en ratones. En concreto, vieron que linfocitos no convencionales del tipo T-bet [1] se acumulaban en las mamas de los ratones durante la gestación. Su deficiencia, inducida mediante manipulación genética, provocaba un menor desarrollo de las glándulas mamarias, una menor producción de leche y, como era de esperar, una menor ganancia de peso por parte de las crías.

Precursoras de linfocitos T-bet del timo

Los investigadores confirmaron que los linfocitos T-bet procedían del timo. Esto era llamativo, ya que el timo involuciona durante la gestación, un fenómeno que se ha relacionado con la tolerancia inmunológica hacia los fetos. Sin embargo, el timo reducido de las ratonas gestantes mostraba un paradójico enriquecimiento en precursores de linfocitos T-bet (Figura 1).

Cuando los precursores de los T-bet se inyectaron en ratonas deficientes en linfocitos, el destino de las células resultantes fue diferente en función del estado de la ratona. Si la ratona no había gestado anteriomente, los T-bet se alojaron en el intestino delgado, convirtiéndose en siIEL (por small-intestine intraepithelial lymphocytes), un tipo especializado de células inmunitarias que residen en el epitelio del intestino delgado. Pero cuando los precursores T-bet se inyectaron en ratonas deficientes en linfocitos y gestantes, las células se dirigieron a las glándulas mamarias, donde se diferenciaron en los mIEL necesarios para la producción de leche (Figura 1).

Este resultado es sorprendente. Durante la gestación, el suministro normal de linfocitos intraepiteliales al intestino delgado por parte del timo se reorganiza y desvía, proporcionando linfocitos intraepiteliales a la glándula mamaria. Su función también cambia, de la defensa contra infecciones y regulación de la inmunidad intestinal, estos linfocitos pasan a ser activadores de la lactogénesis.

La doble función de los mIEL

En concreto, los mIEL realizan una doble función en la glándula mamaria. Por un lado, activan la síntesis de los componentes de la leche en el epitelio mamario. Por otro, promueven la diferenciación de células mioepiteliales con capacidad contráctil para impulsar el flujo de la leche (Figura 1). De ahí su importancia para la lactogénesis.

¿Son extrapolables estos resultados a la especie humana? Los autores del estudio piensan que es probable, ya que han localizado en la leche materna linfocitos con las mismas características de los mIEL, aunque será necesario confirmar esto. Lo que sí parece interesante es que este descubrimiento podría aclarar el origen de algunas anomalías en la lactogénesis humana. Todavía más importante, el descubrimiento de los mIEL podría explicar la protección parcial que parece conferir la lactancia frente al cáncer de mama. En efecto, diversos estudios sugieren que la frecuencia de este tipo de cáncer se correlaciona negativamente con la duración del amamantamiento. El grupo del NIH ha observado que los mIEL permanecen en la glándula mamaria del ratón una vez que la han colonizado, aunque hayan terminado de amamantar. Como se trata de células del sistema inmune con propiedades citotóxicas, se puede especular que su presencia sea una de las razones que explican esta protección contra el cáncer.

Referencia:

Corral, D., Ansaldo, E., Delaleu, J. et al. (2025) Mammary intraepithelial lymphocytes promote lactogenesis and offspring fitness. Cell. Doi: 10.1016/j.cell.2025.01.028.

Nota:

[1] Se trata de un tipo de linfocitos caracterizado por expresar el factor de transcripción TBX21.

 

Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.

El artículo De leche y mIEL: linfocitos T promueven la lactogénesis mamaria se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Veinte años de Hubble observando la larga primavera de Urano

Ig, 2025-04-06 11:59

 

uranoDos caras del planeta Urano captadas por el Telescopio Espacial Hubble. A la izquierda, Urano en 2005 con su sistema de anillos, a la derecha, en 2006 revelando su estructura de bandas y una gran tormenta visible como una mancha oscura. Imagen: NASA, ESA, Mark Showalter

 

La noche del 13 de marzo de 1781 se presentó despejada en la bella localidad de Bath, al sur de Inglaterra. Desde el jardín trasero de su vivienda William Herschel se encontraba pegado como de costumbre a la mira de uno de los telescopios reflectores que él mismo y su hermana Caroline habían diseñado y construido de manera autodidacta. Tan solo unos años atrás había comprado el libro «Astronomía» del astrónomo James Ferguson y, prendado del firmamento, aprendió a escudriñar la profundidad cósmica y a desarrollar sus propios instrumentos ópticos. Entre los incontables objetos que brillaban en aquella sesión nocturna, el astrónomo alemán acertó a distinguir una luz lejana y borrosa que, en principio, calificó y anotó como un posible cometa. Era lo habitual, durante sus noches de observación junto a su hermana, la pareja había logrado recopilar una buena colección de nuevos cometas, la propia Caroline Herschel descubrió ocho de ellos.

Con el paso de los años aquel nuevo cuerpo celeste se estudió con más detalle y, finalmente, la verdad fue revelada: en realidad no se trataba de un cometa, sino de un planeta. Todo un acontecimiento para la época, no todos los días se descubre un nuevo miembro del sistema solar. El recién llegado se nombró como «planeta Jorge», en honor al rey de Inglaterra y durante algunas décadas mantuvo esa denominación hasta que la tradición mitológica que guía los bautismos planetarios terminó por imponerse y hoy todos lo conocemos con el nombre de «Urano», el dios griego de los cielos.

uranoJardín trasero de la casa de los Herschel en Bath, desde donde descubrieron Urano. Foto:| Javier Peláez

El mundo descubierto por Herschel es fascinante y extraño y, a pesar de ser el tercer planeta más grande de nuestro vecindario solar, después de Júpiter y Saturno, en muchos aspectos sigue siendo un desconocido. Buena parte de los misterios que aún esconde este gigante gaseoso se deben a la falta de atención de las misiones y sondas que estudian nuestro sistema. Desde el inicio de la carrera espacial solamente una nave espacial se ha acercado al planeta, y eso fue en 1986, cuando la Voyager 2 lo sobrevoló, capturando las pocas imágenes cercanas que poseemos.

Urano presenta características únicas que aún no comprendemos con profundidad. La más destacada es su orientación, ya que orbita «de lado» respecto al plano del sistema solar, con una inclinación de su eje de casi 98 grados. Las teorías más aceptadas apuntan a que, en algún momento de su historia, Urano recibió la influencia gravitatoria o el impacto directo de un cuerpo del tamaño de la Tierra que hizo que su eje orbital se desplazara. Ser un planeta que gira «ladeado» también le confiere cualidades extrañas… mientras que el resto de planetas orbita el Sol girando como peonzas, Urano lo hace como una pelota rodando por una pendiente, lo cual hace que sus estaciones sean muy diferentes al resto de planetas.

Es un ecosistema en sí mismo con 27 lunas conocidas y un sistema de anillos que se revelaron de manera inesperada en 1977, casi dos siglos después de su descubrimiento. La distancia promedio de Urano al Sol es de aproximadamente 2,870 millones de kilómetros (unas 20 unidades astronómicas) y completa una vuelta cada 84 años, lo que significa que incluso los nacidos en 1941 aún no habrían cumplido un año en aquel planeta. La duración del año uraniano hace difícil comprender sus estaciones ya que se necesitan larguísimos periodos de observación para poder obtener datos comparativos.

Quizá, y si tenemos la suerte de que se apruebe la Uranus Orbiter and Probe, dentro de algunos años podríamos gozar de la oportunidad de viajar hasta el planeta con una sonda científica, dedicada íntegramente a él. Mientras tanto, tendremos que conformarnos con analizarlo desde la distancia con los diferentes observatorios terrestres y telescopios espaciales.

Precisamente desde el equipo del Telescopio espacial Hubble nos llega estos días un estudio de larga duración que ofrece una visión dedicada y extensa del planeta Urano a lo largo de más de dos décadas de observación. Nuestra gran ventana al Universo, el Hubble, ha recopilado su mirada al planeta durante los últimos 20 años consiguiendo nuevos conocimientos atmosféricos, desde 2002 hasta 2022… y aquí nos encontramos una nueva paradoja: estas dos décadas de imágenes no son más que un efímero suspiro en la vida de este planeta, veinte años que apenas representan una estación completa ya que la primavera en Urano comenzó en el año 2007 y se extenderá hasta 2028, momento en el que empezará el verano.

uranoLa primavera en Urano, veinte años de observación con el Hubble . Fuente: NASA, ESA, Erich Karkoschka (LPL)

El equipo dirigido por el astrónomo Erich Karkoschka, de la Universidad de Arizona, ha utilizado en cuatro ocasiones el instrumento STIS, una cámara espectrógrafo instalada en el telescopio espacial Hubble, en los años 2002, 2012, 2015 y 2022, para rastrear los cambios estacionales en Urano «durante la primavera boreal del planeta, cuando el Sol pasó de brillar sobre el ecuador del planeta a casi brillar directamente sobre su polo norte, algo que ocurrirá en 2030».

La atmósfera de Urano está compuesta principalmente de hidrógeno y helio, con una pequeña cantidad de metano que le da al planeta su característico tono azul verdoso general. El sobrevuelo de la Voyager 2 nos ofrecía un cuerpo gaseoso muy homogéneo y bastante soso, quizá por eso se ha descuidado tanto el estudio de Urano, pero el nuevo estudio nos revela «complejos patrones de circulación atmosférica» con una distribución irregular del metano. A diferencia de las condiciones de otros gigantes gaseosos, como Saturno y Júpiter, «el metano no se distribuye uniformemente en Urano. En los polos es muy poco frecuente y esa disminución se ha mantenido relativamente constante durante las dos décadas de observación».

La composición de imágenes que ha presentado el equipo del Hubble nos muestra el planeta de diversas maneras a lo largo de estos veinte años de observación. La fila superior, en luz visible, «muestra cómo aparece Urano ante el ojo humano tal y como se ve incluso a través de un telescopio de aficionado». Durante el periodo de veinte años, la región polar sur (izquierda) se ha ido oscureciendo al quedar en la sombra invernal mientras que la región polar norte (derecha) se ha ido iluminando progresivamente con la llegada del verano boreal.

uranoUrano en luz visible (tal y como lo ve el ojo humano). Imagen: NASA, ESA, Erich Karkoschka (LPL)

En la segunda fila, la imagen en falso color del planeta se compone de observaciones en luz visible e infrarroja cercana. El color y el brillo corresponden a las cantidades de metano y aerosoles. Ambas cantidades no se podían distinguir antes de que el espectrógrafo STIS del Hubble apuntara por primera vez a Urano en 2002. Generalmente, las áreas verdes indican menos metano que las azules, y las rojas se encuentran casi completamente libres de metano.

Urano en luz visible + infrarrojos mostrando el metano en el planeta. Imagen: NASA, ESA, Erich Karkoschka (LPL)

Las dos últimas filas muestran la estructura de los aerosoles y el metano en diferentes latitudes, inferida a partir de 1000 longitudes de onda diferentes, desde el visible hasta el infrarrojo cercano. «En latitudes medias y bajas, los aerosoles y la disminución del metano presentan una estructura latitudinal propia que, en general, no varió significativamente durante las dos décadas de observación. Sin embargo, en las regiones polares, los aerosoles y la disminución del metano se comportan de forma muy diferente».

uranoDistribución del metano y aerosoles durante la primavera en Urano. Imagen: NASA, ESA, Erich Karkoschka (LPL)

La investigación de este equipo de astrónomos continuará conforme el planeta se acerca a su verano y no solo nos resulta útil para comprender los patrones estacionales del siempre misterioso Urano, sino que también «pueden sentar las bases para futuros estudios de exoplanetas similares». En 2031, si todo marcha como está previsto, a las observaciones del Hubble quizá podamos incorporar datos en directo de la esperada Uranus Orbiter and Probe.

 

Referencias científicas y más información:

NASA Hubble Mission Team «20-Year Hubble Study of Uranus Yields New Atmospheric Insights» Science NASA (2025)

Sharmila Kuthunur « Changing seasons on Uranus tracked across 20 years by Hubble Space Telescope» Space.com (2025)

 

Sobre el autor: Javier «Irreductible» Peláez (Puertollano, 1974) es escritor y comunicador científico. Autor de 500 años de frío. La gran aventura del Ártico (Crítica, 2019) y Planeta Océano (Crítica 2022). Es uno de los fundadores de la plataforma Naukas.com, editor de ciencia en Yahoo España y Latinoamérica. Es guionista científico en los programas de televisión «El Cazador de Cerebros» y «Órbita Laika» de RTVE. Durante más de una década ha escrito en diferentes medios de comunicación (El País, El Español, National Geographic, Voz Populi). Es autor de los podcasts Catástrofe Ultravioleta y La Aldea Irreductible, y ha colaborado en diferentes proyectos radiofónicos y televisivos (Radio Nacional de España, Radio Televisión Canaria). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.

El artículo Veinte años de Hubble observando la larga primavera de Urano se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

¿Todo esto con electrones?

Or, 2025-03-21 11:59

¿Sabías que algunas moléculas y sus electrones pueden generar superpoderes? ¿Cómo es posible que un disco duro almacene información magnética? ¿O que una televisión emita luces y colores tan puros? El secreto está en los electrones.

Gran parte de lo que eres y la mayoría de las cosas con las que interaccionas en tu día a día están compuestas de moléculas. Como personas dedicadas a la química, podemos estudiar prácticamente cualquier molécula que se nos ocurra y así poder avanzar en direcciones nuevas para encontrar aplicaciones fascinantes. En particular, nos interesan los materiales magnéticos, es decir, compuestos que tienen electrones desapareados. Generalmente, una molécula usa todos sus electrones para crear enlaces químicos, como lo hacen dos átomos de hidrógeno cuando se enlazan para formar el H2 donde se aparean los electrones (apuntan en sentido opuesto). Pero con un poco de cuidado, y mucha química, se puede conseguir que algunos electrones se queden sin usar como cuando utilizamos metales para crear moléculas, lo que las dota de superpoderes.

Figura 1.- Unión de dos átomos de hidrógeno formando una molécula H2 donde los electrones están apareados (izquierda) y molécula basada en un ion de Co2+ con tres electrones desapareados (derecha).

Por ejemplo, algunas moléculas quirales (aquellas que si se miran en el espejo no se ven a sí mismas, sino a otras moléculas que se les parecen mucho, como si de la mano izquierda y derecha se tratase) pueden filtrar la corriente eléctrica. ¿Esto qué quiere decir? Que usando los compuestos que sintetizamos en nuestros laboratorios podemos filtrar los electrones en base a una propiedad fundamental llamada espín. ¿Para qué? Entre otras cosas, para generar hidrógeno como fuente de energía alternativa a los combustibles fósiles. Ese hidrógeno (gas), que es muy escaso en la naturaleza, puede obtenerse “rompiendo” la molécula de agua, que es muy abundante. Pero “romper” implica usar energía, que debería proceder de fuentes limpias. En nuestro laboratorio, desarrollamos materiales capaces de disminuir la cantidad de energía necesaria para “romper” el agua y obtener hidrógeno. Esos materiales bloquean uno de los dos tipos de electrones que existen (espín up y espín down), y permiten el paso del segundo tipo de electrones. Es decir, generan corrientes espintrónicas que tienen la capacidad de favorecer la reacción de “ruptura” del agua, una reacción de oxidación-reducción donde también se genera oxígeno.

Figura 2.- Corriente electrónica que atraviesa un material quiral capaz de seleccionar espines electrónicos y favorecer la reacción de ruptura de agua para obtención de hidrógeno y oxígeno.

Los discos duros también funcionan gracias a los electrones desapareados. En la actualidad, la mayoría operan con partículas magnéticas que las componen, las cuales guardan la información del lenguaje binario (el 1 o el 0) en función de la orientación del momento magnético de los electrones en cada dominio magnético. Siendo esto así, es predecible pensar que, cuanto menor sea el tamaño de dominio, el dispositivo dispondrá de capacidad para almacenar mayor densidad de información ocupando el mismo espacio. En este sentido, las moléculas basadas en iones de tipo lantánido están revolucionando la investigación en esta área, ya que cada molécula es capaz de almacenar la información de un bit. A diferencia de las partículas magnéticas, donde hacen falta millones de átomos para almacenar la información de un bit, las moléculas magnéticas pueden hacerlo únicamente combinando unas pocas decenas. Así, el potencial de estos nuevos materiales se presenta muy cautivador.

Figura 3.- Representación de partículas magnéticas con dominios independientes para poder almacenar información en lenguaje binario (arriba) y representación de una molécula magnética con orientación del momento magnético opuesto en representación del lenguaje binario (abajo).

Estos mismos iones pueden dar lugar también a emisión de colores puros. Los iones lantánidos tienen estados excitados muy bien definidos energéticamente, lo que hace que cuando los electrones relajen de estos estados excitados, se libere una cantidad de energía muy concreta y asociada a un único color. Por ejemplo, las moléculas compuestas por iones de europio tienen estados excitados situados a energías con respecto al estado fundamental que producen emisiones de fotones cuya longitud de onda mayoritaria es de 615 nm, mientras que para los iones de terbio las emisiones rondan los 540 nm. Estas longitudes de onda se corresponden con los colores rojo y verde en el espectro visible, respectivamente. Es importante mencionar que, no todas las moléculas compuestas por estos iones presentan emisión de luz, ya que es fundamental diseñar y elegir bien los ligandos orgánicos que rodearán los iones para que haya una efectiva transferencia de energía entre ambos elementos y den lugar, así, a procesos de emisión de luz.

Figura 4.- Representación de cómo relajan los electrones desde los estados excitados del EuIII y el TbIII a los estados fundamentales emitiendo fotones de una longitud de onda concreta (izquierda) y fotos de emisión de luz de compuestos sólidos y disueltos de EuIII y TbIII (derecha).

Tal y como has podido observar, las moléculas junto con sus electrones pueden dar lugar a infinidad de propiedades y aplicaciones interesantes, y esto no ha sido más que una pincelada de lo que pueden ofrecer.

Autores: Javier Cepeda Ruiz, profesor titular de la Facultad de Química de la UPV/EHU; Daniel Reta Mañeru, Ikerbasque Research Associate Professor,  Facultad Química & DIPC; Eider San Sebastian Larzabal, profesora agregada de la Facultad de Química de la UPV/EHU y Andoni Zabala Lekuona, profesor adjunto de la Facultad de Química de la UPV/EHU.

La Facultad de Química de la UPV/EHU cumple este año 50 años. Con motivo de este aniversario se han organizado un gran número de actividades festivas, de orientación del alumnado de secundaria, investigación, transferencia y divulgación. Entre estas últimas podemos encontrar “12 meses – 12 temas”, conjunto de actividades que pretende mostrar a la sociedad las temáticas desarrolladas en la Facultad. Entre estas actividades podemos encontrar el ciclo de charlas “50 años difundiendo la química”, en Ernest Lluch Kulturetxea, así como vídeos de divulgación, entrevistas en radio y artículos en los blogs de divulgación de la Cátedra de Cultura Científica. Durante todo el año contaremos con invitados especiales, como los cuatro Centros de Investigación nacidos de la Facultad (CIDETEC, CFM, DIPC y POLYMAT), así como los Premios Nobel Albert Fert y Jean Marie Lehn. Se puede consultar el conjunto de actividades programadas en la página web de nuestro 50 Aniversario.

El artículo ¿Todo esto con electrones? se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Un túnel transatlántico

Og, 2025-03-20 11:59

Por algún curioso motivo, hay ideas, que, pase el tiempo que pase, no dejan de ser «innovadoras». No importa si ya se le ocurrieron a alguien hace más de cien años, ni si se llevaron a cabo con relativo éxito, también da igual si se han escrito novelas y hasta rodado películas sobre ellas: siempre habrá algún gurú tecnológico que las redescubra y las presente como novedosas. La posibilidad de construir un túnel transatlántico que una Europa con América es una de esas ideas.

A finales del siglo XIX, y hasta los años cincuenta del siglo XX —cuando comenzaron los primeros vuelos comerciales transatlánticos—, cruzar el océano que separaba el Viejo del Nuevo Continente en un barco de vapor podía llevar más de una semana, y no siempre en condiciones óptimas de comodidad. En un momento, además, en el que la industrialización y la idea de progreso tecnológico marcaban la agenda, fue cuestión de muy poco tiempo que a algunos visionarios se les empezaran a ocurrir formas —más o menos disparatadas— de solucionar ese problema.

El germen de todo esto se remonta al ingeniero George Medhurst. Entre finales del siglo XVIII y principios del XIX patentó algunos sistemas de propulsión que utilizaban aire comprimido. Este invento llevó a los sistemas de envío mediante tubos neumáticos que se utilizaron en edificios como la Oficina General de Correos en Londres e incluso a la invención del ferrocarril atmosférico: una especie de rudimentario sistema de hyperloop que, aunque con bastantes problemas, llegó a entrar en funcionamiento y probarse en alguna ocasión con personas.

transatlánticoSala de tubos neumáticos de la Oficina General de Correos en Londres, alrededor de 1897-1899. Créditos: Dominio público.

Medhurst solo sembró una semilla que otros se encargarían de nutrir, pero parece que la idea arraigó en el imaginario colectivo porque, desde entonces, empezaron a proliferar historias de ficción en las que los túneles neumáticos se convirtieron en el transporte del futuro. Dadas las velocidades que se calculó que podrían alcanzar los vehículos que circularan por ellos, normalmente trenes, eran la solución perfecta para acortar distancias entre continentes.

Parece que el primero que utilizó esta idea fue Michel Verne, hijo de Julio Verne, en Un expreso del futuro, publicada en francés en 1888 y traducida al inglés en 1985. Pero pronto muchos otros la irían refinando, como Hugo Gernsback, en Ralph 124c 41+ (1911) o Lucille Taylor Hansen, en «The undersea tube» (1929). Las películas sobre el tema se remontan, casi, casi, a los orígenes del cine de ciencia ficción, sirva como ejemplo la francoalemana Der Tunnel (1933), que vio su versión inglesa dos años después, y que se basaba en la novela homónima de Bernhard Kellerman, escrita en 1913.

transatlánticoEl túnel trasatlántico (1935) fue la versión inglesa de Der Tunnel. Su estética podría parecer moderna incluso hoy. Por su antigüedad, la película está libre de derechos y se puede encontrar fácilmente en internet.
Créditos: Dominio público.

Pero ¿sería factible llevar a cabo, a día de hoy, semejante obra de ingeniería? Pues, pese a las promesas de algunos magnates, parece que no. Si todavía no se ha conseguido desarrollar un hyperloop en tierra, ni siquiera para trayectos relativamente cortos, conseguir hacerlo bajo el océano y para un trayecto de más de 5000 km es poco menos que inalcanzable. Construir simplemente algo similar al Eurotúnel ya sería una empresa titánica, y no digamos en aquellos tramos que podrían encontrarse a más de 8000 m de profundidad y a presiones más de 800 veces mayores que a nivel del mar. Pensemos que el Titanic se encuentra a 3784 m y, como se ha demostrado, bajar hasta ahí no suele ser ni fácil ni una buena idea sin una cuidadosa preparación. A eso se añaden las dificultades logísticas. Ya solo el transporte de los materiales requeriría una cantidad estratosférica de recursos y, además, las obras en alta mar solo podrían llevarse a cabo en determinadas épocas del año, cuando el clima fuera favorable, lo que ralentizaría —y encarecería— muchísimo el proceso.

Aun así, veamos las diferentes opciones de diseño que ya se han planteado. Una sería excavar bajo el lecho marino, en caso de que tuviéramos maquinaria que lo permitiera, o, por ejemplo, instalar módulos prefabricados sobre él. En ambos casos, y asumiendo que las altas presiones no fueran un problema —que lo serían, especialmente en el segundo caso, si hay que bajar a unir los fragmentos de túnel—, el escollo sería cruzar la dorsal mesoatlántica, con su alta tasa de actividad volcánica y sísmica, por no mencionar el desplazamiento de las placas tectónicas, así que, en principio, estas opciones quedarían descartadas. Otra posibilidad que se ha planteado sería construir el túnel mediante módulos «flotantes», sumergidos a unas decenas de metros de la superficie, utilizando un sistema de lastres similar al de los submarinos y algún tipo de anclaje al fondo mediante cables o columnas —algo que ya plantearía un reto de ingeniería de envergadura similar al propio túnel—. En este caso, las corrientes o el oleaje harían muy difícil estabilizarlo, incluso con tecnología similar a la que se utiliza en las plataformas petrolíferas, por no mencionar la fatiga estructural.

A todo lo anterior habría que añadir las tareas de mantenimiento, ya no solo de la estructura en sí, sino de los sistemas de energía y ventilación, de comunicaciones… y habría que contar con salidas de emergencia y un plan de evacuación que, en esas condiciones y de no funcionar a la perfección, podrían convertir cualquier error de funcionamiento en una tragedia. Y no hablemos del impacto que algo así podría tener en el ecosistema marino. Así que, al menos de momento, parece que el túnel transatlántico nos daría demasiados quebraderos de cabeza, ¿nos compensan, teniendo la opción de viajar en avión?

Lamentablemente, parece que tendremos que esperar, pero no desistamos del todo. Como ha sucedido tantas otras veces, nunca se sabe cuándo el desarrollo científico y tecnológico dará con la clave que no permita construir nuestro túnel submarino. Al fin y al cabo, hace no tanto, veíamos imposible volar como las aves o que un ordenador escribiera poesía, así que, ¿quién sabe qué será lo siguiente?

Bibliografía

Bowler, P. J. (2017). A history of the future. Cambridge University Press.

Discovery Channel (2003). Transatlantic tunnel. Extreme engineering.

Self, D. (2020). Pneumatic Networks. The Museum of RetroTechnology.

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo Un túnel transatlántico se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

El sistema de numeración en base Phi

Az, 2025-03-19 11:59

En la pasada entrada del Cuaderno de Cultura Científica titulada ECHO, un cómic áureo, que habíamos dedicado a la presencia del número áureo, de la divina proporción, en la serie de cómic ECHO (2008-2011), del dibujante y guionista estadounidense Terry Moore, se mencionaba que uno de los personajes, que era matemática, había propuesto sustituir el sistema de numeración decimal (en base 10) por el sistema de numeración en base Phi en la investigación científica. En esta entrada vamos a explicar qué es el sistema de numeración en base Phi.

Portadas de los números 1, 9, 10, 11, 19 y 30 del cómic ECHO de Terry MooreEl sistema de numeración decimal

Empecemos, recordando que el sistema de numeración posicional moderno utilizado en casi todo el mundo es el decimal, es decir, que tiene base 10 (véase el libro Los secretos de la multiplicación, de los babilonios a los ordenadores). Por lo tanto, consta de diez cifras básicas, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 y todo número natural se puede representar con ellas al expresarlo en función de las potencias de 10. Por ejemplo, el número 273.054 tiene el valor de 2 veces la cantidad de 100.000 (centenas de millar), 7 veces la cantidad de 10.000 (decenas de millar), 3 veces la cantidad de 1.000 (unidades de millar), 0 veces la cantidad de 100 (centenas), 5 veces la cantidad de 10 (decenas) y 4 veces la unidad 1, que son las potencias de 10, a saber, 100.000 = 105, 10.000 = 104, 1.000 = 103, 100 = 102, 10 = 101 y 1 = 100.

Ejemplo del significado de la representación posicional decimal de un número (natural)

Pero este sistema de numeración no solo nos sirve para representar los números naturales (bueno, los enteros, incluido el signo negativo), sino también los números reales, es decir, también aquellos que tienen una parte decimal. Por ejemplo, el número real, de hecho, racional, [3,52793] tiene el valor de 3 veces la unidad, 5 veces la cantidad de [0,1] (décimas), 2 veces la cantidad de [0,01] (centésimas), 7 veces la cantidad de [0,001] (milésimas), 9 veces la cantidad de [0,0001] (diezmilésimas) y 3 veces la cantidad de [0,00001] (cienmilésimas), que son también las potencias de 10, aunque ahora se incluyen las negativas, a saber, 0,1 = 10-1; 0,01 = 10-2; 0,001 = 10-3; 0,0001 = 10-4 y 0,00001 = 10-5.

Ejemplo del significado de la representación posicional decimal de un número real (en este caso, racional)Sistema de numeración en base b (natural)

Aunque el sistema de numeración (posicional) decimal es el que utilizamos de manera natural en nuestra vida cotidiana, sabemos que existen otros sistemas de numeración en otras bases, como el sistema de numeración binario o en base 2, b = 2, que es el que utilizan nuestros ordenadores, los sistemas octal (base 8, b = 8) y hexadecimal (base 16, b = 16), que también son muy utilizados en informática, el sistema duodecimal o docenal (base 12, b = 12), que es por el que abogan como sistema cotidiano los miembros de las sociedades The Dozenal Society of America y The Dozenal Society of Great Britain (véase la entrada El sistema duodecimal, o si los humanos hubiésemos tenido seis dedos en las manos) o el sistema sexagesimal (base sesenta, b = 60), que ya utilizaron los babilonios, pero en general para cualquier número natural b mayor o igual que 2, como b = 3 (sistema ternario), b = 4 (sistema cuaternario), b = 5 (quinario), etcétera. De algunos de estos sistemas ya hemos hablado en algunas entradas del Cuaderno de Cultura Científica, como Las bases de numeración o cómo hacer trucos de magia binarios o Sobre cómo escribir el número pi en base cuatro.

En general, dada una base de numeración b –por ejemplo, como cualquiera de las que hemos comentado 2, 3, 4, 5, 8, 12, 16 o 60– la representación posicional de cualquier número en la misma viene dada por una expresión d1d2…dr (donde los dígitos di –para i entre 1 y r– pertenecen a la familia de las b cifras básicas del sistema de numeración, que tienen valores entre 0 y b – 1) teniendo en cuenta que el número puede escribirse, de forma única, como

Por lo tanto, la representación del número está ligada a la base elegida. Así, si tomamos el sistema binario (b = 2) el anterior número (273.054) se representa como (1000010101010011110)2, ya que “273.054” = 218 + 213 + 211 + 29 + 27 + 24 + 23 + 22 + 21; en la base octal (b = 8) como (1.025.236)8, porque “273.054” = 1 x 86 + 2 x 84 + 5 x 83 + 2 x 82 + 3 x 8 + 6; o en la base hexadecimal (b = 16), donde las cifras básicas son denotadas por 0, 1, …, 9, A, B, C, D, E, F, como (42A9E)16, puesto que “273.054” = 4 x 164 + 2 x 163 + A x 162 + 9 x 16 + E, donde estamos utilizando el subíndice de las representaciones (2, 8 y 16) para recordar que esa es una representación en esa base de numeración.

See The Good / Ver lo Bueno, de la artista estadounidense Leslie Rowñland, perteneciente a su serie sobre el código binario

De la misma forma se representan los números decimales. Por ejemplo, si se considera el número 0,696044921875 (escrito de forma natural, en base decimal), este se representa de las siguientes formas en distintas bases:

a) en base binaria (b = 2), como (0,101100100011)2, puesto que “0,696044921875” = 2-1 + 2-3 + 2-4 + 2-7 + 2-11 + 2-12 = 0,5 + 0,125 + 0,0625 + 0,0078125 + 0,00048828125 + 0,000244140625;

b) en base cuaternaria (b = 4), como (0,230203)4, puesto que “0,696044921875” = 2 x 4-1 + 3 x 4-2 + 2 x 4-4 + 3 x 4-6 = 2 x 0,25 + 3 x 0,0625 + 2 x 0,00390625 + 3 x 0,000244140625;

c) base octal (b = 8), como (5443)8, puesto que “0,696044921875” = 5 x 8-1 + 4 x 8-2 + 4 x 8-3 + 3 x 8-4 = 5 x 0,125 + 4 x 0,015625 + 4 x 0,001953125 + 3 x 0,000244140625;

d) en base hexadecimal (b = 16), donde las cifras básicas son 0, 1, …, 9, A, B, C, D, E, F, como (0,B23)16, puesto que “0,696044921875” = B x 16-1 + 2 x 16-2 + 3 x 16-3 = 11 x 0,0625 + 2 x 0,00390625 + 3 x 0,000244140625.

¿Un sistema de numeración irracional?

Como se comentaba al principio de esta entrada, uno de los personajes del cómic ECHO, del dibujante y guionista de cómic estadounidense Terry Moore, proponía sustituir el sistema de numeración decimal por el sistema de numeración en base Phi en la investigación científica.

Portada del número 16, de 30, del cómic ECHO de Terry Moore, en el que aparece su protagonista con una especie de armadura metálica que está empezando a cubrirle el cuerpo y que tiene la letra Phi, del número áureo, en la parte superior del tórax

Pero el número áureo Phi no es un número natural, como las bases que hemos explicado más arriba y a las que podemos estar más acostumbrados (al menos si nos interesan los números), más aún, es un número irracional (sobre los números irracionales podéis leer la entrada El infinito en un segmento (2)), con infinitos decimales que se extienden sin fin, pero sin ningún patrón periódico.

Phi = 1, 61803398874989484820458683436563811772030917…

¿Es posible que Phi sea la base de un sistema de numeración? La respuesta es afirmativa, de hecho, si no fuese así no estaríamos escribiendo esta entrada.

Recordemos brevemente la definición de Phi y la ecuación algebraica asociada, que nos va a ser de utilidad para nuestro objetivo de escribir los números como potencias de la razón áurea.

Se dice que un segmento de recta está dividido en extrema y media razón cuando la longitud del segmento total es a la parte mayor, como la de esta parte mayor es a la menor. Es decir, si tenemos un segmento como el que aparece en la siguiente imagen, buscamos el punto del mismo que divide al segmento en dos partes, de longitudes a y b, de forma que la proporción o razón (división) entre la parte mayor y la menor, a/b, es igual a la proporción entre la longitud del segmento y la parte mayor (a + b)/a.

Ahora, si llamamos Phi (Φ) al cociente a/b, la condición anterior se puede escribir como la ecuación algebraica siguiente:

Esta es una ecuación algebraica de segundo grado, cuyas soluciones, sin más que utilizar la conocida fórmula de resolución de la ecuación de segundo grado que estudiamos en el instituto, son las siguientes (una es Phi y la otra es 1 – Phi, que teniendo en cuenta que Phi-1 = b / a en la expresión de definición de Phi, se tiene que la otra raíz es 1 – Phi = – Phi-1).

En conclusión, tenemos dos fórmulas que nos van a ser de mucha utilidad a la hora de expresar los números naturales como sumas de potencias de Phi.

Sistema de numeración Phinario

Para representar los números naturales en base Phi, primero vamos a ver que podemos expresar los números naturales como suma de potencias de Phi, positivas o negativas. Para lo cual van a ser de mucha utilidad las dos identidades anteriores del número Phi y basta jugar un poco con ellas para obtener las siguientes igualdades.

Los diez primeros números, de 1 a 10, expresados como potencias de Phi

Lo primero que observamos al realizar las anteriores identidades de los primeros números naturales es que, efectivamente, es posible expresarlos como suma de potencias de Phi. Por lo tanto, podemos representar esos números utilizando únicamente dos cifras básicas, 1 (para las potencias de Phi que están) y 0 (para las potencias de Phi que no están), aunque, como se utilizan potencias negativas, las representaciones van a tener una expresión con “decimales”, es decir, utilizaremos una “coma” y se van a colocar los coeficientes, 0s y 1s, de las potencias positivas a la izquierda y de las negativas a la derecha de la coma, como es habitual en cualquier sistema de numeración. En la siguiente tabla se han recogido las que serían las representaciones de los diez primeros números (teniendo en cuenta las anteriores igualdades).

Representaciones en base Phi de los números naturales del 1 al 10

Aunque hay algún pero que podemos poner antes de afirmar que estas serían las representaciones en base Phi de los números naturales. La cuestión es que los números pueden representarse como suma de potencias, positivas y negativas, del número Phi de más de una manera, como podemos observar para los siguientes números.

Los números 1, 2, 3, 4, etc pueden expresarse como sumas de potencias de Phi de formas distintas

Si tenemos en cuenta lo anterior, cada número tendría más de una representación Phinaria, lo cual no es deseable. En concreto, para los números que hemos mostrado arriba se tendría que el número uno tendría al menos dos representaciones, como 1 y como 0,11; el número dos tendría al menos otras dos, a saber, 10,01 y 1,11; el tres otras dos, que son 100,01 y 11,01; o el cuatro tendría las representaciones 101,01 y 101,0011; y así podríamos seguir. Más aún, hemos puesto dos expresiones de los números como suma de potencias de Phi, pero podríamos poner más de dos. Por ejemplo, para el número dos tendríamos infinitas formas de expresarlo como potencias, positivas y negativas, de Phi, como se muestra en la siguiente imagen.

Existen infinitas maneras de expresar un número como suma de potencia de Phi

Y si lo expresamos en forma de representaciones Phinarias con ceros y unos, serían

10,01 = 1,11 = 1,1011 = 1,101011 = … = 10,0011 = 10,001011 =…

Por lo tanto, debemos buscar una forma de asignar a cada número una representación en base Phi única. Jugando con las anteriores expresiones hemos podido darnos cuenta de que se verifica la expresión

que está detrás del hecho de que existan muchas maneras de expresar los números naturales como sumas de potencias de Phi. Si pensamos en las representaciones Phinarias, la anterior igualdad se traduce a la siguiente igualdad

donde hemos utilizado el subíndice Phi para indicar que estamos con representaciones Phinarias. Esta expresión es la responsable de la existencia de infinitas representaciones, como podemos observar en las representaciones en base Phi anteriores del número dos. Así, se observa por ejemplo que

10,01 = 1,11.

Más aún, a toda representación Phinaria que termine en 1 se le puede sustituir el 1 por 011, por lo anterior, así en el caso del número dos tenemos que

10,01 = 10,0011 = 10,001011 =…

o también

1,11 = 1,1011 = 1,101011 = …

Representaciones en base Phi minimales y maximales

Con el objetivo de poder asignar una representación en base Phi única para cada número natural se van a introducir las representaciones Phinarias maximales y minimales.

Una representación Phinaria de un número natural se dice que es minimal si es la que posee la menor cantidad de unos (1) de entre todas las representaciones en base Phi de dicho número. Por la propiedad anterior, de que en toda representación Phinaria se puede sustituir 11 por 100, se tiene que las representaciones minimales son aquellas para las cuales no hay dos unos consecutivos (11). Así, la representación Phinaria minimal de todas las representaciones en base Phi del número dos que se han mostrado más arriba, es 10,01. Las demás representaciones tienen tres unos (1,11; 10,0011), cuatro unos (1,1011; 10,001011) o más (1,101011, etc.). De esta manera:

todo número natural posee una única representación en base Phi minimal (sin unos consecutivos).

De hecho, esta representación es la que se suele utilizar de forma habitual, por lo que se la denomina representación Phinaria estándar (o simplemente representación Phinaria, cuando no hay lugar a dudas).

Aunque también se podría considerar la denominada representación en base Phi maximal de un número natural, que es aquella que tiene la mayor cantidad de unos (1) de entre todas las representaciones Phinarias de dicho número, pero que no termine en 011 (así evitamos esa ampliación infinita por la parte de la derecha que hemos observado con el número dos). Estas representaciones no tienen dos ceros consecutivos (00). Si observamos las representaciones Phinarias del número dos que se han mostrado más arriba, las únicas que no terminan en 011 son 10,01 y 11,1. Por lo tanto, la representación en base Phi maximal de dos es 1,11. Y ahora también tenemos que:

todo número natural posee una única representación en base Phi maximal (sin unos consecutivos).

Vamos a terminar incluyendo las representaciones minimales (estándar) y maximales de los primeros números naturales.

Ahora ya sabemos cuál es la representación en base Phi de los números naturales (la que hemos denominado estándar). Por ejemplo, el año en el que estamos, mientras escribo esta entrada, que es el año 2025 se escribiría en base Phi como

1 010 010 000 101 010,000 001 000 010 000 1.

Más aún, no solo se representan los números naturales (enteros), sino que se podrían representar, de nuevo, todos los números reales, pero no vamos a entrar en ello en esta entrada.

Dibujo original de la página 2, del número 1, del cómic ECHO (2008-2011) de Terry Moore. Imagen de la página web de Abstracts Studio

Bibliografía

1.- Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, Ariel, 2006.

2.- Ron Knott: Using Powers of Phi to represent Integers (Base Phi)

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El sistema de numeración en base Phi se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

La textura de los alimentos como generador de emociones en la infancia

Ar, 2025-03-18 11:59

La textura es un aspecto fundamental en la aceptación de los alimentos por parte de la población infantil. A lo largo de los años, numerosos estudios [1]–[3] han demostrado que los niños y niñas tienden a preferir texturas homogéneas y fáciles de masticar, mientras que las texturas más complejas pueden generar rechazo. Sin embargo, la aceptabilidad no es el único criterio que influye en sus elecciones alimentarias. En este sentido, estudios predictivos [4]–[6] han mostrado que el comportamiento alimentario está influenciado en gran medida por respuestas inconscientes e involuntarias como las emociones.

texturaFoto: Raymond Petrik / UnsplashEmociones y alimentos: una conexión profunda

Desde hace siglos, los filósofos y científicos han intentado responder a una pregunta fundamental: ¿qué es una emoción y cómo se genera? Existen distintas teorías que buscan explicarlo.La teoría de las emociones básicas [7], inspirada en Darwin [8], sostiene que las emociones son respuestas universales e innatas que nos han ayudado a sobrevivir a lo largo de la evolución. Según esta perspectiva, emociones como la alegría, el miedo o la ira están asociadas a patrones específicos de expresiones faciales y reacciones fisiológicas. Un ejemplo de estos patrones se muestra en la Figura 1.

texturaFigura 1. Proceso de generación de las emociones de acuerdo con la teoría de las emociones básicas que muestra cómo se evalúa la información y se traduce en acciones que desarrolla el individuo en función del evento desencadenante de la emoción [9]. La figura también muestra un ejemplo relacionado con la emoción de miedo.

Por otro lado, las teorías dimensionales [10] consideran que las emociones no son categorías discretas, sino experiencias que varían en dos dimensiones principales: la valencia emocional (cómo de positiva o negativa es la emoción) y el nivel de activación emocional (cómo de excitada o relajada es la emoción). Finalmente, las teorías de la evaluación (o appraisal en inglés) [11] sugieren que las emociones surgen a partir de la evaluación cognitiva que hacemos de una situación, basándonos en nuestras experiencias previas. Desde este punto de vista, el cerebro no solo reacciona automáticamente, sino que interpreta el contexto y ajusta la respuesta emocional de forma flexible.  

Aunque cada teoría aborda la emoción desde una perspectiva distinta, todas coinciden en que se trata de un fenómeno complejo que involucra múltiples componentes del organismo: desde cambios conductuales o fisiológicos hasta procesos cognitivos que influyen en nuestra forma de actuar. 

Una de estas respuestas conductuales puede ser la expresión facial. Desde hace décadas, los científicos han estudiado cómo la expresión de nuestra cara refleja nuestras emociones. En este sentido, el sistema Facial Action Coding System (FACS; Figura 2) [12], desarrollado por Paul Ekman y colaboradores, establece que ciertos movimientos musculares en el rostro están asociados a puntos concretos de la expresión (denominados en inglés Action Units o AUs) que a su vez se relacionan con emociones básicas como la alegría, la tristeza o el miedo.

texturaFigura 2. Ejemplo de la identificación de músculos y puntos de expresión facial (Action Units) en la zona superior de la cara de acuerdo con el sistema FACS [12].

Mientras que el rostro refleja la emoción a nivel conductual, el sistema nervioso autónomo (ANS por sus siglas en inglés) revela lo que sucede en el interior del cuerpo. Una de las formas de medir esta respuesta es a través de la conductividad de la piel (SCR, por sus siglas en inglés; Figura 3), un método que detecta cambios en la actividad de las glándulas sudoríparas en la piel, especialmente en las manos. Cuando experimentamos una emoción intensa—como sorpresa, miedo o excitación—, nuestro sistema nervioso activa automáticamente la producción de sudor. Estos pequeños cambios en la humedad de la piel alteran su conductividad eléctrica, lo que puede ser medido mediante sensores colocados en los dedos.

texturaFigura 3. Curva de la actividad electrodérmica en la que se diferencian dos fases: (i) fase tónica (SCL), relacionada con cambios suaves de la actividad eléctrica; y (ii) fase fásica (SCR), en la cual se generan cambios de la actividad eléctrica ocasionados por eventos desencadenantes como las emociones [13]–[15] Los picos de respuesta electrodérmica se corresponden con aumentos de SCR por encima de un umbral específico.La textura de los alimentos y las emociones en la infancia

En este contexto, un estudio reciente publicado en la revista científica Food Quality and Preference [16] ha profundizado en la relación que existe entre la textura de los alimentos y las emociones de la población infantil analizando cómo reaccionan los niños y niñas de entre 5 y 12 años ante alimentos sólidos con diferentes texturas. Para ello, se combinaron métodos tradicionales, como los cuestionarios, con tecnologías avanzadas que miden tanto sus expresiones faciales como la conductividad de su piel, lo que permite captar reacciones emocionales tanto conscientes como inconscientes.

En este estudio, las investigadoras trabajaron con un grupo de 45 niños y niñas, a quienes se les ofrecieron tres muestras de un mismo producto elaborado a partir de zumo de manzana, pero con distintas texturas: una blanda (denominada T6), otra de fácil masticación (T7.1) y una más firme (T7.2; Figura 4). Cada individuo evaluó estos productos en cuatro etapas sensoriales: observación, olfacción, manipulación y consumo. Durante todo el proceso, sus expresiones faciales fueron registradas con el software de reconocimiento automatizado FaceReader (Noldus Information Technology, Países Bajos) que analiza estos movimientos musculares y los traduce en emociones específicas, así como su nivel de excitación emocional que se midió con sensores de conductividad de la piel. Además, después de probar cada muestra, se les pidió que calificaran cuánto les gustaba en una escala del 1 al 7.

texturaFigura 4. Muestras evaluadas en el estudio da Quinta et al. (2024) [16] con textura blanda (denominada T6), textura de fácil masticación (T7.1) y textura firme (T7.2).

Uno de los hallazgos más llamativos fue que, aunque los niños y niñas calificaron los tres productos con niveles de aceptabilidad similares (textura T6: 4,6+1,8; textura T7.1: 4,6+2,0; textura T7.2: 4.3+2.0), sus reacciones emocionales fueron significativamente diferentes según la textura del alimento y la etapa sensorial en la que se encontraban (Figuras 5-8).

  • El producto más blando provocó más expresiones faciales de sonrisa en la fase inicial.

  • Las texturas más firmes generaron más expresiones de miedo y desagrado, especialmente durante la masticación. La textura más dura también generó expresiones faciales de miedo y sorpresa durante la fase de consumo, lo que sugiere una reacción negativa de alerta ante lo que se percibe como un alimento más difícil de masticar.  

  • Curiosamente, las investigadoras también encontraron que las reacciones emocionales eran más intensas y la activación emocional mayor durante la observación y la olfacción que durante la manipulación y el consumo. Esto sugiere que la población infantil de edad escolar desarrolla expectativas sobre el alimento antes de probarlo, y que estas expectativas pueden influir en su respuesta emocional cuando finalmente lo consumen.

texturaFigura 5. Perfil emocional obtenido durante la observación de diferentes texturas sólidas en población infantil (N = 45). En el gráfico de elipses, la forma y el grosor de las líneas corresponden a la evolución del tiempo de exposición. Los tiempos iniciales de exposición se representan con líneas punteadas y finas, mientras que los tiempos de exposición más largos corresponden a líneas continuas y más gruesas. Los productos con diferentes texturas aparecen coloreados de diferente manera, siendo: T6 = gris. T7.1 = verde. T7.2= rojo. Las etiquetas para los rangos de tiempo aparecen en cada gráfico de la siguiente manera: Textura_0: 0–500 ms. Textura_0.5: 500–1000 ms. Textura_1: 1000–1500 ms. Textura_1.5: 1500–2000 ms. Textura_2: 2000–2500 ms. Textura_2.5: 2500–3000 ms.texturaFigura 6. Perfil emocional obtenido durante la olfacción de diferentes texturas sólidas en población infantil (N = 45). En el gráfico de elipses, la forma y el grosor de las líneas corresponden a la evolución del tiempo de exposición. Los tiempos iniciales de exposición se representan con líneas punteadas y finas, mientras que los tiempos de exposición más largos corresponden a líneas continuas y más gruesas. Los productos con diferentes texturas aparecen coloreados de diferente manera, siendo: T6 = gris. T7.1 = verde. T7.2= rojo. Las etiquetas para los rangos de tiempo aparecen en cada gráfico de la siguiente manera: Textura_0: 0–500 ms. Textura_0.5: 500–1000 ms. Textura_1: 1000–1500 ms. Textura_1.5: 1500–2000 ms. Textura_2: 2000–2500 ms. Textura_2.5: 2500–3000 ms.texturaFigura 7. Perfil emocional obtenido durante la manipulación de diferentes texturas sólidas en población infantil (N = 45). En el gráfico de elipses, la forma y el grosor de las líneas corresponden a la evolución del tiempo de exposición. Los tiempos iniciales de exposición se representan con líneas punteadas y finas, mientras que los tiempos de exposición más largos corresponden a líneas continuas y más gruesas. Los productos con diferentes texturas aparecen coloreados de diferente manera, siendo: T6 = gris. T7.1 = verde. T7.2= rojo. Las etiquetas para los rangos de tiempo aparecen en cada gráfico de la siguiente manera: Textura_0: 0–500 ms. Textura_0.5: 500–1000 ms. Textura_1: 1000–1500 ms. Textura_1.5: 1500–2000 ms. Textura_2: 2000–2500 ms. Textura_2.5: 2500–3000 ms.texturaFigura 8. Perfil emocional obtenido durante el consumo de diferentes texturas sólidas en población infantil (N = 45). Durante la fase de consumo los resultados se muestran en base al movimiento observado en los puntos de expresión facial correspondientes a la parte superior de la cara para evitar alteraciones de la medida ocasionadas por la masticación y el procesado oral del alimento1. En el gráfico de elipses, la forma y el grosor de las líneas corresponden a la evolución del tiempo de exposición. Los tiempos iniciales de exposición se representan con líneas punteadas y finas, mientras que los tiempos de exposición más largos corresponden a líneas continuas y más gruesas. Los productos con diferentes texturas aparecen coloreados de diferente manera, siendo: T6 = gris. T7.1 = verde. T7.2= rojo. Las etiquetas para los rangos de tiempo aparecen en cada gráfico de la siguiente manera: Textura_0: 0–500 ms. Textura_0.5: 500–1000 ms. Textura_1: 1000–1500 ms. Textura_1.5: 1500–2000 ms. Textura_2: 2000–2500 ms. Textura_2.5: 2500–3000 ms.Industria y nutricionistas

Estos resultados son especialmente relevantes para la industria alimentaria y para quienes trabajan en nutrición infantil. Aunque el público infantil pueda aceptar un alimento desde el punto de vista del gusto, su respuesta emocional podría afectar su disposición a consumirlo regularmente. Por ejemplo, si un alimento genera expresiones faciales de sorpresa y/o miedo durante la observación o la olfacción, es posible que sea rechazado antes de probarlo, incluso si luego gusta su sabor. Esto refuerza la idea de que, para mejorar la aceptación de ciertos alimentos es crucial considerar no solo su sabor, sino también la forma en que se presentan y su textura.

Referencias:

[1] A. S. Szczesniak, “Texture is a sensory property,” Food Qual. Prefer., vol. 13, no. 4, pp. 215–225, 2002, doi: 10.1016/S0950-3293(01)00039-8.

[2] M. Laureati et al., “Individual differences in texture preferences among European children: Development and validation of the Child Food Texture Preference Questionnaire (CFTPQ),” Food Qual. Prefer., vol. 80, p. 103828, 2020, doi: https://doi.org/10.1016/j.foodqual.2019.103828.

[3] M. Laureati, C. Cattaneo, V. Lavelli, V. Bergamaschi, P. Riso, and E. Pagliarini, “Application of the check-all-that-apply method (CATA) to get insights on children’s drivers of liking of fiber-enriched apple purees,” J. Sens. Stud., vol. 32, no. 2, 2017, doi: 10.1111/joss.12253.

[4] J. R. Dalenberg, S. Gutjar, G. J. Ter Horst, K. De Graaf, R. J. Renken, and G. Jager, “Evoked emotions predict food choice,” PLoS One, vol. 9, no. 12, pp. 1–16, 2014, doi: 10.1371/journal.pone.0115388.

[5] G. Juodeikiene et al., “Effects of emotional responses to certain foods on the prediction of consumer acceptance,” Food Res. Int., vol. 112, no. May, pp. 361–368, 2018, doi: 10.1016/j.foodres.2018.06.064.

[6] S. S. Samant, M. J. Chapko, and H. S. Seo, “Predicting consumer liking and preference based on emotional responses and sensory perception: A study with basic taste solutions,” Food Res. Int., vol. 100, no. April, pp. 325–334, 2017, doi: 10.1016/j.foodres.2017.07.021.

[7] P. Ekman, “All emotions are basic,” in The nature of emotion, P. Ekman and R. J. Davidson, Eds., Oxford University Press, 1994, pp. 56–58.

[8] C. Darwin, The expression of the emotions in man and animals. Cambridge: Cambridge University Press, 1872. doi: DOI: 10.1017/CBO9781139833813.

[9] R. Plutchik, “The nature of emotions: Human emotions have deep evolutionary roots, a fact that may explain their complexity and provide tools for clinical practice,” Am. Sci., vol. 89, no. 4, pp. 344–350, Apr. 2001, [Online]. Available: http://www.jstor.org/stable/27857503

[10] J. A. Russell, “A circumplex model of affect,” J. Pers. Soc. Psychol., vol. 39, no. 6, pp. 1161–1178, 1980, doi: 10.1037/h0077714.

[11] L. Barrett, “Solving the emotion paradox: Categorization and the experience of emotion,” Pers. Soc. Psychol. Rev., vol. 10, pp. 20–46, Feb. 2006, doi: 10.1207/s15327957pspr1001_2.

[12] P. Ekman, W. Friesen, and J. C. Hager, Facial Action Coding System: The manual on CD-ROM. Instructor’s Guide. Salt Lake City: Network Information Research Co, 2002.

[13] iMotions Biometric Research Simplified, “What is GSR? The definite guide,” 2015. [Online]. Available: https://imotions.com/guides/facial-expression-analysis/

[14] J. J. J. Braithwaite et al., “A guide for analysing Electrodermal Activity (EDA) & Skin Conductance Responses (SCRs) for psychological experiments,” 2015. doi: 10.1017.S0142716405050034.

[15] S. D. Kreibig, “Autonomic nervous system activity in emotion : A review,” Biol. Psychol., vol. 84, no. 3, pp. 14–41, 2010, doi: 10.1016/j.biopsycho.2010.03.010.

[16] N. da Quinta, A. B. Baranda, Y. Ríos, R. Llorente, A. B. Naranjo, and I. Martinez de Marañón, “Children’s physiological and behavioural response during the observation, olfaction, manipulation, and consumption of food products with varied textures. Part 2: Solid products,” Food Qual. Prefer., vol. 115, p. 105120, 2024, doi: https://doi.org/10.1016/j.foodqual.2024.105120.

[17] R. Soussignan and B. Schaal, “Children’ s facial responsiveness to odors: Influences of hedonic valence of odor, gender, age, and social presence,” Dev. Psychol., vol. 32, no. 2, pp. 367–379, 1996, doi: 10.1037/0012-1649.32.2.367.

[18] G. G. Zeinstra, M. A. Koelen, D. Colindres, F. J. Kok, and C. de Graaf, “Facial expressions in school-aged children are a good indicator of ‘dislikes’, but not of ‘likes,’” Food Qual. Prefer., vol. 20, no. 8, pp. 620–624, 2009, doi: 10.1016/j.foodqual.2009.07.002.

Nota:

1 El significado de los puntos de expresión facial de la parte superior de la cara es: AU01: elevador de cejas interno (inner brow raiser); AU02: elevador de cejas externo (outer brow raiser); AU04: bajador o descensor de cejas (brow lowerer); AU05: elevador de párpado superior (upper lid raiser); AU06: elevador de mejillas (cheek raiser); AU07: tensor de párpado (lid tightener); AU43: ojos cerrados (eyes closed) [12].

La asociación de dichos puntos de expresión facial con emociones se realizó en base a las indicaciones aportadas por otras publicaciones científicas [12], [17], [18]. Los puntos de expresión AU01, AU02, AU04 y AU43 se asociaron con emociones negativas. Por otro lado, AU06 se asoció con emociones neutras. Finalmente, se consideró que AU05 y AU07 no tienen relación directa con una emoción.

&nbsp

Sobre la autora: Noelia Da Quinta es doctora en Calidad y Seguridad alimentarias e investigadora postdoctoral en comportamiento del consumidor en AZTI.

Sobre AZTI: El propósito de AZTI es impulsar un cambio positivo para el futuro de las personas, contribuyendo a una sociedad saludable, sostenible e íntegra. Especializado en el medio marino y la alimentación, AZTI aporta productos y tecnologías de vanguardia y de valor añadido basados en ciencia e investigación sólidas. AZTI es miembro de Basque Research and Technology Alliance (BRTA).

Basque Research & Technology Alliance (BRTA) es un consorcio que se anticipa a los retos socioeconómicos futuros globales y de Euskadi y que responde a los mismos mediante la investigación y el desarrollo tecnológico, proyectándose internacionalmente. Los centros de BRTA colaboran en la generación de conocimiento y su transferencia a la sociedad e industria vascas para que sean más innovadoras y competitivas. BRTA es una alianza de 17 centros tecnológicos y centros de investigación cooperativa y cuenta con el apoyo del Gobierno Vasco, SPRI y las Diputaciones Forales de Araba, Bizkaia y Gipuzkoa.

El artículo La textura de los alimentos como generador de emociones en la infancia se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Los casquetes polares de Marte y el interior del planeta rojo

Al, 2025-03-17 11:59

Cuando en una de esas noches en las que Marte y la Tierra se encuentran relativamente cerca -bueno, cerca en el sentido astronómico, ya que es difícil que nos acerquemos a menos de 55 millones de kilómetros- y miramos con un telescopio modesto, hay algo que salta a la vista y que, sin poder ver ningún otro detalle de la superficie con tanta claridad entre la turbulencia atmosférica, nos hace sentir cierta familiaridad: los casquetes polares de Marte.

Más allá de que para los geólogos las capas de polvo y hielo de los casquetes polares -como una inmensa tarta de chocolate y galletas- pueden albergar una importantísima información sobre la historia climática del planeta rojo, hay algo más que nos pueden enseñar estas grandes masas de hielo al igual que las hemos podido aprovechar en la Tierra: conocer mejor la rigidez del manto y, a la vez, como de frío está el interior del planeta.

casquetes polaresMarte observado desde el telescopio espacial Hubble. El casquete polar del hemisferio Norte es claramente visible en la parte superior del planeta. Si en vez de rojo, fuese azul, muy probablemente encontraríamos un parecido todavía más asombroso con nuestro planeta. Cortesía de JPL/NASA/STScI.

En la Tierra tenemos una compleja historia de periodos glaciares e interglaciares. Durante las popularmente conocidas como “edades del hielo” -los periodos glaciares-, sobre los continentes suelen formarse grandes masas de hielo y, con su enorme peso, tienen la capacidad de ir hundiendo la corteza que hay debajo, flexionándola como cuando clavamos un dedo sobre una bola antiestrés.

Cuando el clima va cambiando hacia un periodo más cálido -o interglaciar- y el hielo comienza a fundirse, este peso se va liberando y la corteza “rebota” hacia arriba en un proceso que conocemos como rebote isostático, que como decía en el párrafo anterior, nos da pistas sobre el estado del interior de nuestro planeta.

En Marte podemos medir estos procesos gracias al casquete de hielo que existe en el polo Norte, un enorme depósito de hielo y polvo de varios kilómetros de espesor acumulados durante millones de años y que es capaz de, por su peso, deformar la corteza de con una magnitud que podemos medir a través de las misiones espaciales. Y un nuevo artículo publicado por Broquet et al. (2025), nos ha abierto, gracias a la deformación que produce el peso de este hielo sobre la corteza del planeta, una ventana para conocer mejor el funcionamiento interno de Marte.

¿Cómo han abordado los científicos este problema? Porque no ha habido ninguna misión específica dedicada a estudiar esta cuestión en la superficie de Marte, pero tampoco desde la órbita. A pesar de eso, han logrado cuatro indicios diferentes para reconstruir con más detalle estos procesos de deformación y respuesta de la corteza y el manto marciano.

La primera de estas pistas viene dada por el estudio de los perfiles de radar tomados por los instrumentos MARSIS y SHARAD, que les ha permitido observar una especie de “radiografía” de los casquetes polares gracias a las ondas de radio que rebotan -y en algunos casos son absorbidas- por las distintas capas del casquete polar. Con estos perfiles se ha podido calcular el espesor real de la capa de hielo y estudiar el estado de las rocas que soportan esta masa de hielo, descubriendo que no ha sufrido una flexura o flexión muy grande como consecuencia del peso.

casquetes polaresEn esta imagen podemos ver un perfil de radar del polo norte marciano tomado por el instrumento SHARAD que viaja a bordo de la sonda Mars Reconaissance Orbiter. Se aprecian perfectamente distintas capas dentro del hielo -quizás relacionadas con alternancias climáticas- así como la roca sobre la que se apoya el hielo. Cortesía de NASA/JPL-Caltech/University of Rome/SwRI.

Por otro, el estudio del campo gravitatorio de Marte, que no es estático, sino que va cambiando con el paso del tiempo. Cuando el hielo se va acumulando sobre los casquetes y se deforma la corteza, ocurren cambios sutiles que se pueden ir siguiendo a lo largo de los años marcianos, permitiendo a los científicos ver que parte de la superficie rebota o se hunde. Este hecho incluso puede observarse con el cambio de las estaciones, ya que hay parte del hielo que se sublima a la atmósfera durante la primavera y el verano y cae de nuevo durante el invierno, generando una alteración del campo gravitatorio suficientemente perceptible.

Los datos sísmicos de la misión InSight han sido también muy importantes, ya que de ellos se aprecia que no han ocurrido terremotos importantes cerca del polo norte, indicando que la deformación en la corteza del planeta es muy pequeña, permitiendo acotar a los científicos que cantidad de flexión está sufriendo la corteza con respecto a la actividad sísmica observada. Por cierto, este hecho tiene también una derivada práctica importante, y es que, de cara al riesgo sísmico para las futuras misiones tripuladas marcianas, el polo norte podría ser relativamente “tranquilo” y, por lo tanto, un lugar seguro. Si las rocas que sirven de apoyo al casquete polar hubiesen sufrido una mayor deformación, lo más probable es que hubiese una mayor actividad sísmica también.

Por último, los investigadores han confeccionado una serie de modelos físicos que simulan la evolución del calor interno de Marte desde su formación hasta el día de hoy, permitiendo poner a prueba varios escenarios sobre como podía ser la estructura interna del planeta, y, combinando estos escenarios con los datos reales, saber cuales podrían ser los más certeros.

¿Y qué resultados arroja la combinación de todos estos datos junto con los modelos? El primero es que el manto de Marte, la capa que hay justo debajo de la corteza, es más viscosa de lo que se había pensado hasta ahora. La viscosidad, en este sentido, es la resistencia a fluir del manto. Esto no quiere decir que el manto esté fundido, si no que, a escala geológica, las rocas del manto se comportan como un fluido, pero se encuentran en estado sólido.

casquetes polaresDetalle del casquete polar del hemisferio norte tomado por la sonda europea Mars Express. Se aprecia muy bien la forma “arremolinada” de las capas de hielo y polvo. Cortesía de ESA/DLR/FU Berlin (G. Neukum).

Esto es importante porque un manto muy viscoso nos indica que el interior de Marte está hoy relativamente frío -si no sería menos viscoso- y que los elementos radiogénicos que producen calor a partir de la desintegración radioactiva probablemente no estén distribuidos de una manera uniforme en su interior. Y de hecho es probable que muchos de estos elementos estén concentrados en la corteza, permitiendo que, por otro lado, esta esté más caliente.

Las implicaciones de esta observación son muy importantes: Sabemos que Marte ha tenido actividad volcánica en el pasado reciente -incluso en los últimos miles de años- y que puede que este fenómeno se deba no a la presencia de magmas que puedan provenir del manto, sino que estos podrían incluso formarse dentro de la propia corteza gracias a una mayor concentración de elementos radiogénicos suficientes para elevar la temperatura, fundir la roca y dar lugar a los magmas que posteriormente fluirían hacia la superficie.

Para concluir, otro aspecto que me ha parecido muy interesante del estudio es que el casquete polar del hemisferio norte es relativamente joven -a escala geológica- y que el hielo podría haberse estado acumulando desde hace entre 1.7 y 1.2 millones de años, por lo que la deformación de la corteza todavía estaría en marcha y no podemos apreciar todavía su verdadera magnitud debido a la lentitud de este proceso. Dicho esto, el poder establecer una fecha para cuando se comenzó a formar este casquete polar nos puede ayudar a comprender mejor la historia climática del planeta y la relación de este con los distintos ciclos astronómicos (oblicuidad, excentricidad, precesión…).

Todavía nos queda mucho para saber todos los detalles de la estructura interna del planeta Marte, pero cada trocito que descubrimos -aunque sea a través de misiones que muchas veces no parecen conectadas entre si- nos ayuda a estar más cerca de poder responder a por que Marte y la Tierra son planetas tan diferentes.

Bibliografía:

A. Broquet, et al.  (2025) Glacial Isostatic Adjustment Reveals Mars’s Interior Viscosity Structure. Nature doi: 10.1038/s41586-024-08565-9

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Los casquetes polares de Marte y el interior del planeta rojo se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Glaucoma, un vacío inquietante en un campo lleno de milagros

Ig, 2025-03-16 11:59
GlaucomaEl glaucoma afecta a más de 70 millones de personas y representa la segunda causa principal de ceguera en todo el mundo. Foto: Pixabay CC

Más allá de la celebrada conversión del agua en vino, si tuviésemos que citar el milagro bíblico por excelencia seguramente diríamos «devolverles la vista a los ciegos». Pero, lo que durante siglos ha sido casi una habilidad mágica, disponible en exclusiva para divinidades, en nuestros días empieza a considerarse algo accesible y cercano en numerosas investigaciones biomédicas. Vivimos tiempos fascinantes en biomedicina y, cuando hablamos de «curar la ceguera» nos encontramos, casi a diario, un buen puñado de estudios científicos y noticias que nos colocan un paso más cerca de conseguirlo.

Ya sea con células madre para recuperar lesiones oculares, o implantes biónicos que, mediante neuroestimulación, podrían permitir restaurar funciones sensoriales, o el desarrollo avanzado de prototipos de córnea artificial, e incluso mediante técnicas de edición genética CRISPR para reparar la retina. Las posibilidades que se abren ante nosotros son tantas y tan variadas que no parece demasiado arriesgado adelantar que, en las próximas décadas, asistiremos a la conclusión de un milagro milenario.

Sin embargo existen ciertas enfermedades de la vista que no parecen avanzar tan rápido, determinados trastornos que afectan a un alto porcentaje de las personas ciegas y que no aún no cuentan con ningún avance revolucionario. Es el caso del glaucoma un amplio y heterogéneo grupo de enfermedades oculares neurodegenerativas caracterizadas por un daño gradual e irreversible del nervio óptico que en la actualidad afecta a más de 70 millones de personas. El daño por glaucoma es permanente, no cuenta con cura o tratamiento y se ha convertido en la segunda causa principal de ceguera en todo el mundo.

Ante este aparente vacío entre tanto milagro cotidiano y, teniendo en cuenta las elevadas cifras que ostenta el glaucoma, cualquier avance sobre el tema, por pequeño y lejano que parezca, resulta más que bienvenido. Encontramos un esperanzador ejemplo en un estudio publicado hace unas semanas en PNAS Nexus, el journal open Access de la célebre Proceedings of the National Academy of Sciences (PNAS), por el que se presentan dos anticuerpos que «podrían detener esta degradación y posiblemente salvar la visión de las personas antes de que sea demasiado tarde».

Comencemos el análisis de este estudio con una aproximación a las causas que generan la enfermedad. En términos generales el glaucoma consiste en un daño al nervio óptico, responsable de llevar al cerebro las imágenes convertidas en impulsos eléctricos en la retina. La mayoría de las veces ese daño en el nervio óptico está provocado por un aumento de la presión intraocular. Si nuestro ojo fuese un balón de baloncesto su correcto funcionamiento dependería de una delicada presurización, que está regulada por la producción y el drenaje equilibrados del humor acuoso, un líquido transparente que nutre el segmento anterior ocular. En un ojo sano, ese líquido se drena continuamente permitiendo una correcta visión mientras que «en la mayoría de las formas de glaucoma un drenaje deficiente del humor acuoso desemboca en un aumento de la presión intraocular».

Este mal drenaje del líquido y su consecuente aumento de la presión pueden tener varias causas y la principal de ellas nos lleva a hablar de una proteína en concreto que, a la postre, se ha convertido en la protagonista del nuevo estudio: la miocilina.

Las proteínas realizan o regulan miles de funciones en nuestro cuerpo y, a grandes rasgos, son largas cadenas de aminoácidos que se pliegan de determinadas formas para realizar su trabajo. Es fundamental que el plegamiento sea el correcto, de lo contrario, la proteína no podrá llevar a cabo su función biológica. De hecho, es un problema inquietante ya que una proteína mal plegada puede «contagiar» su mala configuración a otras, dando lugar a un amplio grupo de enfermedades, como el Alzheimer, el Parkinson, o las enfermedades priónicas. Precisamente, la investigación sobre plegamiento de proteínas realizada en este tipo de enfermedades neurodegenerativas ha sido la base e inspiración para la nueva publicación sobre el glaucoma.

«Una de las mutaciones que causa glaucoma congénito y que es la responsable de un alto porcentaje de los casos de esta enfermedad provoca que una proteína, miocilina, debido a esta mutación, se sintetice mal plegada en las células que la producen, perdiendo su función», nos explica la neurocientífica Conchi Lillo, investigadora en patologías visuales en el Instituto de Neurociencias de Castilla y León y profesora titular de la Universidad de Salamanca. «Esta proteína es importante para el correcto drenaje del humor acuoso que baña la cámara anterior del ojo, así que el mal funcionamiento de la proteína, debido a este plegamiento incorrecto, provoca que este drenaje no se produzca de una forma eficiente».

GlaucomaDescripción general del mecanismo patogénico subyacente al glaucoma asociado a la miocilina. Fuente: Raquel L Lieberman, et al. (2025) PNAS Nexus

En el estudio publicado en PNAS Nexus los autores presentan un posible tratamiento para frenar el glaucoma congénito producido por el mal plegamiento de la miocilina empleando anticuerpos generados en el laboratorio que son capaces de neutralizar la forma incorrecta de la proteína. «Los anticuerpos que neutralizan la miocilina mal plegada se sintetizaron inmunizando a ratones con antígenos de esta proteína. La reacción inmunitaria que provoca esta inmunización en su organismo hace que en su suero sanguíneo aparezcan los anticuerpos contra ese antígeno, que se pueden aislar y utilizar para comprobar si son eficaces para neutralizar miocilina», explica Lillo. «Para ello, se probó su efectividad usando estos anticuerpos aislados en células en cultivo que expresaban esta proteína miocilina mal plegada, comprobando que efectivamente, realizaban esa función».

El glaucoma representa un vacío en un mundo repleto de milagros. Entre los extraordinarios éxitos logrados en el complejo, y casi divino, arte de devolver la vista al ciego, esta patología sigue siendo un preocupante oasis en el que avanzar está siendo muy difícil. Por eso resulta fácil dejarse entusiasmar por cualquier pequeño detalle o ventana al futuro, pero hay que ser realista y entender que este estudio publicado aún está muy lejos de ser aplicable. «Son resultados prometedores porque se ha encontrado una posible diana terapéutica para abordar la raíz del problema que se produce en el glaucoma, pero hay que tener cautela con las expectativas, ya que este “posible tratamiento” no se ha probado aún en animales de experimentación y ni siquiera las células en cultivo empleadas para estas pruebas son las que en los ojos humanos producen la miocilina mal plegada en la enfermedad de glaucoma».

Referencias:

Raquel L Lieberman, et al. «Antibody-mediated clearance of an ER-resident aggregate that causes glaucoma» PNAS Nexus (2025) DOI:10.1093/pnasnexus/pgae556

Tess Malone «Under Pressure: Georgia Tech Researchers Discover a New Way to Treat Glaucoma» Georgia Tech (2025)

Sobre el autor: Javier «Irreductible» Peláez (Puertollano, 1974) es escritor y comunicador científico. Autor de 500 años de frío. La gran aventura del Ártico (Crítica, 2019) y Planeta Océano (Crítica 2022). Es uno de los fundadores de la plataforma Naukas.com, editor de ciencia en Yahoo España y Latinoamérica. Es guionista científico en los programas de televisión «El Cazador de Cerebros» y «Órbita Laika» de RTVE. Durante más de una década ha escrito en diferentes medios de comunicación (El País, El Español, National Geographic, Voz Populi). Es autor de los podcasts Catástrofe Ultravioleta y La Aldea Irreductible, y ha colaborado en diferentes proyectos radiofónicos y televisivos (Radio Nacional de España, Radio Televisión Canaria). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.

El artículo Glaucoma, un vacío inquietante en un campo lleno de milagros se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Aprender y convivir en contextos multiculturales en educación infantil

La, 2025-03-15 11:59

La jornada Las Pruebas de la Educación regresó un año más para revisar la eficacia de las estrategias educativas actuales a partir de la evidencia científica. El desarrollo del lenguaje oral en la infancia y su poder en la creación de distintas realidades sobre un mismo tema, así como la riqueza del aprendizaje en entornos multiculturales fueron algunas de las cuestiones analizadas durante la séptima edición de este seminario.

multiculturales

Andrea Khalfaoui, profesora en el departamento de Ciencias de la Educación en la Universidad del País Vasco, argumenta en “Aprender y convivir en contextos multiculturales en Educación Infantil: una mirada informada por la evidencia” cómo la multiculturalidad, presente hoy día en muchas aulas, puede emplearse como palanca de aprendizaje.

La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la Facultad de Educación de Bilbao, tuvo lugar el 21 de febrero de 2025 en la sala Juliana Agirrezabala de la Facultad de Educación de Bilbao de la Universidad del País Vasco UPV/EHU en Leioa (Bizkaia). Las ponencias fueron impartidas por un abanico de expertos y expertas del ámbito de la educación, la formación y el aprendizaje.

La séptima edición del seminario está especialmente dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. El objetivo es crear un espacio de reflexión compartida, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día.

 

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Aprender y convivir en contextos multiculturales en educación infantil se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

El fascinante invento para detectar materia oscura en el interior de Júpiter

Or, 2025-03-14 11:59

Miremos a los cielos imitando a los antiguos. Y con ello tratemos de entender cosas casi incomprensibles como la materia oscura. Acaso esto alivie el desconsuelo de que sea más sencilla la cosmología que la política.

Hagamos volar nuestra curiosidad como si fuera una cometa pensando en unas partículas ligeras y extrañas. Y redondeemos nuestro juego de niños imaginando planetas gigantes que quieren atraparlas. Pues de eso justamente trata uno de los últimos retos de la astrofísica: pretende descubrir a fondo la naturaleza de la materia oscura entendiéndola como algo formado por partículas hipotéticas propuestas por los científicos. Y para ello se recurre a Júpiter, uno de nuestros vecinos pesados. Y cuando digo pesado no es que nos aburra, sino que es muy masivo. No por casualidad lo llamamos el gigante rojo.

Imagen procesada de Júpiter tomada por la sonda Juno. Fuente: NASA / JPL / SwRI / MSSS / Gerald Eichstädt / Thomas Thomopoulos CC BY 3.0El poderío de Júpiter para atrapar WIMP

Este planeta fundamentalmente gaseoso tiene una densidad baja, y su gravedad en la superficie tan solo es algo más de 2 veces la de la Tierra. Sin embargo, el campo gravitatorio en el interior parece que podría ser muy intenso, según sugieren las complejas mediciones de la misión Juno. Esto se debería a la presencia de elementos metálicos atrapados a muy altas presiones en el núcleo del planeta.

Este poderío gravitatorio confiere a Júpiter la capacidad de atrapar unas partículas ligeras que teóricamente podrían componer la materia oscura, los llamados WIMP. Claro que “ligera” significa aquí que es una partícula con la misma energía que un protón o un neutrón, es decir, del orden del gigaelectronvoltio.

Como bien sabían los electroduendes, esta sería precisamente la energía necesaria para hacer que un electrón se mueva por una diferencia de potencial de mil millones de voltios. No debería sorprendernos esta semejanza en escalas de energía. De hecho, hay hipótesis que sugieren que las partículas de materia oscura podrían ser neutrones espejo.

Pero no solo tenemos que entender qué es la materia oscura. Tan o más importante es detectarla.

Materia oscura errante

Podría haber partículas de materia oscura vagando por el universo que se adentrasen en el acogedor Júpiter. Y en ese traicionero albergue sufrirían diversos choques con todo el resto de partículas (idénticas o las del propio planeta). Sería como si la materia oscura jugase un campeonato planetario de billar. En cada uno de estos topetazos las partículas de materia oscura irían perdiendo energía para quedar finalmente aniquiladas siguiendo las reglas de la mecánica cuántica, que este año está de aniversario.

El fructífero resultado de la destrucción de los WIMP sería la emisión de neutrinos susceptibles de ser detectados en la Tierra.

Los efectos de la aniquilación

Una de las maneras de saber que ha llegado a nuestro planeta uno de esos neutrinos, fruto de la aniquilación de los WIMP, es el efecto Cherenkov. Se manifiesta como un destello característico en forma de cono de luz azul (pura radiación electromagnética) que producen ciertas partículas cargadas.

Para que el efecto se produzca, las cargas han de viajar más rápido que la luz al atravesar un medio como agua o gas. Pero no nos llevemos las manos a la cabeza: por su naturaleza, esas partículas no superarían la velocidad de la luz en el vacío. Este fenómeno luminoso es muy parecido al “boom sónico”. Y en el campo de la astrofísica experimental se construyen sensores especializados que identifican esas vertiginosas partículas y miden sus velocidades.

El medio de preferencia de muchos de estos sensores es el agua, por la particular interacción que tienen los neutrinos con el H₂O. Además, no nos vamos a engañar, el agua es abundante y barata (o lo era).

Los detectores colosales

Pero para hacernos una idea del tamaño de un bicharraco de estos vamos con los datos del detector Super-Kamiokande (de tipo Cherenkov, obviamente). Este ingenio, crucial para entender algunos aspectos de la física de los neutrinos, contiene 50 000 toneladas de agua purísima.

Conviene enfatizar que los neutrinos que escaparían de Júpiter, como cualquier otro neutrino, no tienen carga. Así que no son exactamente esas las partículas que detectarían el detector Cherenkov. Más bien iría a la caza y captura de partículas cargadas secundarias surgidas de las interacción de los neutrinos con la materia. En concreto, serían producidas en esos encuentros no consentidos entre los neutrinos y las moléculas de agua.

Pero sabiendo que Super-Kamiokande se ha usado para detectar neutrinos solares y sumando dos y dos surge esta pregunta: ¿no serviría el Sol también como diana idónea para la materia oscura ligera?

La temperatura importa

En principio el campo gravitatorio del Sol es también muy intenso y tiene capacidad de ser penetrado por los WIMP. Debería ser entonces susceptible de poder usarse del mismo modo que Júpiter.

La contrariedad es que el interior de nuestra estrella tiene una temperatura elevadísima. Por este motivo, los núcleos atómicos protagonistas de los choques más relevantes se moverían muy rápido. Esto causaría una ganancia de energía cinética por parte de la partícula ligera de materia oscura. Con este aumento de velocidad, a las partículas de materia oscura les sería más fácil escapar de esa prisión estelar sin ser aniquiladas. Y si no se aniquilan, no podríamos detectarlas.

En cambio, la temperatura de Júpiter aún siendo alta no lo es tanto y le resulta más fácil capturar WIMP. Pasa algo parecido a lo que ocurre con la sopa del cuento de Ricitos de Oro y los tres osos. Para que un astro pueda atrapar en su interior a la materia oscura ha de estar a una temperatura propicia.

El invento para el porvenir

El afán por comprender estos y otros fenómenos impulsa la construcción de detectores aún más potentes, como el proyectado Hyper-Kamiokande, un ingenio que ahora cuenta con participación española. Este futuro detector tendrá 5 veces más agua que su predecesor. Sus colosales especificaciones lo harán protagonista de mucha física del futuro.

Pero siempre me queda la duda de si realmente queremos llegar a ese porvenir. Descubrir por fin la naturaleza de la materia oscura traerá consigo cierta melancolía. Poco a poco nos quedaremos sin preguntas que resolver y la física será solo para nostálgicos. Aunque la intuición, o la esperanza, me dicen que falta mucho para que el universo nos ceda todos sus secretos.The Conversation

Sobre la autora: Ruth Lazkoz es catedrática de física teórica de la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo El fascinante invento para detectar materia oscura en el interior de Júpiter se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Orriak