Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 35 min 16 sec ago

Una isla muy navideña

Thu, 2025/12/18 - 11:59

El día de Navidad de 1643 el capitán británico William Mynors, de la Compañía de las Indias Orientales, navegó cerca de una pequeña isla con forma de Y situada en el Océano Índico, al sur de Java y Sumatra, a la que llamó, sorpresivamente, Christmas Island.

Christmas IslandLocalización de la Christmas Island (Isla de Navidad) en el Océano Índico. Imagen tomada de Google Maps.

Aparte del nombre tan sugerente, esta pequeña isla, que actualmente pertenece a Australia, tiene otra particularidad que la hace muy especial: su historia geológica. Que, en el fondo, es la culpable de haber creado un minúsculo paraíso natural que ha provocado que dos terceras partes de la isla hayan sido declaradas Parque Nacional.

Esta historia comenzó hace unos 80 millones de años, cuando se puso en marcha un importante vulcanismo submarino en esta zona del Océano Índico. El magma ascendió hacia la superficie rompiendo la corteza hasta que la lava fue capaz de salir al exterior, pero en el fondo del mar. Ese contraste de temperaturas entre un fundido ardiente y un agua fría, provocó un enfriamiento rápido de la lava, generando rocas volcánicas. Al producirse erupciones continuas en el mismo sitio, las rocas se fueron acumulando unas encima de las otras, llegando a formar una estructura elevada conocida como monte submarino.

Tras 20 millones de años de actividad ígnea, se formó una acumulación vertical de más de 4500m de rocas volcánicas que llegó a superar la columna de agua, saliendo a superficie y dando origen a una nueva isla. En esta fase, los corales empezaron su labor, construyendo un importante atolón arrecifal que cubrió ese islote volcánico. Estas acumulaciones de coral han quedado preservadas como rocas sedimentarias carbonatadas, llamadas calizas, que sellan parcialmente las rocas volcánicas más antiguas.

El crecimiento coralino quedó temporalmente detenido hace entre 40 y 35 millones de años por un nuevo periodo de vulcanismo activo, que provocó que esas rocas volcánicas de nueva formación se entremezclasen con las calizas previamente depositadas. Pero pronto la calma precedió a la tormenta, el vulcanismo cesó y volvieron a crecer nuevos arrecifes de coral que fueron aumentando el tamaño de la isla, tanto en la vertical como en su extensión lateral.

Christmas IslandEsquema de la sección vertical de la Christmas Island, con las rocas volcánicas en el centro de la isla, las calizas cubriéndolas y las cuevas atravesando las calizas. Las fechas negras indican el flujo del agua dulce en profundidad. La escala vertical está exagerada diez veces. Imagen modificada de Grimes, K.G. (2001). Karst Features of Christmas Island (Indian Ocean). Helictite 37, 41-58.

Pero este crecimiento coralino no actuó de manera continua. Durante esta época geológica, en esta zona se produjeron numerosos ascensos y descensos del nivel marino que afectaron al desarrollo de los atolones. Por ejemplo, destaca un importe aumento del nivel del mar que sucedió hace unos 20 millones de años y que se vio reflejado en un hundimiento relativo de la isla. Estos cambios del nivel marino provocaron que la formación de arrecifes ocurriese como “a pulsos”, es decir, en varias fases temporales superpuestas, dando lugar a una morfología de las rocas calizas en terrazas, como si fuesen los peldaños de una escalera. Vamos, que los corales crecen, se mueren, vuelven a crecer, se vuelven a morir y así continuamente de acuerdo a la subida y la bajada del nivel del mar, generando parches de rocas carbonatadas dispuestos en bloques uno sobre el otro.

Hace unos 10 millones de años, cambió esta dinámica. Un descenso relativo del nivel del mar provocó que la isla quedase expuesta, deteniendo la nueva formación de arrecifes y dejando a la intemperie a las calizas que la cubrían. Y estas rocas tienen una particularidad: el carbonato cálcico del que están formadas reacciona con el agua de lluvia, que lleva dióxido de carbono disuelto, disolviéndose, valga la redundancia, tanto en superficie como en profundidad. Así, a lo largo de la superficie de la isla se ha ido formando un importante complejo de cuevas durante los últimos millones de años, en las que circula el agua dulce procedente de la lluvia que se infiltra en el subsuelo, llegando a salir al exterior en numerosas surgencias o manantiales. Incluso, en zonas bajas de la isla, el agua marina acaba entrando en algunas de estas cavidades, provocando una mezcla con esa agua dulce.

Christmas IslandImagen de una de las cuevas (The Grotto) formadas en las calizas de Christmas Island que actúa como depósito del agua dulce procedente de la lluvia. Foto: Wondrous World Images / Christmas Island National Park

En momentos más recientes también se ha formado una nueva particularidad geológica en esta isla, aunque las culpables son las aves marinas. Estos animalitos defecan, por ser fina, sobre la superficie de las rocas expuestas, generando unas acumulaciones de heces muy ricas en fósforo que se llaman guano. Que acaba disolviéndose con el agua de lluvia y del mar, mezclándose con el carbonato de las calizas para producir depósitos de fosfatos (P2O5) endurecidos que recubren las rocas. Y que han sido uno de los principales intereses económicos de la isla desde finales del siglo XIX.

Aquí acaba mi relato, pero no la historia geológica de la Christmas Island, que aún continúa escribiéndose. Los arrecifes de coral crecen en los márgenes submarinos de la isla, las aves continúan acumulando excrementos en la superficie y el agua de lluvia no cesa de disolver las rocas en profundidad. Incluso, no se puede descartar que algunas intrusiones volcánicas intenten volver a salir a superficie para sumarse a la aventura. Lo que sí es seguro es que, este, es el mejor cuento de Navidad que podía traeros en estas fechas.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la EHU

El artículo Una isla muy navideña se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

De la A a la Z: un crucigrama con grandes protagonistas de las matemáticas

Wed, 2025/12/17 - 11:59

Hoy proponemos un crucigrama con los apellidos de veinticinco protagonistas de las matemáticas; son trece mujeres y doce hombres cuyos apellidos van de la A a la Z. Debajo aparecen las pistas ordenadas por orden alfabético de apellidos.

crucigramaCrucigrama generado en The Teacher’s Corner

 

A (19 horizontal)

Especialista en geometría simpléctica, fue cooptada por el grupo Oulipo en 2009. Interesada por la historia de las matemáticas, publicó, entre otros, la correspondencia entre Henri Cartan y André Weil, y un libro dedicado a la matemática rusa Sofia Kovalevskaya.

 

B (15 vertical)

Es el nombre colectivo de un grupo de matemáticos franceses fundado a finales de 1934. Decidieron escribir una enciclopedia bajo el título de “Éléments de Mathématique” que buscaba presentar el conjunto de las matemáticas de manera sistemática. Aunque quedó incompleta, ha tenido una gran influencia en las matemáticas del siglo XX.

 

C (16 vertical)

Jugó un papel fundamental en la creación de la teoría de conjuntos. Desarrolló una teoría y una aritmética completas de conjuntos infinitos, llamados cardinales y ordinales, que ampliaron la aritmética de los números naturales. Propuso la llamada “hipótesis del continuo” en 1878.

 

D (13 vertical)

Esta matemática argentina es conocida fundamentalmente por su trabajo en geometría algebraica. En los últimos años ha centrado su trabajo en las aplicaciones de la geometría algebraica en el ámbito de la biología molecular.

 

E (12 vertical)

Creía que las matemáticas eran una actividad social, y llevaba una vida itinerante con el único propósito de escribir artículos matemáticos con otros matemáticos. Este matemático húngaro intentó resolver y propuso problemas en matemáticas discretas, teoría de grafos, teoría de números, análisis matemático, teoría de aproximación, teoría de conjuntos y teoría de probabilidad.

 

F (10 vertical)

Esta matemática gallega investigó sobre ocultaciones estelares por la Luna, medidas de estrellas dobles, medidas astrométricas y la determinación de pasos por dos verticales. Antes de la de Matemáticas, obtuvo las licenciaturas de Química y de Farmacia y consiguió el título de Maestra Nacional.

 

G (6 horizontal)

Realizó importantes contribuciones a la teoría de números y la teoría de la elasticidad. Aunque tenía un gran talento como matemática, su educación autodidacta no le permitió tener la base científica sólida que hubiera necesitado para sobresalir por sus aportaciones.

 

H (9 horizontal)

Considerado como uno de los fundadores de la topología moderna, contribuyó significativamente a la teoría de conjuntos, la teoría descriptiva de conjuntos, la teoría de la medida y el análisis funcional.

 

I (11 vertical)

Este matemático japonés es conocido por su influencia en la teoría de números algebraicos.

 

J (4 horizontal)

Sus cálculos de mecánica orbital como empleada de la NASA fueron cruciales para el éxito del primer vuelo espacial tripulado estadounidense y de los posteriores. Su trabajo incluyó el cálculo de trayectorias, ventanas de lanzamiento y rutas de retorno de emergencia para los vuelos espaciales del Proyecto Mercury.

 

K (14 horizontal)

De origen ruso, realizó contribuciones notables al análisis, las ecuaciones diferenciales parciales y la mecánica. En 1874, presentó tres trabajos (sobre ecuaciones en derivadas parciales, sobre la dinámica de los anillos de Saturno y sobre integrales elípticas) en la Universidad de Gotinga como tesis doctoral.

 

L (25 horizontal)

Este matemático noruego desarrolló en gran medida la teoría de la simetría continua y la aplicó al estudio de la geometría y las ecuaciones diferenciales. También realizó contribuciones sustanciales en álgebra.

 

m (8 vertical)

Sus temas de investigación incluyeron la teoría de Teichmüller, la geometría hiperbólica, la teoría ergódica y la geometría simpléctica. En 2014 recibió la Medalla Fields, convirtiéndose en la primera mujer en ganar el premio, así como la primera iraní.

 

N (20 vertical)

Esta matemática alemana realizó importantes contribuciones al álgebra abstracta. El teorema que lleva su nombre explica la conexión fundamental entre la simetría en física y las leyes de conservación.

 

O (3 vertical)

Fue una matemática soviética que realizó trabajos pioneros sobre la teoría de ecuaciones diferenciales parciales, la teoría de medios elásticos fuertemente no homogéneos y la teoría matemática de capas límite.

 

P (1 vertical)

Se le considera el creador del campo de la topología algebraica. Realizó también importantes contribuciones a la geometría algebraica, la teoría de números o el análisis complejo, entre otros. A principios del siglo XX formuló la conjetura que lleva su nombre y fue resuelta por Grigori Perelman en 2003.

 

Q (24 horizontal)

Se le conoce como el «primer arquitecto» de la K-teoría algebraica. Recibió la Medalla Fields en 1978.

 

R (23 horizontal)

A pesar de carecer prácticamente de formación académica en matemáticas puras, realizó importantes contribuciones al análisis matemático, la teoría de números, las series infinitas y las fracciones continuas, incluyendo soluciones a problemas matemáticos que en su época se consideraban irresolubles.

 

S (7 horizontal)

Fue una de las personas que debatieron sobre un hipotético planeta que perturbaba a Urano. Sus predicciones se cumplieron en 1846 con el descubrimiento de Neptuno. Tutora de Ada Byron, tradujo la “Mécanique Céleste” de Pierre-Simon Laplace al inglés, añadiendo además una completa explicación de las bases matemáticas contenidas en el texto.

 

T (17 vertical)

Su investigación abarca temas de análisis armónico, ecuaciones diferenciales parciales, combinatoria algebraica, combinatoria aritmética, combinatoria geométrica, teoría de la probabilidad, detección comprimida, teoría analítica de números y las aplicaciones de la inteligencia artificial en matemáticas. Obtuvo la Medalla Fields en 2006.

 

u (5 vertical)

Su investigación abarca, entre otras, la teoría geométrica de ecuaciones en derivadas parciales, el cálculo en variaciones, la teoría gauge, los sistemas integrables o las ecuaciones de Schrödinger no lineales. En 2019 consiguió el Premio Abel, siendo la primera mujer (y, de momento, la única) en recibir este galardón.

 

V (18 horizontal)

Fue galardonada con la Medalla Fields en julio de 2022. Esta matemática ucraniana es la segunda mujer en obtener este galardón que premiaba su trabajo sobre el empaquetamiento de esferas: resolvió en 2016 el problema del empaquetamiento en dimensión 8 y, en colaboración con otros investigadores, en dimensión 24.

 

W (21 horizontal)

Recibió en 1953 una de las primeras Becas Fulbright, con la que pudo estudiar en la Universidad de Yale (EE. UU.). Su investigación se centró principalmente en la teoría de grupos y en la teoría de álgebras de Lie.  Desde 1983 permaneció apartada del mundo académico, al tener que regresar a su Galicia natal para atender a su madre enferma.

 

Y (22 horizontal)

Nacido en China, este matemático ha realizado importantes contribuciones a la geometría diferencial. En 1982 recibió una Medalla Fields por “sus contribuciones a las ecuaciones diferenciales, a la conjetura de Calabi en geometría algebraica, a la conjetura de masa positiva de la teoría de la relatividad general y a las ecuaciones reales y complejas de Monge-Ampère”.

 

Z (2 horizontal)

Fue un lógico y matemático alemán, cuyo trabajo tiene importantes implicaciones en los fundamentos de las matemáticas. En 1904 demostró el denominado teorema de buen orden.

 

Nota

Si quieres comprobar si has acertado los apellidos de estos veinticinco protagonistas de las matemáticas, puedes consultar el crucigrama resuelto en este enlace. Si te has quedado con ganas de más, prueba este.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia

El artículo De la A a la Z: un crucigrama con grandes protagonistas de las matemáticas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Las “matemáticas inversas” arrojan luz sobre por qué los problemas difíciles son difíciles

Tue, 2025/12/16 - 11:59

El uso de técnicas metamatemáticas ha permitido demostrar que ciertos teoremas que parecen distintos son, en realidad, lógicamente equivalentes.

Un artículo de Ben Brubaker. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

En las matemáticas inversas, los investigadores sustituyen los axiomas, los fundamentos de los sistemas matemáticos, por los teoremas que quieren demostrar. Ilustración Son of Alan / Quanta Magazine

En lo que respecta a los problemas difíciles, los científicos de la computación parecen estar atascados. Consideremos, por ejemplo, el famoso problema de encontrar la ruta circular más corta que pase exactamente una vez por cada ciudad de un mapa. Todos los métodos conocidos para resolver este «problema del viajante de comercio» son desesperadamente lentos cuando el mapa contiene muchas ciudades, y los investigadores sospechan que no existe una forma de hacerlo mejor. Sin embargo, nadie sabe cómo demostrarlo.

 

Desde hace más de 50 años, los investigadores en teoría de la complejidad computacional han intentado convertir afirmaciones intuitivas como «el problema del viajante de comercio es difícil» en teoremas matemáticos irrefutables, con escaso éxito. Cada vez más, también buscan respuestas rigurosas a una pregunta relacionada y más difusa: ¿por qué no han tenido éxito sus demostraciones?

 

Este trabajo, que trata el propio proceso de demostración matemática como un objeto de análisis matemático, forma parte de un campo conocido por su dificultad: la metamatemática. Los metamatemáticos suelen examinar los supuestos básicos, o axiomas, que sirven como punto de partida de todas las demostraciones. Modifican estos axiomas iniciales y estudian cómo los cambios afectan a los teoremas que pueden demostrarse. Cuando se aplica la metamatemática al estudio de la teoría de la complejidad, el objetivo es determinar qué pueden y qué no pueden demostrar distintos conjuntos de axiomas sobre la dificultad computacional. De este modo, los investigadores esperan comprender por qué sus intentos de demostrar que ciertos problemas son difíciles no han prosperado.

 

En un artículo publicado el año pasado, tres investigadores adoptaron un enfoque distinto. Invirtieron el método que los matemáticos han utilizado durante milenios: en lugar de partir de un conjunto estándar de axiomas para demostrar un teorema, sustituyeron uno de los axiomas por un teorema y demostraron ese axioma. Mediante este enfoque, conocido como matemática inversa, demostraron que muchos teoremas distintos de la teoría de la complejidad son, en realidad, equivalentes.

 

«Me sorprendió que consiguieran avanzar tanto», afirma Marco Carmosino, teórico de la complejidad en IBM. «La gente va a mirar esto y va a decir: “Esto es lo que me hizo entrar en la metamatemática”».

 

Demostraciones con palomas

 

La historia del artículo sobre matemática inversa comenzó en el verano de 2022, cuando Lijie Chen, teórico de la complejidad y actualmente profesor en la Universidad de California en Berkeley, estaba terminando su doctorado. Con más tiempo libre del habitual, decidió dedicar unos meses a estudiar metamatemática.

Lijie Chen ideó una manera de invertir la relación entre dos teoremas matemáticos. Foto: Hongxun Wu

«Como me estaba graduando, no tenía mucho trabajo de investigación que hacer», explica Chen. «Pensé que debía aprender algo nuevo».

 

Durante sus lecturas, Chen empezó a reflexionar sobre una rama de la teoría de la complejidad llamada complejidad de la comunicación, que estudia cuánta información deben intercambiar dos o más personas para realizar determinadas tareas. Uno de los problemas más sencillos de este campo, conocido como el «problema de la igualdad», se asemeja a un juego colaborativo. Dos jugadores comienzan con cadenas independientes de ceros y unos, es decir, de bits. Su objetivo es utilizar la menor cantidad posible de comunicación para determinar si ambas cadenas son idénticas. La estrategia más simple consiste en que uno de los jugadores envíe la cadena completa para que el otro la compruebe. La pregunta es si existe alguna forma más eficiente de proceder.

 

Los teóricos de la complejidad demostraron hace décadas que la respuesta es negativa. Para resolver el problema de la igualdad, los jugadores deben enviar, como mínimo, un número de bits igual a la longitud de la cadena completa. Esta longitud constituye una cota inferior de la cantidad de comunicación necesaria.

 

Chen no se centraba tanto en la cota inferior del problema en sí como en la forma en que se había demostrado. Todas las demostraciones conocidas dependen de un teorema sencillo llamado principio del palomar, que establece que si se colocan más palomas que palomares, al menos un palomar contendrá más de una paloma. Aunque pueda parecer evidente, este principio es una herramienta muy poderosa en la teoría de la complejidad y en otros ámbitos de las matemáticas.

 

Chen encontró una pista sugerente: la relación entre el problema de la igualdad y el principio del palomar podría funcionar también en sentido inverso. Es sencillo utilizar el principio del palomar para demostrar la cota inferior del problema de la igualdad. La cuestión era si esa cota inferior podría utilizarse, a su vez, para demostrar el principio del palomar.

 

Una igualdad inquietante

 

Chen comentó su idea con Jiatu Li, que en aquel momento era estudiante de grado en la Universidad de Tsinghua y con quien había colaborado recientemente en otro artículo. Para formalizar la conexión, necesitaban elegir un conjunto de axiomas con el que trabajar. En metamatemática es habitual utilizar axiomas más restrictivos que los convencionales, ya que estos sistemas más débiles permiten identificar con mayor precisión las relaciones entre distintos teoremas. Chen y Li optaron por un conjunto de axiomas muy utilizado llamado PV1. PV1 es lo suficientemente potente como para demostrar por sí solo algunos teoremas importantes de la teoría de la complejidad computacional. Si se añade una versión concreta del principio del palomar como axioma adicional, también permite demostrar la cota inferior del problema de la igualdad. En diciembre de 2022, Li y Chen demostraron formalmente que, como Chen había sospechado, la demostración también funciona intercambiando el papel de ambos teoremas.

Igor Oliveira contribuyó a demostrar que muchos teoremas diferentes son equivalentes. Foto: Richard Cunningham

Que la cota inferior del problema de la igualdad pueda demostrarse a partir del principio del palomar, y viceversa, implica que, dentro del marco lógico de PV1, ambos teoremas son equivalentes. Cuando Li y Chen comentaron el resultado con Igor Oliveira, teórico de la complejidad en la Universidad de Warwick, los tres se dieron cuenta de que este enfoque de matemática inversa podría aplicarse también a teoremas de otras áreas de la teoría de la complejidad. En los meses siguientes, demostraron de forma sistemática equivalencias entre muchos otros resultados.

 

«Al principio solo teníamos dos resultados equivalentes», explica Chen. «Ahora tenemos toda una red de ellos».

 

La conexión más llamativa relaciona la misma versión del principio del palomar con uno de los primeros teoremas que suelen estudiarse en los cursos introductorios de teoría de la complejidad. Este «clásico imprescindible», en palabras de Carmosino, establece una cota inferior sobre el tiempo necesario para que un tipo de ordenador teórico —una máquina de Turing de una sola cinta— determine si una cadena de ceros y unos es un palíndromo, es decir, si se lee igual de izquierda a derecha que de derecha a izquierda. Mediante la matemática inversa, Li, Chen y Oliveira demostraron que, dentro de PV1, este teorema es equivalente al principio del palomar.

 

«Si alguien me lo hubiera dicho, no lo habría creído», reconoció Chen. «Suena completamente absurdo».

 

Esta equivalencia resulta sorprendente porque ambos teoremas parecen, a primera vista, muy distintos. El principio del palomar no está vinculado de forma intrínseca al cálculo: es una afirmación elemental sobre conteo. La cota inferior para palíndromos, en cambio, se refiere a un modelo concreto de computación. El nuevo resultado sugiere que teoremas aparentemente específicos tienen un alcance mucho más general de lo que cabría esperar.

 

«Indica que estas cotas inferiores de complejidad que queremos comprender son mucho más fundamentales», señaló Oliveira.

Territorio inexplorado

 

Esta red de equivalencias también ha permitido clarificar los límites de PV1. Los investigadores ya tenían motivos para pensar que el principio del palomar no puede demostrarse a partir de los axiomas de PV1 por sí solos, por lo que los resultados de Li, Chen y Oliveira implican que los demás teoremas equivalentes probablemente tampoco sean demostrables en ese sistema.

 

«Me parece precioso», afirma Ján Pich, teórico de la complejidad en la Universidad de Oxford, que en 2014 obtuvo un resultado importante sobre la potencia de PV1. No obstante, advirtió que el enfoque de la matemática inversa puede resultar especialmente útil para revelar nuevas conexiones entre teoremas ya conocidos. «No nos dice gran cosa, hasta donde podemos afirmar, sobre la complejidad de enunciados que aún no sabemos cómo demostrar».

 

Comprender ese territorio inexplorado sigue siendo un objetivo lejano para los investigadores en metamatemática. Sin embargo, esto no ha reducido el entusiasmo de Li por el campo. Inició sus estudios de posgrado en el Instituto Tecnológico de Massachusetts en 2023 y recientemente escribió una guía de 140 páginas sobre metamatemática dirigida a teóricos de la complejidad. Es un ejemplo de una tendencia más amplia: tras décadas de relativa marginalidad, la metamatemática está atrayendo cada vez más atención por parte de una comunidad más amplia de investigadores, que aportan nuevas perspectivas al área.

 

«La gente está cansada de estar bloqueada», concluye Carmosino. «Es el momento de dar un paso atrás y trabajar en los fundamentos».

 

El artículo original, ‘Reverse Mathematics’ Illuminates Why Hard Problems Are Hard, se publicó el 1 de diciembre de 2025 en Quanta Magazine.

Traducido por César Tomé López

El artículo Las “matemáticas inversas” arrojan luz sobre por qué los problemas difíciles son difíciles se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El lado oscuro de las hormigas: esclavistas, okupas e inductoras al matricidio

Mon, 2025/12/15 - 11:59
hormigasPolyergus lucidus. Foto: Gary D. Alpert, Harvard University – © Museum of Comparative Zoology, The President and Fellows of Harvard College / AntWiki

Entre los himenópteros sociales (hormigas, abejas y avispas) ser reina no es una tarea fácil. Hay que aparearse con uno o varios machos, fundar una colonia, recluirse en ella y pasar todo el tiempo poniendo miles de huevos que serán atendidos por un creciente número de obreras. A cambio, las obreras cubrirán las necesidades de la reina, pero no parece una forma de vida muy atractiva.

Tal vez por este motivo es muy frecuente entre los himenópteros sociales y, en particular, entre las hormigas, buscar alternativas para que sean otros quienes se ocupen total o parcialmente de los descendientes de una reina. Estas estrategias se conocen como “parasitismo social”, y pueden ser más o menos extremadas. Aquí pueden descargar una excelente revisión de este tema.

Un caso frecuente de parasitismo social es el de la dulosis o esclavización de hormigas de una especie por otra diferente. Este comportamiento es practicado por más de cien especies pertenecientes a cuarenta linajes diferentes, lo que quiere decir que ha evolucionado múltiples veces de forma independiente. Las obreras de la especie esclavista organizan expediciones, asaltan otros hormigueros, y roban las pupas, trasladándolas al propio nido (Figura 1). Allí las cuidan hasta que se hacen obreras. Las secuestradas adoptan el comportamiento de sus captoras, colaboran en el mantenimiento de la colonia, en la búsqueda de alimento y, en ocasiones, en saqueos de otros hormigueros, incluso de los de su propia especie. Un ejemplo que tenemos en nuestra península es Polyergus rufescens, que esclaviza a hormigas del género Formica.

hormigasFigura 1. A la izquierda, obreras de Polyergus lucidus regresando de una expedición de robo de pupas de la especie Formica incerta. En el saqueo participan ejemplares de Formica asimilados a la colonia de Polyergus (flecha). Foto: James C. Trager CC BY-SA 3.0. A la derecha, reina de Polyergus lucidus con obreras de Formica archboldi. Foto: Adrian A. Smith / Entomological Society of America CC BY 2.5.

Todavía más radical es lo que hacen algunas reinas, como las de la especie americana Polyergus breviceps. Es otra especie esclavista pero, ocasionalmente, las reinas se unen a la expedición en búsqueda de hormigueros ajenos. Cuando encuentran uno, evitan el ataque de las obreras liberando una feromona. Después buscan a la reina local, la matan, y se frotan contra ella para adquirir su “firma” química, básicamente unos hidrocarburos que recubren el caparazón de quitina (mimetismo químico). A partir de ese momento, las obreras se pondrán al servicio de la nueva reina, la alimentarán, y criarán su prole.

Menos truculentas son las reinas que podríamos llamar okupas[1], pertenecientes a géneros muy diversos (p.e. Tetramorium inquilinum) y que, en muchos casos, no producen obreras. Las reinas, de muy pequeño tamaño (2-3 mm), emiten señales que les permiten ser aceptadas en un hormiguero ajeno. Allí se encaraman sobre otras hormigas, particularmente sobre las reinas locales, y son alimentadas por las obreras con la dieta real. Sus huevos, de los que salen machos y las futuras reinas, son también cuidados por las obreras locales.

El caso que nos ocupa hoy es, probablemente, el más espectacular de todos. Se describe en un artículo recientemente publicado en la revista Current Biology por investigadores japoneses. Enfrentarse a la reina de un hormiguero ajeno implica riesgos, por la respuesta defensiva de las obreras y de la reina misma, que luchará a muerte contra la agresora. Para evitar estos riesgos, dos especies de hormigas asiáticas, Lasius orientalis y Lasius umbratus, han desarrollado una estrategia insólita para apoderarse de las colonias de dos especies cercanas, L. flavus y L. japonicus, respectivamente. En lugar de matar a la reina de estas especies, las rocían repetidamente con una sustancia procedente de su abdomen. El resultado es que las obreras consideran a su reina y madre como una invasora extraña, y la atacan sin piedad hasta matarla (Figura 2). Podemos ver todo el proceso en este vídeo incluido en el artículo de Current Biology  (no recomendado para personas sensibles).

hormigasFigura 2. A: Hormiga reina de Lasius orientalis (negra) acercándose a la reina de L. flavus (rojiza).  B-D: La reina de L. flavus es atacada repetidamente por sus propias obreras tras ser rociada con fluido abdominal por la reina invasora, y termina siendo partida en dos (D). E-F: El mismo comportamiento es registrado en L. umbratus y L. japonicus. De Shimada et al. (2025), cita completa en referencias. Licencia CC-BY 4.0.

Los investigadores no han podido determinar la naturaleza de la sustancia que provoca el “golpe de estado”, aunque señalan como probable al ácido fórmico. En cualquier caso, la hormiga que ha inducido el matricidio es reconocida por la colonia como su reina, y será atendida en sus necesidades alimenticias y reproductivas.

El matricidio es muy excepcional en la naturaleza, aunque ha sido descrito en colonias de abejorros, algunas avispas, e incluso en las colmenas de abejas, cuando declina la capacidad reproductiva de la reina. La necesidad de reemplazar a la reina, y los intereses de las obreras en poner sus propios huevos (de los que solo saldrán machos), están detrás de estos comportamientos. Un “matricidio altruista” es practicado por algunos insectos (el dermáptero Anechura harmandi) y arácnidos. En situaciones de escasez de alimentos las madres se dejan devorar por sus crías. Pero el caso del género Lasius es el primero en el que un matricidio es inducido por otra especie, y por ello ha despertado un gran interés en el estudio de la evolución del comportamiento social de los animales.

Mientras terminaba la redacción de este texto se ha publicado un artículo en Nature Communications sobre otra especie del género Lasius, en concreto L. neglectus. Se describe como “altruista” el hecho de que las pupas de esta especie, cuando son infectadas por un patógeno, emiten señales que provocan su destrucción y eliminación por parte de las obreras que las cuidan, previniendo la extensión de la enfermedad. Esto me sugiere un comentario final: no tiene sentido aplicar valoraciones humanas hacia estos comportamientos. En la naturaleza no existe la crueldad, la perversidad, la generosidad o el sacrificio altruista. No hay un auténtico “lado oscuro” más allá del ser humano. Los comportamientos han sido modelados por procesos evolutivos que seleccionan las mejores estrategias para la supervivencia de la especie. Solo a nosotros nos toca distinguir la moralidad de nuestros comportamientos, y valorar si algunos de ellos no estarán reduciendo nuestras posibilidades de supervivencia como especie.

Referencias

Shimada, T., Tanaka, Y., Takasuka, K. (2025) Socially parasitic ant queens chemically induce queen-matricide in host workers. Curr Biol. 35(22):R1079-R1080. doi: 10.1016/j.cub.2025.09.037.

Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.

Nota:

 

 

 

 

 

 

 

 

[1] En la literatura científica se las conoce como inquilinas, pero dado que no hacen contribución alguna al hormiguero ajeno, tal vez el término de “okupas”, ya aceptado por la RAE, se ajuste más a la realidad.

El artículo El lado oscuro de las hormigas: esclavistas, okupas e inductoras al matricidio se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El declive de las aves como indicador de declive medioambiental

Sun, 2025/12/14 - 11:59
avesFuente: Pixabay

 

A mediados del siglo XX China se encontraba muy lejos del brillante pasado que, mil años atrás, la había convertido en la civilización más poderosa y avanzada del planeta. Su obstinación por el aislamiento, su abrupta renuncia a la navegación, sus constantes conflictos tanto internos como externos, su inmovilismo confuciano o su terquedad en mantener antiguas tradiciones la mantuvieron al margen de la mayoría de progresos y avances tecnológicos que las diferentes revoluciones políticas, sociales e industriales fueron aportando al mundo con el paso de los siglos. En 1958, el presidente Mao Zedong propuso una ambiciosa iniciativa para conseguir que el país avanzase pisando a fondo el acelerador. Aquel programa se denominó «El Gran Salto Adelante» (大跃进) y, como su nombre indica, pretendía recuperar el evidente atraso de China, no con pequeños pasitos y avances, sino poniendo toda la carne en el asador. La principal baza de Mao Zendong era contar con una enorme población, casi 700 millones en esos años. Si las potencias industrializadas producían acero en grandes cantidades China también sería capaz si millones de familias construían hornos caseros y juntaban todo el metal que encontrasen. El resultado fue decepcionante, la calidad del acero chino era mediocre y, en muchos casos, completamente inutilizable.

Otra de las grandes campañas del «Gran Salto Adelante» pretendía acabar con las frecuentes plagas que propagaban enfermedades y perjudicaban la producción, especialmente tres: mosquitos, ratas y moscas. Sin embargo, en la cultura tradicional china, el número 3 representa la armonía, el equilibrio, la buena suerte… la superstición imperante les hizo añadir otra especie a combatir para llegar al 4, un número que sí representa la muerte, la desdicha y la mala fortuna. Para honrar ese tradicional pensamiento mágico incluyeron a los gorriones entre las plagas a exterminar. Los gorriones picoteaban la fruta y se comían las semillas mermando las cosechas. Toda China se lanzó a matar gorriones, a veces con métodos bastante curiosos como por ejemplo usando ruido. Los campesinos hacían turnos golpeando tambores, cazuelas y lo que tuvieran a mano para impedir que los pájaros se acercasen a las cosechas. En este caso tuvieron bastante éxito y los gorriones casi fueron erradicados en un par de años. Lo que el Gran Salto no había previsto es que estas aves no solo comen semillas y fruta, sino también insectos. Sin sus depredadores naturales, las plagas de mosquitos, moscas y langostas «empezaron a proliferar alimentándose glotonamente de las plantas. No tardaron en aparecer nubes de langostas migratorias que caían sobre los cultivos, devorando todo a su paso; sus daños eran tan devastadores que el país pasó, entre 1958 y 1962, por una de las mayores hambrunas de los tiempos modernos cuyo balance rondó, según algunas estimaciones, los treinta millones de muertos».

Tendencia de las poblaciones de aves entre 1998 y 2024 para los programas de seguimiento (Sacre, Sacin, Noctua). Fuente: Informe SEO/BirdLife 2024

 

Los gorriones chinos de los años ‘60 deberían haberse convertido en un contundente ejemplo de lo que sucede cuando se alteran los delicados equilibrios de la naturaleza y, sin embargo, tan solo unas décadas más tarde, no parece que hayamos aprendido demasiado del grave error del Gran Salto Delante de Mao Zedong. La disminución generalizada de las poblaciones de aves en la mayoría de regiones del mundo es un fenómeno bien documentado que no está teniendo la atención que merece.

En nuestro país, por ejemplo, la Sociedad Española de Ornitología (SEO/BirdLife) acaba de publicar el informe más reciente del estado de las aves en España (2024) con unos datos ciertamente preocupantes: desplome histórico de aves en todo el país. El seguimiento de aves de SEO se divide en tres grandes programas: SACRE (primavera), SACIN (invierno) y NOCTUA (aves nocturnas). En primavera, el 43 % de las especies presenta declive de sus poblaciones con respecto a 1998. Las especies invernales solo un 66 % presenta una situación estable y, finalmente, las nocturnas que presentan el peor estado de conservación, con más de la mitad de las especies en declive y ninguna en aumento. Ni siquiera nuestros gorriones se salvan de la debacle: en lo que va de siglo su número ha disminuido un 20 %.

Coincidiendo con este informe, la revista Nature ha publicado un importante estudio que analiza cómo los cambios causados por el ser humano en el uso del suelo (agricultura, urbanización y deforestación) afectan a la diversidad funcional de las aves desplegando serias consecuencias para los ecosistemas que dependen de ellas. Trabajos anteriores ya indicaban que el cambio de uso de la tierra es el principal factor implicado en el declive de las aves a nivel mundial.

Muestreos e impactos del cambio de uso de la tierra en las aves a nivel mundial | Weeks, Thomas L., et al. (2025) Land-Use Change Undermines the Stability of Avian Functional Diversity  Nature doi: 10.1038/s41586-025-09788-0. CC BY 4.0

El estudio es uno de los mayores que se han realizado hasta la fecha y los investigadores recopilaron datos de 3696 especies diferentes de aves en 1281 lugares repartidos por el mundo. Usaron rasgos morfológicos (como el tamaño del cuerpo o la forma del pico y alas) que se relacionan con la forma en laque las aves contribuyen a funciones ecológicas, ya sea dispersando semillas, controlando plagas de insectos, etc…

Las conclusiones del trabajo publicado confirman que el cambio en el uso del suelo reduce la cantidad de aves pero añade un elemento fundamental: también debilita la capacidad de los ecosistemas para resistir y recuperarse de nuevos impactos. Los errores del pasado parecen regresar con fuerza añadiendo un nuevo indicador: en temas medioambientales siempre tropezamos con las mismas piedras.

 

Referencias y más información:

Amin Maalouf (2024) El laberinto de los extraviados: Occidente y sus adversarios Alianza Editorial

SEO/BirdLife «Programas e informes de seguimiento de aves en España»

Weeks, Thomas L., et al. (2025) Land-Use Change Undermines the Stability of Avian Functional Diversity  Nature doi: 10.1038/s41586-025-09788-0

 

Sobre el autor: Javier «Irreductible» Peláez es escritor y comunicador científico. Autor de «500 Años de Frío» (2019) y «Planeta Océano» (2022). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.

 

El artículo El declive de las aves como indicador de declive medioambiental se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La importancia de comunicar los sesgos

Sat, 2025/12/13 - 11:59

sesgos

El pasado 15 de mayo tuvo lugar el principal evento sobre comunicación de la ciencia con perspectiva de género. La tercera edición de Género y comunicación de la ciencia se celebró en la Torre Iberdrola en Bilbao, consolidándose como un espacio para el diálogo y la reflexión en torno a cómo incorporar y mejorar la perspectiva de género en la comunicación científica.

La jornada estuvo organizada por la Cátedra de Cultura Científica de la UPV/EHU, con la colaboración del Departamento de Ciencia, Universidad e Innovación del Gobierno Vasco, Iberdrola y EITB. Está dirigida a profesionales de la comunicación, así como a todas aquellas personas interesadas en la comunicación inclusiva y cómo abordarla desde diferentes enfoques.

Las conferencias magistrales de esta edición se centraron en la inteligencia artificial (IA) y los sesgos de género, abordando propuestas para avanzar hacia una inteligencia artificial feminista.

En este contexto Gisela Baños pronunció la conferencia: La importancia de comunicar los sesgos.

Gisela Baños es física teórica por la Universidad de Leipzig, trabaja en el mundo editorial como escritora y correctora. Lleva más de una década estudiando las relaciones entre ciencia, tecnología y ciencia ficción y haciendo divulgación al respecto. Es colaboradora habitual de la sección Fronteras del Cuaderno de Cultura Científica, entre otros medios.

Edición realizada por César Tomé López

El artículo La importancia de comunicar los sesgos se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La península ibérica está girando en el sentido de las agujas del reloj

Fri, 2025/12/12 - 11:59

Los recientes registros de terremotos y satélites ponen de manifiesto la manera en que interactúan la placa eurásica y la africana, así como las posibles consecuencias de su colisión en la península ibérica.

Las placas tectónicas pueden concebirse como grandes fragmentos móviles situados sobre la superficie terrestre. El desplazamiento continuo de estas placas genera esfuerzos significativos que se manifiestan en forma de deformación o de terremotos en sus límites. «La placa eurásica y la africana convergen a un ritmo de 4–6 mm al año. La frontera entre ambas es muy nítida tanto en el océano Atlántico como en la zona de Argelia, mientras que al sur de la península ibérica resulta mucho más difusa y compleja», explica Asier Madarieta, investigador de la Universidad del País Vasco/Euskal Herriko Unibertsitatea (EHU).

En el Mediterráneo occidental, el dominio de Alborán determina integralmente la configuración de la frontera entre las placas eurásica y africana. Esta región se está desplazando hacia el oeste y favorece el desarrollo del arco activo de Gibraltar, conectando la cordillera Bética con la del Rif. «Hasta ahora no conocíamos con precisión la naturaleza de la frontera en esta zona, y continúa siendo objeto de debate cuáles son los procesos geodinámicos que tienen lugar allí», señala Madarieta.

ibéricaFuente: Asier Madarieta-Txurruka et al (2025) Gondwana Research doi: 10.1016/j.gr.2025.08.020Esfuerzo y deformación

En un estudio encabezado por el investigador de la EHU, se han caracterizado los procesos dinámicos más relevantes que se desarrollan en esta frontera difusa entre las placas eurásica y africana: «Hemos analizado la relación entre la tensión de la corteza terrestre y la deformación superficial en el sector occidental del Mediterráneo, en la frontera entre ambas placas situadas entre la península ibérica y el noroeste de África», explica el investigador del Grupo de Investigación Procesos Hidro-Ambientales (IDH). Para ello, han calculado los campos de esfuerzo y deformación de la región «a partir de los datos de los terremotos registrados en los últimos años y de la información sobre la deformación obtenida mediante datos satelitales».

La comparación entre esfuerzo y deformación permite comprender de manera más completa los procesos geodinámicos y tectónicos. En el estudio se han obtenido numerosos datos nuevos sobre la frontera entre las placas eurásica y africana, lo que ha permitido «una mejor definición». De este modo, «hemos podido determinar qué segmentos fronterizos están ya afectados por la colisión entre Eurasia y África y cuáles siguen condicionados por el desplazamiento hacia el oeste del arco de Gibraltar», explica el doctor Madarieta.

Giro horario

«Los nuevos datos confirman que la península ibérica está girando en el sentido de las agujas del reloj», señala. «De los datos obtenidos se desprende que el arco de Gibraltar juega un papel importante en la frontera entre Eurasia y África. La deformación provocada por la colisión entre Eurasia y África al este del estrecho de Gibraltar es absorbida por la corteza del arco de Gibraltar, lo que impide que dichos esfuerzos se transmitan hacia la península ibérica. «En cambio, al oeste del estrecho se produce un choque directo entre Iberia (placa euroasiática) y la placa africana, lo que creemos que puede favorecer que los esfuerzos se transmitan hacia el suroeste de Iberia. Esto empujaría la península por dicha zona y provocaría su giro en sentido horario».

Fallas activas de Iberia

Los campos de esfuerzo ofrecen información sobre los procesos geodinámicos, mientras que los de deformación muestran cómo responde y se deforma la superficie terrestre bajo dichos esfuerzos. «Sin embargo, no resulta sencillo identificar la estructura geológica particular que provoca esta deformación», puntualiza. Con los nuevos datos es posible acotar las zonas donde se encuentran —o podrían encontrarse— las fallas activas, es decir, aquellas estructuras capaces de generar terremotos. «En Iberia hay áreas donde se observa una deformación significativa o donde ocurren terremotos, pero desconocemos qué estructuras tectónicas están activas en dichos emplazamientos. Estos nuevos campos de esfuerzo y deformación nos indican hacia dónde debemos dirigirnos para buscar estas estructuras. De esta forma, podremos determinar qué tipos de pliegues y fallas existen, cómo se producirá su movimiento, qué tipo de terremotos pueden generar y qué magnitud podrían alcanzar».

En la península ibérica se está desarrollando la base de datos relativa a las fallas activas de Iberia (QAFI, Quaternary Active Fault database of Iberia). Pese al enorme trabajo realizado, aún queda un largo camino por recorrer en diversas zonas, especialmente en el oeste de los Pirineos (Navarra) y en el sector occidental del arco de Gibraltar, entre Cádiz y Sevilla. Por lo tanto, resulta imprescindible llevar a cabo estudios geológicos y geofísicos detallados en estos territorios, al objeto de identificar, caracterizar y evaluar el potencial sísmico de las estructuras responsables de la deformación», señala Madarieta.

Una pequeña ventana de la evolución geológica

Se sabe que los cambios geodinámicos son extremadamente lentos y que los datos satelitales y los registros sísmicos precisos, por su parte, son relativamente recientes. «Estos datos nos ofrecen tan solo una pequeña ventana de la evolución geológica. La mayoría de los registros sísmicos de alta precisión surgen a partir de 1980, y los datos satelitales precisos se obtienen únicamente a partir de 1999, mientras que los procesos geodinámicos se miden en millones de años. Es por ello por lo que resulta fundamental realizar análisis integrados de todas las fuentes de información disponibles», afirma.

El investigador sostiene que la base de datos generada en el estudio ha complementado las bases de datos previamente empleadas, lo que contribuye a «incrementar la fiabilidad de los resultados y conclusiones». A partir de ahora, «los datos aumentarán de forma exponencial; entre otros aspectos, será posible calcular con mayor precisión las deformaciones, incluso en áreas donde la información disponible es limitada».

Referencia:

Asier Madarieta-Txurruka, Juan F. Prieto, Joaquín Escayo, Federico Pietrolungo, José A. Peláez, Jesús Galindo-Zaldívar, Jesús Henares, Federica Sparacino, Gemma Ercilla, José Fernández, Mimmo Palano (2025) New insights on active geodynamics of Iberia and Northwestern Africa from seismic stress and geodetic strain-rate fields Gondwana Research doi: 10.1016/j.gr.2025.08.020

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La península ibérica está girando en el sentido de las agujas del reloj se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El memex: la idea que intentó adelantarse a su tiempo

Thu, 2025/12/11 - 11:59

A veces nuestros intentos de predecir el futuro pecan de optimistas —sobre todo en lo referente a la integridad humana a la hora de utilizar cualquier nuevo invento potencialmente revolucionario—, pero otras veces, se quedan muy cortos al tratar de imaginar lo que luego se ha convertido en realidad. Esto último es lo que le sucedió al pionero de la computación analógica Vannevar Bush cuando trató de imaginar una solución a un problema que empezó a ser más que acuciante tras la Segunda Guerra Mundial: el vertiginoso crecimiento de la producción científica, que hizo indispensable que idear nuevas formas de organizar, almacenar y acceder al conocimiento.

Vannevar Bush, aunque bastante visionario, siempre ha sido una figura controvertida por su contribución al esfuerzo bélico durante la Segunda Guerra Mundial. Fuente: Dominio público / OEM Defense

 

Un registro, para que le sea útil a la ciencia, debe ampliarse continuamente, debe almacenarse y, sobre todo, debe consultarse. Hoy en día hacemos el registro de forma convencional mediante la escritura y la fotografía, seguidas de la impresión, pero también grabamos en película, en discos de cera y en cables magnéticos.

En mayo de 1945, Bush escribió un artículo para  The Atlantic Montly titulado «As we may think», donde apareció por primera vez una idea que, aunque nunca se llevó a cabo, sí inspiró a la generación de informáticos, ya digitales, que llegó después: el memex.

Un memex es un dispositivo en el que un individuo puede almacenar todos sus libros, registros y comunicaciones, y que está mecanizado de modo que puede consultarse con enorme rapidez y flexibilidad.

Podríamos pensar en un ordenador, en algún tipo de libro electrónico o incluso en internet, y lo cierto es que la cosa iba por ahí. Pero lo realmente divertido del artículo de Vannevar Bush es lo tremendamente corto que se quedó respecto a lo que estaba por venir en realidad. Aunque algo llegó a ver, porque vivió hasta 1974, así que estuvo allí cuando se produjo la invención del transistor y el desarrollo de los primeros ordenadores digitales… pero no deja de resultar hasta tierna la ingenuidad que mostró en 1945.

El memex era un dispositivo tan analógico como el analizador diferencial —el gran invento de Vannebar Bush, un computador analógico electromecánico capaz de resolver ecuaciones diferenciales de hasta dieciocho variables—. Tal vez fue por eso que su imaginación no pudo ir más allá, no pudo evitar ser un hijo de su tiempo y de la forma de hacer las cosas de entonces. Le faltó el salto mental cualitativo que permitiría muy pronto la invención del transistor y los circuitos integrados. El memex era, así, una especie de escritorio «inteligente» con un mecanismo interno que permitía almacenar microfilmes con información y proyectarlos en pantallas translúcidas. Se controlaba a través de una serie de teclas y palancas que permitían hacer búsquedas y, no solo eso, sino enlazar documentos entre sí. Esa fue, en realidad, la genialidad de Bush, no el aparato en sí.

memexEl memex, según aparecía ilustrado en «As we may think». Fuente: The Atlantic Monthly

 

«La mente humana […] opera por asociación», escribió. Su intención era reproducir esa característica en el memex para facilitar la búsqueda de información, en lugar de indexar los contenidos, por ejemplo, por orden alfabético, palabras clave u otra característica similar. De esta manera cada usuario podía crear su propio mapa de conocimiento. En otras palabras, se anticipó al hipertexto, a la exploración no lineal de la información que hoy prácticamente define internet.

No por casualidad el memex de Vannebar Bush fue una de las piedras angulares sobre la que se empezaría a construir internet, una posibilidad que él no supo ver en aquel momento. Habló de que se crearían enciclopedias y libros en microfilm especialmente pensados para aquel aparato, que se podrían ampliar e incluso anotar… pero, al menos en aquel artículo, no planteó la posibilidad de que varias máquinas pudieran conectarse entre sí o incluso compartir información.

Quienes sí advirtieron el potencial de aquel concepto fueron personajes como Douglas Engelbart, inventor del ratón y el sistema NLS (oN-Line System);[1] Ted Nelson, que acuñó el término «hipertexto» en los años sesenta y usó el concepto en su proyecto Xanadu,[2] y Tim Berners-Lee, el artífice de la World Wide Web.

De izquierda a derecha, Douglas Engelbart, Fuente: CC BY-SA 3.0/SRI International; Ted Nelson, Fuente: CC BY-SA 4.0/Belinda Barnet; y Tim Berners-Lee, Fuente: CERN

 

Vannevar Bush había nacido en 1890 —la mayor parte de los «padres de la computación» lo harían a comienzos del siglo XX, así que fue el maestro de muchos de ellos— y, aún así, supo ver el potencial de aquellas máquinas analógicas que podrían, algún día, ayudarnos a pensar y ampliarían nuestra limitada memoria humana. Hacia el final de su artículo, escribía:

Sin duda se han ignorado dificultades técnicas de toda clase, pero también se han pasado por alto medios aún desconocidos que podrían aparecer en cualquier momento y acelerar el progreso técnico con tanta violencia como lo hizo la llegada de la válvula termoiónica.

Amén; el transistor se inventó justo dos años después.

 

Bibliografía

Berners‑Lee, T. (s. f.). Frequently asked questions by the Press [FAQ]. W3C.

Bush, V. (julio de 1945). As we may think. The Atlantic Montly.

Bush, V, (1967). Science is not enough. William Morrow & Company.

Doug Engelbart Institute

Nelson, T. (1981). Literary machines. Mindful Press.

Notas:

[1]      El NLS fue un entorno digital que permitía que varios usuarios trabajaran sobre el mismo documento a la vez, conectar documentos mediante hiperenlaces de forma similar al memex, tenía una rudimentaria interfaz gráfica con la que se interaccionaba gracias al primer ratón.

[2]      Se trataba, básicamente, de una especie de gran enciclopedia que recogería todo lo que se había escrito, y que consistiría en una gran cantidad de ordenadores interconectados.

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo El memex: la idea que intentó adelantarse a su tiempo se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

A vueltas con el equipaje de mano (II)

Wed, 2025/12/10 - 11:59

En la anterior entrada del Cuaderno de Cultura Científica titulada A vueltas con el equipaje de mano (I) estuvimos hablando de las medidas de las maletas de cabina. En la actualidad cada compañía aérea tiene establecidas unas medidas concretas (ancho x largo x alto) para el equipaje de mano que debe ser utilizado en sus aviones. Por ejemplo, para British Airways y EasyJet son 25 x 45 x 56 cm, para Iberia son 25 x 40 x 56 cm, para Lufthansa 23 x 44 x 55 cm, para Vueling y Ryanair 20 x 40 x 55 cm, para American Airlines 23 x 36 x 56 o para Air Europa, Air France o KLM 25 x 35 x 55 cm, que, aunque todas puedan estar alrededor de unas ciertas medidas, tienen diferencias significativas en algunos casos.

 

 

Como comentábamos en la anterior entrada, hace unos años, y aún hay compañías que lo mantienen, existía una norma general (que era el estándar internacional de la IATA = Asociación Internacional de Transporte Aéreo), por encima de las recomendaciones particulares de cada compañía (que, en algunos casos, en aquella época eran algo menores que las actuales), que consistía en que las medidas de la maleta de cabina debían ser tales que su suma no excediera los 115 centímetros, es decir, ancho + largo + alto (de la maleta) debía medir menos, o igual, que 115 cm. Esto es,

 

 

siendo x = ancho, y = largo, z = alto.

 

Un dispositivo para controlar las maletas

 

Como pusimos de manifiesto en la reflexión final de la anterior entrada, el problema estaba en que siendo la norma general ancho + largo + alto menor, o igual, que 115 cm, el dispositivo que utilizaba cada compañía para controlar si las maletas de los pasajeros cumplían la normativa era un dispositivo con forma de paralelepípedo (caja rectangular, como en la siguiente imagen) con las medidas de su recomendación, que en aquella época se ajustaban a que la suma de las medidas (ancho, largo y alto) fuese 115 cm. Así, la caja de Iberia estaba adaptada para las medidas que recomendaba en esa época 20 x 40 x 55 cm, pero en esa caja podían tener problemas las maletas recomendadas por Spanair (25 x 40 x 50 cm) o Air Europa (25 x 35 x 55 cm), que eran más anchas, de 25 cm, así como maletas con otras medidas, incluyendo la maleta cúbica de 38,33 cm de lado, que, aunque fuese extraña y difícil de incluir en la zona de equipaje de mano (véase la entrada A vueltas con el equipaje de mano (I)), estaba dentro de la norma general.

 

 

Por este motivo, cuando hace unos cuantos años (alrededor de 2010) preparé mi charla Matemáticas para andar por casa, me planteé la siguiente cuestión:

 

¿Es posible diseñar un dispositivo para que la compañía aérea compruebe que las medidas del equipaje (sin medirlas) cumplen la norma general?

 

puesto que el sistema de la caja rectangular realmente no era efectivo. De hecho, quizás por este motivo se ha ido eliminando la norma general de que ancho + largo + alto sea menor, o igual, que 115 cm, por medidas más concretas, en algunos casos algo mayores, que dan más flexibilidad.

 

 

La solución para la regla general no era la estructura de caja rectangular utilizada, que como fuente de información orientativa podía ser válida, o estar tomando las medidas de cada maleta, que hubiese convertido el sistema en un suplicio para las trabajadoras de la compañía aérea, sino un dispositivo que, como veremos, derivaba del conocimiento de lo que son las coordenadas cartesianas y la ecuación cartesiana de un plano.

 

No se trata en esta entrada de intentar establecer un mecanismo que se podía, o no, haber utilizado, sino mostrar como el análisis matemático de un problema puede ofrecer una solución al mismo. Una vez obtenida esa solución la empresa implicada puede decidir desarrollarla, o no, en función de múltiples factores que tendrá que tener en cuenta.

 

El problema en dos dimensiones

 

Para intentar simplificar la cuestión y facilitar su comprensión, vamos a pensar en el problema en dos dimensiones, en cuyo caso, en lugar de una maleta tendremos un objeto rectangular (cuyas dimensiones son el ancho y el largo), por ejemplo, el marco de una fotografía o un cuadro.

 

 

Por lo tanto, una regla equivalente al estándar de IATA para las maletas podría ser que la suma de las medidas del marco sea menor, o igual, que 35 centímetros. De esta manera entrarían dentro de lo permitido medidas habituales como 13 x 18 cm o 15 x 20 cm. En consecuencia, se trata de crear un dispositivo para controlar que los marcos de las fotografías cumplan esa regla. Pensemos que quizás, esto podría ser útil en una fábrica de marcos para separar los marcos por tamaños o alguna otra situación equivalente.

 

Para analizar matemáticamente esta cuestión vamos a introducir primero las coordenadas cartesianas del plano y después la ecuación de una recta en el plano utilizando las coordenadas cartesianas.

 

 

Coordenadas cartesianas

 

Para definir estas coordenadas en el plano debemos de partir de dos rectas perpendiculares, que van a ser los denominadas “ejes de coordenadas” (el eje X o eje de abscisas –horizontal– y el eje Y o eje de ordenadas –vertical–), a cuyo punto de corte se le denomina origen (O). Entonces, las coordenadas cartesianas (rectangulares) permiten determinar la posición de cada punto del plano P en función de dos números (x, y) que expresan la distancia del punto a los dos ejes coordenados (x la distancia del punto P al eje Y e y la distancia al eje X). En esta imagen vemos algunos ejemplos que nos ayudan a entender mejor esta idea (el signo negativo indica si se está en una parte o en otra respecto a los ejes, aunque para lo que nos ocupa aquí solo hablaremos de coordenadas positivas). Por ejemplo, el punto (3,2) dista 3 unidades del eje Y y 2 unidades del eje X.

 

 

Nos podemos cuestionar el motivo por el cual es útil hablar de coordenadas cartesianas en este problema. Seguramente, la imagen anterior nos dará ya una idea del motivo. Imaginemos que tenemos un plano coordenado y colocamos un marco de manera que uno de sus vértices esté apoyado en el origen y dos de sus lados estén apoyados en los ejes coordenados, como en la siguiente imagen, de manera que el ancho se apoye en el eje X y el largo en el eje Y.

 

 

De esta manera, como se muestra en la imagen anterior, las medidas del marco de una fotografía (x, y), siendo x el ancho e y el largo, determinarán el punto P = (x, y) del plano, que es la posición del vértice opuesto al apoyado en el origen. Y recíprocamente, dado un punto cualquiera del plano P = (x, y), este determinará las medidas concretas de un marco fotográfico, colocado como en la situación anterior.

 

La ecuación de una recta

 

Dicho esto, ahora vamos a explicar qué es la ecuación algebraica de una recta del plano coordenado. Dada una recta del plano, se pueda asociar a la misma una ecuación de la forma ax + by + c = 0, donde a, b y c son números reales (como las rectas que aparecen en la siguiente imagen: xy – 1 = 0, 3x + 2y – 6 = 0). ¿Cómo funciona la ecuación de la recta? Si tenemos un punto P de coordenadas (x, y), este estará en la recta si los números x e y satisfacen la ecuación, y no estará en ella si no la cumplen. Por ejemplo, los puntos (4, 3), (3, 2) y (0, –1) están en la recta xy – 1 = 0, ya que (4) – (3) – 1 = 0, (3) – (2) – 1 = 0 y (0) – (–1) – 1 = 0, mientras que el punto (0, 3), no está en ella, por ser (0) – (3) – 1 = – 4, que no es 0; y de la misma manera, los puntos (0, 3) y (2, 0) está en la recta 3x + 2y – 6 = 0, pero no el punto (3, 2).

 

 

Pero la ecuación de una recta nos da más información. Consideremos de nuevo la recta 3x + 2y – 6 = 0 y veamos que pasa con los puntos que no están sobre ella, como (4, 3), (3, 2), (0, 0) o (–2, –1):

 

3(4) + 2(3) – 6 = 12, 3(3) + 2(2) – 6 = 7,

3(0) + 2(0) – 6 = –6, 3(–2) + 2(–1) – 6 = –14,

 

de manera que, en los dos primeros el valor de la ecuación 3x + 2y – 6 es positivo, mientras que en los dos siguientes es negativo.

 

 

Lo que ocurre es que la ecuación de la recta, en este caso 3x + 2y – 6 = 0, divide al plano en tres regiones distintas, la recta y las dos regiones a cada lado de la misma. Los puntos (x, y) de la recta satisfacen que 3x + 2y – 6 = 0, mientras que los puntos a un lado de la recta satisfacen la desigualdad 3x + 2y – 6 > 0, mientras que los puntos al otro lado de la recta satisfacen que 3x + 2y – 6 < 0. Y esto ocurre en general para cada recta.

 

Un dispositivo para controlar los marcos

 

Empecemos recordando que la condición establecida para que los marcos pasen el filtro (o sean considerados pequeños en la fábrica) es que

 

 

siendo x = ancho del marco, y = largo del marco. Pero si miramos la anterior desigualdad desde la óptica de lo visto hasta ahora podemos afirmar lo siguiente.

 

Consideremos un marco de fotografía concreto, cuyas medidas sean a centímetros de ancho y b centímetros de largo. Este marco se corresponderá, según lo visto, con el punto (a, b) del plano coordenado. Por otra parte, tenemos la ecuación de la recta x + y = 35 (véase la siguiente imagen), dada por las condiciones aplicadas a los marcos fotográficos. Si las coordenadas de nuestro punto (a, b) satisfacen la ecuación la ecuación x + y = 35, entonces el punto está sobre la recta (las medidas del marco a y b satisfacen que a + b = 35, esto es, ancho más largo es igual a 35 centímetros), si verifican que x + y > 35, entonces el punto estará por encima de la recta (las medidas del marco no satisfacen la condición fijada), mientras que si satisfacen que x + y < 35, el punto estará por debajo de la recta (las medidas del marco sí cumplen la condición fijada).

 

 

De manera, que podemos observar gráficamente que el marco de medidas (15, 15), es decir, ancho y largo igual a 15 cm, satisface las condiciones establecidas, por estar situado debajo de la recta, así como el marco de medidas (15, 20), que está en la recta, pero no el marco de medidas (20, 30), situado encima de la recta.

 

En consecuencia, ya tenemos las ideas necesarias para diseñar un dispositivo para controlar que el tamaño de los marcos cumpla esa condición establecida. Este estaría formado por una estructura fija formada por dos lados rectangulares de más de 35 centímetros de largo (una especie de escuadra de dos brazos), junto con una tapa o puerta móvil, unida a la parte vertical de la estructura fija por una bisagra colocada a 35 cm de la base y apoyada en la parte horizontal, a 35 cm de la tabla vertical (utilizando el teorema de Pitágoras sabemos que la tapa tendría una longitud de 35 cm multiplicado por la raíz cuadrada de 2, es decir, unos 49 centímetros).

 

 

Le he pedido a Gemini que me haga una versión realista del dispositivo. No es que se ajuste del todo a lo que le he pedido, pero quizás con esta imagen os hagáis una mejor idea del mismo, aunque mi idea era un dispositivo apoyado en una superficie plana horizontal, para trabajar mejor con el mismo.

 

 

¿Cómo funcionaría el dispositivo? Dado un marco cualquiera, abriríamos la tapa del dispositivo y lo meteríamos dentro apoyándolo en la esquina. Si la tapa cerrase, esto significaría que el marco cumpliría la regla de que la suma de las medidas del marco sea menor, o igual, que 35 centímetros, como en la siguiente imagen.

 

 

Mientras que, si la tapa no cerrase, porque lo impide el marco, querría decir que las medidas del marco excederían las que se han fijado en la norma, como se ilustra en la siguiente imagen.

 

 

Regreso al dispositivo para controlar las maletas

 

Una vez entendido el dispositivo bidimensional para controlar las medidas de los marcos de fotografías, o estructuras rectangulares en general, podemos comentar brevemente cual sería el dispositivo para las maletas de mano, o paralelepípedos (cajas rectangulares) en general. La idea es la misma, pero con tres dimensiones, en lugar de dos.

 

De forma análoga a como ocurría en dimensión dos, ahora las medidas de una maleta / caja rectangular (x, y, z), siendo x el ancho, y el largo y z el alto, determinarán el punto P = (x, y, z) del espacio tridimensional coordenado, que es el vértice opuesto al apoyado en el origen (0,0,0). Y recíprocamente, dado un punto cualquiera del plano P = (x, y, z), este determinará las medidas concretas de una maleta / caja rectangular.

 

 

Ahora debemos observar, de manera análoga a lo ocurrido en dimensión dos, que la ecuación x + y + z = 115, derivada de las condiciones generales sobre las maletas, es la ecuación de un plano del espacio tridimensional, que se ilustra en la siguiente imagen. Luego, un punto P = (x, y, z) está en el plano si se cumple la ecuación, estará debajo del plano si x + y + z < 115 y estará por encima del plano si x + y + z > 115.

 

 

En consecuencia, el dispositivo ahora está muy relacionado con la imagen anterior. Estará formado por tres trozos de planos que se cortan perpendicularmente (en la siguiente imagen las zonas en gris), junto con una tapa triangular cuyos vértices están a 115 cm del vértice origen (de intersección de los tres planos), cuya bisagra estará en el vértice superior para poder abrir esa tapa triangular. El funcionamiento, por lo visto, será igual al de los marcos, si metemos la maleta y se cierra la tapa, estará en las condiciones determinadas (x + y + z  menor, o igual, que 115 cm), pero si no cierra la tapa la maleta no puede subirse al avión como equipaje de mano.

 

 

Esta era la idea básica con la que se podía haber construido un dispositivo para el control de las maletas de cabina. Por supuesto, con mejoras reales, como mejorar el punto de bisagra. Pero la idea que quería transmitiros es que las matemáticas nos pueden ayudar a aportar soluciones concretas a cuestiones concretas.

 

 

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo A vueltas con el equipaje de mano (II) se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Baterías de estado sólido para un futuro eléctrico

Tue, 2025/12/09 - 11:59

 

La electrificación del transporte ya no es solo una idea de futuro; se ha convertido en una transformación en marcha que está redefiniendo la movilidad y acelerando la transición hacia sistemas más sostenibles y menos dependiente de los combustibles fósiles. Para que este cambio sea realmente efectivo, es fundamental disponer de sistemas de almacenamiento energético capaces de ofrecer mayor autonomía, mejores niveles de seguridad y una vida útil más prolongada, sin que ello suponga un aumento excesivo de los costes ni un retroceso en sostenibilidad. Hasta ahora, las baterías de litio-ion han sido las grandes protagonistas. Su combinación de alta densidad energética, buena estabilidad y durabilidad las ha situado en el centro del desarrollo del vehículo eléctrico. Sin embargo, la expansión acelerada de la movilidad eléctrica y la integración masiva de energías renovables están empezando a revelar sus límites. La necesidad de reducir aún más los tiempos de carga, ampliar la autonomía y reforzar la seguridad está impulsando la búsqueda de alternativas capaces de llevar el rendimiento de las baterías un paso más allá.

Baterías de estado sólido

En este contexto, las baterías de estado sólido se han consolidado como una de las líneas de desarrollo más prometedoras. La ventaja más destacada es que dejan atrás los electrolitos líquidos, compuestos por disolventes orgánicos inflamables, y los reemplazan por electrolitos sólidos, que resultan mucho más seguros y toleran mejor el estrés térmico. Este cambio supone un avance notable en seguridad. Además, abre la posibilidad de utilizar materiales más avanzados, como el litio metálico en el ánodo, que ofrece una capacidad energética muy superior a la de los materiales convencionales en base de carbón. Sin embargo, la transición hacia sistemas completamente sólidos aún está lejos de ser inmediata. Fabricar electrolitos sólidos cerámicos extremadamente finos, garantizar interfaces químicamente estables y dominar procesos de producción complejos sigue siendo un desafío tecnológico. Por esta razón, la industria está apostando por soluciones intermedias que combinan componentes líquidos y sólidos, permitiendo avanzar hacia el estado sólido sin necesidad de rediseñar por completo las líneas de producción de celdas de litio-ion actuales.

Este enfoque combinado se basa en electrolitos que inicialmente se encuentran en estado líquido y son capaces de infiltrarse completamente en los poros de los electrodos, para luego solidificarse dentro de la celda. Esta estrategia representa un paso pragmático y estratégico en la transición hacia baterías de estado sólido, ya que permite formar interfaces continuas y estables, algo que resulta mucho más difícil de conseguir con electrolitos sólidos preformados (membranas sólidas). La solidificación in situ no solo mejora la conducción iónica, sino que también minimiza espacios vacíos o irregularidades que podrían afectar la eficiencia y la seguridad de la batería. Además, esta estrategia es compatible con los procesos industriales ya existentes en la producción de baterías de litio-ion, lo que facilita su integración y reduce los costes y complicaciones asociados. Gracias a esta combinación de realismo industrial y avance tecnológico, las arquitecturas semi-estado-sólido, semi-SSB en inglés, están emergiendo como una alternativa sólida para mejorar el rendimiento de las baterías en aplicaciones de movilidad eléctrica y almacenamiento estacionario.

La familia de celdas Gen4a Baterías de estado sólidoEstructura de la familia de celdas tipo semi-SSB Gen4a. Fuente: CIDETEC

En este contexto, en CIDETEC Energy Storage trabajamos en el desarrollo de dos familias de celdas de tipo semi-SSB que aportan ventajas complementarias. La primera (Gen4a) aprovecha la tecnología de litio-ion, utilizando una arquitectura electroquímica ya conocida, con grafito en el ánodo y materiales activos tipo LiNixMnyCozO2 (x+y+z=1) en el cátodo, pero incorporando un electrolito híbrido (sal de litio + carga inorgánica + polímero + disolvente) que se convierte en sólido mediante un proceso de polimerización in situ después del ensamblaje. Este proceso uniformiza la interfaz interna y reduce la resistencia de contacto, además de ser compatible con electrodos de alta densidad de carga sin requerir presiones elevadas durante el ensamblaje. En conjunto, esta aproximación ofrece estabilidad, seguridad y facilidad de fabricación, lo que la hace especialmente adecuada para su implementación industrial a corto plazo. Los prototipos de celda desarrollados en formato pouch de 5 Ah han mostrado un rendimiento estable durante cientos de ciclos: se han alcanzado hasta 300 ciclos con un 80 % de capacidad retenida bajo un protocolo de testeo de 0,33C/0,33C a 25 °C. Las densidades energéticas de estas celdas, alrededor de 240 Wh/kg y 700 Wh/L, se sitúan en niveles comparables a los de las baterías comerciales más avanzadas. Además, la tecnología ha sido ya escalada a prototipos de 25 Ah manteniendo sus buenas prestaciones, consolidando su papel como una tecnología puente hacia sistemas de estado sólido más sofisticados.

La familia de celdas Gen4b Baterías de estado sólidoEstructura de la familia de celdas tipo semi-SSB Gen4b. Fuente: CIDETEC

La segunda línea (Gen4b) de desarrollo explora la integración de litio metálico como ánodo, un material cuya capacidad específica es muy superior a la del grafito y que permitiría incrementar de forma notable la densidad energética de las celdas. El uso de litio metálico con electrolitos líquidos presenta desafíos importantes, como la formación de dendritas y la inestabilidad de la interfaz, pero las arquitecturas semisólidas ofrecen un entorno más rígido y seguro para la deposición del litio. La polimerización in situ del electrolito mejora el contacto con el cátodo y contribuye a una mayor durabilidad del sistema. Los prototipos desarrollados en esta línea, basados en un electrolito gel-polimérico, han mostrado un comportamiento electroquímico prometedor a temperatura ambiente. En pruebas realizadas sobre celdas tipo pouch de 4,6 Ah, se han alcanzado densidades energéticas gravimétricas y volumétricas del orden de 350 Wh/kg y 1000 Wh/L, respectivamente, valores notablemente superiores a los de las baterías de litio-ion convencionales y muy atractivos para aplicaciones que demandan gran autonomía, como los vehículos eléctricos de largo recorrido.

Un salto cualitativo robusto

La evolución hacia baterías de estado sólido no solo es un reto técnico, sino también un proceso en el que la química y la ingeniería deben avanzar de manera coordinada para ofrecer soluciones eficientes, asequibles, sostenibles y seguras. En este sentido, las arquitecturas semi-SSB representan un paso decisivo para acelerar esta transición. Por un lado, la variante basada en litio-ion ofrece una opción robusta, compatible con la industria actual y capaz de mejorar el rendimiento sin elevar los costes. Por otro, la versión basada en litio metálico abre la puerta a un salto cualitativo en densidad energética. Juntas, ambas tecnologías constituyen un camino realista hacia las baterías de estado sólido del futuro, un camino que permitirá desarrollar sistemas de almacenamiento más seguros y duraderos, reforzando al mismo tiempo la competitividad tecnológica de la industria y contribuyendo al avance global hacia una movilidad verdaderamente sostenible.

Sobre los autores: Dra. Mónica Cobos, investigadora del equipo de baterías de estado sólido, y Dr. Andriy Kvasha, líder del equipo de estado sólido en CIDETEC Energy Storage.

Sobre CIDETEC Energy Storage: Es una organización de investigación y desarrollo especializada en tecnologías avanzadas de baterías, que diseña, desarrolla y testea las baterías del futuro desde hace 30 años.
 Su experiencia abarca toda la cadena de valor. CIDETEC es miembro de Basque Research and Technology Alliance (BRTA).

Basque Research & Technology Alliance (BRTA) es una alianza que se anticipa a los retos socioeconómicos futuros globales y de Euskadi y que responde a los mismos mediante la investigación y el desarrollo tecnológico, proyectándose internacionalmente. Los centros de BRTA colaboran en la generación de conocimiento y su transferencia a la sociedad e industria vascas para que sean más innovadoras y competitivas. BRTA es una alianza de 17 centros tecnológicos y centros de investigación cooperativa y cuenta con el apoyo del Gobierno Vasco, SPRI y las Diputaciones Forales de Araba, Bizkaia y Gipuzkoa.

El artículo Baterías de estado sólido para un futuro eléctrico se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Retrato de mundos efervescentes

Mon, 2025/12/08 - 11:59

Cuando observamos la enorme diversidad de satélites que están en órbita alrededor de los planetas del Sistema Solar exterior, a los geólogos nos encanta buscarles sus fracturas, como si estuviésemos interesados en darles costura.  Durante mucho tiempo hemos interpretado esas señales, junto con otras muestras de deformación en sus cortezas, como la prueba inequívoca de que existe -o existió- un océano subterráneo. Parecía que esta lógica siempre estaba de nuestro lado: cuando un océano interior se congela o el hielo de la corteza comienza a fundirse, provoca unos esfuerzos y una deformación en la corteza que acaba rompiéndola por algunos puntos como si fuese el frágil cascarón de un huevo. Lo que no se consideraba hasta ahora era que los océanos de los mundos océano podrían entrar en ebullición.

Pero un nuevo estudio publicado en Nature Astronomy por Rudolph et al. (2025), propone un mecanismo por el cual los océanos subterráneos de las pequeñas lunas heladas podrían «hervir» debido a la despresurización, creando un interior rico en volátiles que pueda esconder -o disfrazar- la actividad tectónica e incluso de provocar fenómenos criovolcánicos explosivos.

Para comprender mejor esto que acabo de decir, primero tenemos que fijarnos en el “extraño” comportamiento -disculpen mi excesivo uso de las comillas hoy- del agua. A diferencia de la mayoría de las sustancias, el agua se expande cuando se congela, permitiendo que el hielo flote, y se contrae cuando se funde.

Esto tiene una consecuencia muy importante para estos satélites cuya corteza está formada por hielo. Cuando esta comienza a engrosarse porque hay menos calor disponible, el agua se convierte en un hielo que ocupa un mayor volumen, presurizando al océano que hay por debajo y al mismo tiempo generando una serie de esfuerzos que acaban agrietándola, como por ejemplo vemos en Europa. Y, por cierto, de una manera similar, las cortezas de los cuerpos rocosos también sufren de la formación de sistemas de fracturas durante su etapa de enfriamiento.

Pero, ¿qué ocurre cuando es al revés? Cuando la corteza de hielo adelgaza, tal vez debido a un aumento de las temperaturas del agua del océano subterráneo, la transformación del hielo al agua reduce el volumen y la corteza de hielo es, de repente, demasiado grande para el interior que cubre. Durante este proceso, la corteza comienza a ajustarse y comprimirse “hacia adentro”, como intentando ajustarse al océano, provocando una inmensa tensión compresiva en el hielo mientras que al mismo tiempo se reduce la presión en el océano de agua líquida que hay debajo.

ebulliciónImagen de Mimas, el satélite de Saturno. Además de su enorme parecido con la “estrella de la muerte” de Star Wars, se aprecia una superficie completamente cubierta de cráteres, un síntoma que suele estar asociado a cuerpos geológicamente inactivos o con poca actividad, incapaces de rejuvenecer su superficie. Imagen cortesía de NASA/JPL/Space Science Institute.

Esto ha llevado a los investigadores a observar una sorprendente divergencia en la forma en la que los distintos satélites podrían soportar las tensiones que provoca el aumento o la disminución de la capa de hielo y descubrieron que el resultado que vemos en la superficie depende en gran medida del tamaño del satélite.

En el caso de los cuerpos helados más pequeños como Mimas, Encélado o Miranda, la física del océano da un giro radical antes de que la superficie tenga la oportunidad de resquebrajarse. Debido a que estas lunas tienen una gravedad bastante baja, la presión en la superficie de los océanos es también relativamente baja. A medida que la capa de hielo pierde espesor al calentarse el océano y la presión dentro de las aguas del océano también disminuye, el agua alcanza un umbral crítico conocido como punto triple, un estado en el cual coexisten las fases de hielo, agua líquida y el vapor.

En estas condiciones, el océano comienza, literalmente, a hervir. No se trata de la misma ebullición del agua cuando ponemos una olla de agua a calentar para hacer un caldo en un frío día de invierno y que en este caso estaría provocado por el calor, sino más bien un fenómeno de ebullición por descompresión, similar a lo que le ocurre el agua cuando la introducimos en una cámara de vacío.

El océano existente en estos satélites herviría para compensar el vacío creado por el deshielo, amortiguando las tensiones que se generan y evitando que la corteza se rompa, algo así como un air-bag geológico. Esto implica que una luna como Mimas podría albergar en su interior un océano en crecimiento sin la necesidad de que en su superficie aparezcan zonas de deformación ni fracturación.

Y al mismo tiempo resolvería la paradoja de por qué este pequeño satélite -cuyo parecido con la estrella de la muerte es abrumador- según los últimos datos de libraciones podría tener un océano de reciente formación en su interior, a pesar de que su superficie es muy antigua y está llena de cráteres y no hay señales de la reactivación de procesos internos.

Las implicaciones para un mundo como Encélado también son profundas: Sabemos que es un mundo tremendamente activo, atestiguado por sus geiseres, su joven superficie y por los sistemas de fracturas. Y es que este estudio sugiere que el mecanismo de ebullición podría ser el principal motor de estos chorros de agua que se en ocasiones llegan a los cientos y miles de kilómetros de distancia. Un fenómeno realmente espectacular.

A medida que la presión del océano permite la aparición un entorno parecido al vacío, los gases disueltos como el dióxido de carbono, el metano o el nitrógeno se separarían, burbujeando fuera del agua del océano de una forma muy similar a cuando abrimos una botella de gaseosa. Estos gases que se están separando crearían una capa flotante y rica en volátiles en la interfaz entre la corteza de hielo y el océano.

ebulliciónImagen de Encélado donde se aprecia perfectamente la gran actividad de los geiseres que funcionan en las proximidades de su polo sur. Imagen cortesía de NASA/JPL/Space Science Institute.

Esta mezcla gaseosa, de manera natural, tiende a ascender. Los investigadores proponen que estos gases podrían subir a través del hielo a través las fracturas o como fenómenos diapíricos, donde un hielo más plástico y lleno de burbujas de gas ascendería como la cera en una lámpara de lava. Este mecanismo evita un problema que desde hace mucho tiempo existe en física planetaria: como conseguir que las fracturas se propaguen desde la base de la corteza de hielo hacia la superficie, cuando el hielo en las partes inferiores suele estar a mayor temperatura y comportarse de manera dúctil y no frágil.

La flotabilidad que proporcionan estos gases que escapan del agua suministraría la fuerza necesaria para propagar las fracturas desde el interior hacia la superficie, y también podría ser un mecanismo válido para explicar los geiseres que vemos hoy día. Por lo tanto, estos podrían ser el resultado directo de la “ebullición” del océano a medida que la capa de hielo va adelgazando.

Sin embargo, la historia cambia drásticamente cuando hablamos de cuerpos más grandes: El estudio marca un límite claro entre cuerpos con un radio de unos 300 kilómetros o menos y los más grandes. En los mundos de mayor tamaño, como pueden ser Titania, Oberon o Japeto, la gravedad ejerce una fuerza mayor, y la presión litostática que ejerce el hielo que recubre el océano es mucho mayor también. Como consecuencia de esto, a medida que las capas de hielo adelgazan, la presión del océano nunca desciende lo suficiente como para alcanzar el punto de ebullición, pero la tensión compresiva que se acumula en la capa de hielo se vuelve insoportable.

Entonces, en estos mundos más grandes, el hielo falla mecánicamente mucho antes de que el agua pueda hervir y emitir todos esos gases disueltos que actúen como un cojín que amortigüe a la corteza, que sufrirá procesos tectónicos compresivos, en los cuales esta se deforma y se fractura. Los investigadores señalan que algunos sistemas montañosos en Titania y la gran cordillera ecuatorial de Japeto serían precisamente cicatrices de estos procesos. Aunque hay muchas teorías sobre la formación de esta última, como podría ser la caída del material de un anillo que ya no existe sobre la superficie, el fallo compresional de una corteza cada vez más delgada aparece como una explicación físicamente viable, como si Japeto hubiese sido un acordeón cósmico.

Esto nos deja abierta una nueva línea para la investigación: los cuerpos más pequeños pueden ser buenos ocultando sus océanos, mientras que las lunas más grandes si suelen mostrar señales en su corteza, como grandes sistemas de fracturas y cordilleras montañosas.

ebulliciónImagen de Japeto donde se aprecia perfectamente su cordillera ecuatorial y que, según este estudio, podría ser la señal de un océano subterráneo. Imagen cortesía de NASA/JPL/Space Science Institute.

Para llevar a cabo este estudio, los científicos usaron modelos numéricos para simular la evolución térmica y mecánica de estos cuerpos. Asumieron el adelgazamiento de la corteza de hielo en aproximadamente un 10%, un valor razonable teniendo en cuenta los últimos datos que conocemos de calentamiento por mareas o por cambios en las resonancias orbitales, capaces a su vez de traducirse en una mayor energía disponible y, por lo tanto, de mayor temperatura en el océano y la corteza de hielo.

Tampoco podemos olvidar el destino del vapor generado en estos océanos. Cuando el agua entra en ebullición, se genera una capa de vapor de agua y de otros gases. Ya que el interior está bajo alta presión -en comparación con la superficie- el comportamiento de esta capa de gas puede ser bastante complejo. Aunque el vapor de agua podría recondensarse al ascender hasta la capa de hielo más fría, el resto de los gases -como el nitrógeno, el metano o el dióxido de carbono- seguirían en estado gaseoso bajo estas condiciones.

Estos gases podrían acumularse en capas de hielo poroso o incluso formar clatratos -unas estructuras que actúan como una jaula capaz de atrapar moléculas de gas- que luego podrían ascender rápidamente. Este detalle también sugiere que el diapirismo, como mencionamos anteriormente, también podría ser un mecanismo importante de transporte de calor y materiales entre el interior y el exterior de estos cuerpos.

ebulliciónMosaico de imágenes de Miranda, el satélite de Urano, a partir de imágenes tomadas por la Voyager 2 en enero de 1986. Se aprecia perfectamente la enorme diferencia que hay entre las zonas más antiguas y cubiertas de cráteres y las más recientes, que parecen parches cosidos sobre su superficie, dejando unas costuras muy marcadas. Imagen cortesía de NASA/JPL/USGS.

La existencia de estos procesos nos ofrece una nueva perspectiva para estudiar un cuerpo como Miranda, una luna de Urano. Miranda es algo parecido a un Frankenstein geológico, un mosaico de distintos terrenos que parecen cosidos entre si como los parches de un pantalón. Los investigadores sugieren en este estudio que los fenómenos de rejuvenecimiento de la superficie de Miranda implican la existencia de un océano -en el pasado- que podría haber estado alimentado por una convección que se vería facilitada o potenciada por la ebullición del océano. Si la capa de hielo de Miranda sufrió un rápido adelgazamiento debido a una resonancia orbital temporal o pasajera, la ebullición resultante podría haber impulsado la caótica transformación de su superficie.

Esta investigación podría cambiar radicalmente que tipo de señales buscamos cuando investigamos la existencia de océanos más allá de la Tierra. Anteriormente, la ausencia de sistemas de fracturas en Mimas llevó a muchos a suponer que se trataba de un bloque sólido de hielo, como un cubito. Ahora sabemos que pueden existir océanos ocultos en los que la física de la ebullición es capaz de enmascarar o de incluso inhibir la actividad tectónica, al menos a simple vista.

Esto nos lleva a considerar que la ausencia de pruebas no es necesariamente una prueba de ausencia de un océano. Por el contrario, en mundos más grandes como Titania, la presencia de cordilleras fruto de la compresión podría ser la revelación de un océano moribundo o en proceso de adelgazamiento, más que de un mundo geológicamente muerto, como a veces se han interpretado.

De cara a futuras misiones, este nuevo marco podría servirnos para planificar mejor los destinos y que instrumentos hemos de incorporar para estudiar estos océanos, o al menos que deberíamos hacer para poder detectarlos, pero también debe recordarnos que a veces algunos detalles sutiles son capaces de hacernos cambiar la interpretación geológica de algunos mundos que, a pesar de darlos por muertos, podrían estar muy vivos.

Referencias:

Rudolph, M. L., Manga, M., Rhoden, A. R., & Walker, M. (2025) Boiling oceans and compressional tectonics on emerging ocean worlds Nature Astronomy doi: 10.1038/s41550-025-02713-5

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Retrato de mundos efervescentes se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La brecha entre la obediencia imaginada a la autoridad y la real

Sun, 2025/12/07 - 11:59

Estás en una sala. Frente a ti, un hombre de bata blanca te dice que pulses el botón que provocará una descarga eléctrica. Al otro lado de la pared, alguien grita de dolor. Tus manos tiemblan. La autoridad insiste. ¿Qué harás?

No es una película. Es un escenario muy parecido al que vivieron cientos de personas en el famoso experimento de Stanley Milgram (1963). Lo perturbador es que la mayoría obedeció.

Décadas después, cuando los psicólogos preguntamos a la gente qué haría en ese mismo contexto, casi todos aseguran que se plantarían mucho antes de hacer daño a otro ser humano. Sin embargo, los datos cuentan otra historia.

La ilusión de resistir

La mayoría nos vemos como más éticos y valientes que la media: un sesgo de superioridad ilusoria. También tendemos a minimizar el poder de las circunstancias y a sobrevalorar los rasgos personales: llamado error fundamental de atribución (Ross, 1977). El resultado es una confianza ingenua: “Yo no sería de los que aprietan el botón”.

Es tal la autoridad que asociamos a una bata blanca y un estetoscpio al cuello, que el uso de actores caracterizados así es una herramienta muy eficaz en la venta de suplementos, medicamentos, servicios sanitarios o seguros de salud. Solo siendo conscientes del sesgo de autoridad podemos minimizar la obedencia indebida y tomar decisiones más objetivas. Foto: Usman YousafUnsplash  Dos condiciones, dos realidades

El experimento de Milgram se ha replicado muchas veces, la brecha entre lo que la gente imagina y lo que hace es consistente:

En la investigación de Mazzocco et al. (2025), cuando se preguntó a las personas cuánto obedecerían en una situación tipo Milgram, predijeron tasas mucho más bajas (20,9 % para sí mismos y 36,8 % para “otra persona”) que lo que realmente se observa en experimentos controlados. En el estudio de Burger (2009), que replicó parcialmente el paradigma de Milgram, el 70 % de los participantes obedeció hasta el máximo permitido.

 

La consecuencia es brutal: en nuestra cabeza somos héroes; ante la bata blanca, obedecemos tanto como en 1963.

¿Por qué nos equivocamos tanto?
  • Distancia emocional. Imaginar un dilema moral no genera la misma activación fisiológica que vivirlo; sin adrenalina, es fácil ser valiente.
  • Presión situacional silenciosa. En la situación real, señales como la bata, la seriedad del investigador… legitiman la orden y reducen el conflicto interno.
  • Brújula ética atenuada. Un estudio con EEG encontró que, al obedecer, disminuye la actividad theta frontal-medial previa a infligir daño: la sumisión silencia alertas internas antes de que se enciendan.
Herramientas para reducir la brecha entre intención y acción

Un sabio dijo: “no nos elevamos a la altura de las expectativas, caemos a la altura de nuestro entrenamiento”.

  • Entrenamiento en asertividad. Situaciones reales donde practicamos decir “no” bajo autoridad percibida.
  • Micro‑actos de desobediencia. Rechazar pequeñas órdenes injustas en la vida diaria refuerza el músculo moral.
  • Entornos que refuercen la voz crítica. Equipos o amistades que celebren la integridad, no el conformismo.
  • Educación sobre sesgos. Conocer nombres y mecanismos facilita detectarlos en tiempo real.
Resistir cuando de verdad importe

No te sentarán ante un generador de shocks, pero cada día te enfrentas a la misma brecha entre intención y acción: decir “no” a un compromiso mal planteado, cuestionar una orden dudosa, no dejarte arrastrar por un “aceptar todo”.

La bata blanca cambia de forma: a veces un “es urgente”, otras un proceso diseñado para que no pienses. Y casi siempre obedecemos más de lo que creemos.

Esta brecha explica nuestra frustración vital: expectativas altas, ejecución tibia. La narrativa que construimos sobre nosotros mismos no sobrevive al contacto con los hechos.

La pregunta no es si resistirás, sino qué entrenamiento y qué alianzas estás creando hoy para resistir cuando de verdad importe.

Referencias

Burger J. M. (2009). Replicating Milgram: Would people still obey today? The American psychologist, 64(1), 1–11. doi: 10.1037/a0010932

Caspar, E. A., & Pech, G. P. (2024). Obedience to authority reduces cognitive conflict before an action. Social neuroscience, 19(2), 94–105. doi: 10.1080/17470919.2024.2376049

Ebert, J., Winzer, P., & Müller, C. (2025). Reducing the Hypothetical Bias in Measuring Willingness to Pay for Mobile Communication Products. Journal of Theoretical and Applied Electronic Commerce Research, 20(2), 122. doi: 10.3390/jtaer20020122

Mazzocco, P. J., Reitler, K., Little, L., Korte, J., Ridgill, M., & Stalnaker, X. (2025). Milgram shock‑study imaginal replication: How far do you think you would go? Current Psychology. doi: 10.1007/s12144-025-07962-1

Ross, L. (1977). The intuitive psychologist and his shortcomings: Distortions in the attribution process. In L. Berkowitz (Ed.), Advances in experimental social psychology (Vol. 10, pp. 173–220). Academic Press.

Sobre el autor: David Carcedo es divulgador, psicólogo sanitario en Donostia y coordinador de sección de laboratorio en el BCBL.

El artículo La brecha entre la obediencia imaginada a la autoridad y la real se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La viscosidad altera la música de las estrellas

Tue, 2025/11/11 - 11:59
Ilustración artística de la fusión de dos estrellas de neutrones, proceso que genera ondas gravitacionalesFuente: University of Warwick/Mark Garlick, CC BY 4.0, Wikimedia Commons

Las ondas gravitacionales son vibraciones del propio espacio-tiempo, ondas que se propagan tras sucesos muy violentos como la fusión de agujeros negros o de estrellas de neutrones. Estas ondas, tan débiles que apenas deforman los detectores más sensibles de la Tierra, también atraviesan planetas, gases y estrellas. Pero ¿qué ocurre cuando una de esas ondas pasa a través de objetos que no son rígidos, sino fluidos y, por tanto, viscosos?

Recordemos que la viscosidad mide la resistencia de un fluido a fluir y es una expresión de la existencia de fuerzas de rozamiento internas y, por lo tanto, de cómo disipa energía. Así, un líquido muy viscoso, como la miel, amortigua las vibraciones más rápido que el agua. Las estrellas y otros objetos compactos como los planetas, aunque puedan parecer sólidos, son en realidad fluidos extremadamente densos. Algunas partes de su interior —como el núcleo de una estrella de neutrones— pueden comportarse como un líquido con cierta viscosidad.

La viscosidad altera…

En un nuevo estudio los autores han modelado la interacción de las ondas gravitacionales y la materia siguiendo las leyes de la relatividad general, pero incluyendo los efectos de la viscosidad. De esta manera han podido calcular cómo se propagan las perturbaciones a través de las estrellas y cómo se ve afectada la onda gravitacional al atravesarlas.

El resultado principal es que, como era de esperar, la viscosidad absorbe parte de la energía de la onda. Si la materia fuera un fluido ideal, sin viscosidad, la onda las atravesaría casi sin alteración; pero si hay fricción interna, la onda deja parte de su energía en la estrella. Simplificando, es como si la onda gravitacional hiciera vibrar el interior de la estrella y esa vibración se fuera convirtiendo en calor.

Cuando la viscosidad es pequeña, la absorción es débil. Si se incrementa, la onda empieza a perder más energía dentro de la estrella. S la materia es muy viscosa la onda puede incluso reflejarse parcialmente, igual que una ola rebota contra un muro. Los autores demuestran que, para ciertos valores, la reflectividad puede parecerse a la de un agujero negro.

Sin embargo, alcanzar esos niveles de viscosidad extrema no es fácil: si se exagera, el modelo empieza a violar principios básicos de la relatividad, como la causalidad. En otras palabras, la materia no puede ser infinitamente viscosa sin dejar de tener sentido físico. Por eso, aunque el hallazgo es fascinante, no implica que existan objetos capaces de reflejar ondas gravitacionales de manera perfecta; más bien marca los límites teóricos de lo que la física permite.

…la música de las estrellas

El estudio también muestra que la viscosidad cambia las notas naturales de vibración de las estrellas. Igual que una campana produce tonos característicos cuando se la golpea, una estrella vibra en modos característicos cuando una onda gravitacional la alcanza. La presencia de viscosidad altera ligeramente esas frecuencias y los tiempos en los que las oscilaciones se amortiguan. La viscosidad introduce un nuevo tipo de vibraciones internas, propias del material viscoso, que podrían dejar señales específicas en la radiación gravitacional emitida por el sistema. Detectar esas huellas sería una manera de estudiar las propiedades internas de las estrellas más densas sin necesidad de observarlas directamente.

Desde el punto de vista astrofísico, los cálculos muestran que el efecto de absorción o calentamiento que una onda gravitacional produce en una estrella es minúsculo en la mayoría de los casos. Incluso en las colisiones más energéticas del universo, la cantidad de energía que una onda transfiere a una estrella es despreciable. Aun así, en entornos muy extremos —por ejemplo, cerca del centro de una galaxia activa o dentro de cúmulos donde las ondas gravitacionales son intensas—, estos efectos podrían tener un papel interesante y observable.

Imitadores de agujeros negros

El artículo toca dos grandes temas actuales. El primero es la idea de que ciertos objetos extremadamente compactos, pero sin horizonte de sucesos, podrían imitar el comportamiento de los agujeros negros. Si son lo bastante viscosos, podrían reflejar parte de las ondas gravitacionales y producir ecos en las señales que registran detectores como LIGO o Virgo. El segundo es la posibilidad de que la viscosidad y la rotación generen superradiancia, un fenómeno en el que una onda sale del objeto amplificada, robándole energía a su rotación. Este mecanismo podría producir inestabilidades o patrones característicos en las observaciones futuras.

 

Este trabajo demuestra que la viscosidad no es un detalle menor: influye en cómo las estrellas absorben, reflejan o incluso amplifican las ondas que las atraviesan. También recuerda que, para interpretar correctamente las señales detectadas en la Tierra, debemos tener en cuenta la microfísica de las estrellas y los efectos disipativos que pueden modificar esas vibraciones del espacio-tiempo.

 

Es un paso más hacia una astronomía gravitacional más completa, en la que no sólo observamos cómo las ondas viajan por el universo, sino también cómo los distintos tipos de materia responden a ellas, revelando su estructura interna y, quizás, las propiedades más sutiles de la gravedad misma.

 

Referencias:

Valentin Boyanov, Vitor Cardoso, Kostas D. Kokkotas, and Jaime Redondo-Yuste (2025) Dynamical Response of Viscous Objects to Gravitational Waves Phys. Rev. Lett. doi: 10.1103/smlr-v7b2

Sumanta Chakraborty (2025) Viscous Stars Can Reflect Gravitational Waves like Black Holes Do Physics 18, 169

César Tomé López (2019) Ondas (serie) Cuaderno de Cultura Científica

 

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La viscosidad altera la música de las estrellas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El violento nacimiento de Venus

Mon, 2025/11/10 - 11:59

 

Cuando hablamos en términos coloquiales muchas veces nos referimos al planeta Venus como una especie de gemelo de nuestro planeta, pero la realidad nos dice que de gemelos más bien tienen poco. Quizás sí podríamos llamarlos hermanos, ya que ambos son planetas rocosos y tienen un tamaño, composición y densidad similar.

A pesar de este aparente parecido son dos mundos antagónicos. La Tierra es un planeta templado, con océanos de agua líquida y casquetes polares, mientras que Venus sería lo más parecido al infierno: Un mundo con temperaturas que se acercan a los 500 ºC rodeado por una densa e irrespirable atmósfera de dióxido de carbono, nitrógeno y dióxido de azufre.

Pero hay muchas más diferencias, alguna de ellas muy llamativas. El día de Venus dura nada más y nada menos que 243 días terrestres y, por si fuese poco, gira sobre sí mismo al revés. Bueno, en sentido contrario al de la Tierra y al de la mayoría de los planetas. Y hay un detalle más que fascina a los científicos y del que todavía no tenemos una respuesta clara al porqué: Venus está solo, no tiene ni un solo satélite natural que quizás hubiese podido ser clave para estabilizar su giro e incluso su clima.

proto-VenusImagen de Venus tomada en luz visible por la sonda Messenger en junio de 2007. Así lo veríamos con nuestros propios ojos si estuviésemos en sus proximidades, con una capa de nubes que oscurece de manera perpetua su superficie. Cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington..

¿Cómo pudieron ambos planetas empezar siendo tan parecidos y evolucionar hacia mundos tan diferentes? Un nuevo estudio publicado por Bussmann et al. (2025) parece haber sido capaz de traer una nueva teoría para explicar las causas y al menos resolver -aparentemente- estas dos últimas diferencias mediante la simulación de un impacto gigante contra la superficie de Venus cuando el Sistema Solar era mucho más joven.

Los inicios del Sistema Solar fueron realmente agitados. Las simulaciones sobre la formación de nuestro sistema planetario muestran que las últimas etapas de su formación estuvieron probablemente dominadas por colisiones de una magnitud inimaginable.

De hecho, la teoría más ampliamente aceptada sobre la formación de nuestra propia Luna tiene mucho que ver con esto, ya que incluye un cuerpo del tamaño de Marte chocando con nuestra proto-Tierra. Y no sería raro pensar que Venus hubiese sufrido un destino similar, pero… ¿qué tipo de impacto podría haber dejado a Venus tal y como lo conocemos hoy?

Para responder a esta pregunta, los científicos han ejecutado una serie de modelos numéricos que permiten analizar con gran nivel de detalle la física de estas grandes colisiones. Crearon un proto-Venus diferenciado en dos capas con un núcleo de hierro que formaría un 30% de la masa del planeta y un manto rocoso que ocuparía el 70% restante.

Tras la creación de este gemelo digital, comenzaron a “dispararle” cuerpos planetarios de distintos tamaños, con distintos ángulos y velocidades. La clave no era el hacer una sola simulación, sino explorar el amplio abanico de posibilidades en cuanto a los parámetros de impacto. En total realizaron 81 simulaciones diferentes variando los parámetros más importantes para ver que pasaba.

Como decíamos en el párrafo anterior, dispararon contra el proto-Venus cuerpos de distintos tamaños, desde cuerpos de tan solo 0.01 veces la masa terrestre hasta otros del tamaño de Marte y con una masa de 0.1 veces la de nuestro planeta. También variaron las velocidades de colisión en un rango entre los 10 y los 15 km/s, suficientes para alcanzar la velocidad de escape de Venus.

proto-VenusMapa topográfico de Venus centrado en la longitud 270º. Si miramos la distribución de alturas -cuya leyenda esta en la parte inferior derecha de la imagen- veremos que se parece muy poco a la de nuestro planeta, donde hay una fuerte distribución bimodal donde se distinguen los continentes y las cuencas oceánicas. Imagen cortesía de NASA/JPL/USGS.

También cambiaron las condiciones iniciales de este proto-Venus. Ya que no sabemos cómo podría haber sido este embrión planetario antes de la gran colisión, probaron también con diferentes periodos de rotación, desde uno de cero horas -es decir, con el planeta sin girar sobre si mismo- hasta uno en el que el día tan solo duraba dos horas y media, más rápido que Júpiter. También probaron distintas geometrías de impacto, desde unas colisiones “frontales” hasta otras más oblicuas y tangenciales capaces de añadir o restar momento angular al planeta.

El primer objetivo de los investigadores era el intentar resolver el misterio de la lenta velocidad de rotación y su sentido “inverso”. Para considerar que habían dado en el clavo, el escenario del impacto no necesitaba producir una velocidad de rotación como la actual, que es equivalente a 243 días terrestres. Solo necesitaban que la velocidad de rotación tras el impacto fuese de aproximadamente de 2 días o más.

Este es el umbral conservador que marcan algunos modelos de como podría haber sido la velocidad de rotación de Venus en el pasado. Y es que un Venus girando tan lentamente, con una atmósfera tan densa como la actual, permitiría que las mareas gravitatorias y térmicas que provoca la atmósfera sobre la superficie sirviesen como un freno que, a lo largo de miles de millones de años, frenase al planeta hasta la velocidad de rotación de hoy día, como un enorme lastre.

Curiosamente, los científicos se dieron cuenta que un gran número de los escenarios de impacto simulados son capaces de generar este resultado sin problemas. Si el proto-Venus no giraba sobre sí mismo antes del impacto, la solución era directa: una colisión frontal con un objeto del tamaño de Marte sería suficiente. Pero con un cuerpo pequeño, incluso con un impacto muy tangencial podría dejar al planeta con periodos de rotación superiores a las 48 horas.

proto-VenusVenus es un mundo tan diferente al nuestro que incluso tiene formas geológicas que no se parecen en nada a las de la tierra, como estos pancake domes o, en traducción libre conocidos como “domos tortita” y que parecen ser domos de lava formados por la erupción de una lava muy viscosa, en este caso situados en Alpha Regio. Imagen cortesía de NASA/JPL.

Pero más llamativos fueron los resultados cuando simularon el impacto con un Venus girando sobre sí mismo. En este caso, el cuerpo que impactaba contra el proto-Venus tenía no solo que cambiar su velocidad de rotación, sino también de invertirla.

Para conseguir este efecto, se necesitaba un impacto oblicuo que golpease al planeta en contra de su dirección de rotación, algo que en las simulaciones es un escenario posible. Eso sí, en el caso de un Venus con una rotación muy rápida -el escenario de 2.5 horas- necesitaría de múltiples impactos para frenarlo e invertir su rotación, algo mucho más difícil desde el punto de vista estadístico.

Y ahora que tenemos resuelta la primera parte del puzle, ¿Por qué Venus no tiene un satélite natural? Estos mismos impactos son capaces de lanzar una gran cantidad de materia a la órbita, formando anillos cuyos fragmentos pueden ir fusionándose para formar un satélite, como en el caso de la Tierra y la Luna.

No todo iba a ser tan fácil ni tan bonito para Venus. El estudio tiene una derivada muy importante: los investigadores han encontrado una fuerte correlación positiva entre el momento angular del sistema tras el impacto y la masa del disco de materia producido por el impacto. Es decir, si el impacto acelera mucho al planeta, también lanza hacia afuera una gran cantidad de materia, mientras que los impactos que dejan al planeta con una velocidad de rotación pequeña, la cantidad de materia que se expulsa al espacio es mucho menor.

proto-VenusTambién hay formas que nos son más familiares, como esta imagen de radar de Sapas Mons, un volcán que alcanza los 1500 metros y cuyas coladas de lava -en esta imagen de radar en tonos muy claros- nos recuerda mucho a una imagen cenital de los volcanes terrestres. Imagen cortesía de NASA/JPL.

Aquí es donde se unen las dos partes del estudio, ya que los investigadores opinan que son las dos caras de una moneda. Los escenarios que fueron capaces de explicar por qué Venus gira tan lentamente son los mismos que no pudieron crear un gran disco de materia alrededor del planeta y que acabase formando un satélite.

Además, la estabilidad del disco de materia alrededor de los planetas depende de su distancia con respecto a la órbita síncrona del planeta, la altitud a la cual una satélite gira a la misma velocidad que el propio planeta, un caso similar al de los satélites geoestacionarios en el ecuador de la Tierra.

Para el caso de un Venus girando tras el impacto con un periodo de 48 o más horas, la órbita síncrona estaría muy lejos, en torno a unas 10 veces el radio del planeta. Los investigadores analizaron todos los discos de materia formados en las simulaciones observando que, en cada caso, la poca materia que acaba en órbita lo hacía muy dentro de la órbita síncrona.

Este material estaría, de algún modo, condenado. En vez de unirse formando un satélite con una vida prolongada -en tiempo geológico, claro- las fuerzas de marea irían acercándolo a Venus. Este disco de materia iría lentamente haciendo una espiral descendente hacia el planeta, cayendo finalmente sobre su superficie.

Los resultados de este modelo no son un final en sí mismo, sino un inicio para comprender mejor la evolución de Venus. Un impacto de esta magnitud es capaz de “reiniciar” un planeta, ya que introduce una inmensa cantidad de energía cinética que, a su vez, se transforma en energía térmica, fundiendo grandes cantidades de la corteza y manto de Venus y alterando su evolución geodinámica.

Comprender mejor como Venus se ha ido enfriando, como se ha desarrollado la convección en el manto y conocer detalles que nos permitan entender el por qué, por ejemplo, no ha desarrollado una tectónica de placas, puede ser fundamental para por fin responder a la pregunta de por qué dos planetas que nacieron siendo tan iguales, acabaron teniendo un destino antagónico.

Referencias:

Bussmann, M., Reinhardt, C., Gillmann, C., Meier, T., Stadel, J., Tackley, P., & Helled, R. (2025) The possibility of a giant impact on Venus. Astronomy & Astrophysics doi: 10.1051/0004-6361/202555802

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo El violento nacimiento de Venus se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Adiós a la canica azul: La Tierra se está oscureciendo y no son buenas noticias

Sun, 2025/11/09 - 11:59
La Tierra vista por la misión lunar Apolo 17 en 1972. Foto: NASA / Dominio Público

El 7 de diciembre de 1972, a las 12:33 a. m, el colosal cohete Saturno V despegaba desde el actual Centro espacial Kennedy rumbo a la Luna. Se trataba de la última misión del programa Apolo y en ella viajaba la última tripulación que pisaría la Luna hasta nuestros días. Apenas cinco horas después del lanzamiento los astronautas Eugene Cernan, Ronald Evans y Harrison Schmitt se encontraban ya a casi 30.000 kilómetros de nuestro planeta cuando decidieron mirar por la ventanilla y observar la Tierra desde la distancia. La fotografía que tomaron en aquel momento se conoce popularmente como «la canica azul» y pronto se convirtió en un icono de los movimientos medioambientales de los setenta inspirando la idea de que debemos cuidar nuestro único y frágil hogar en el inmenso cosmos.

Era la primera vez que un ser humano captaba una imagen de la Tierra de manera completa, nítida y sin sombras. La fotografía original, tomada por la tripulación desde el Módulo de Mando y Servicio (CSM), mostraba el Polo Sur en la parte superior de la imagen pero posteriormente fue girada para cumplir con las expectativas y convenciones de orientación con el norte en su lugar. También fue única al captar la Antártida y casi todo su casquete polar, así como la costa de África, tanto en el Atlántico como en el Índico e incluso el potente ciclón de Tamil Nadu que, apenas unos días antes, había provocado fuertes vientos e inundaciones en la India.

Pero, además de las características físicas y geográficas de la fotografía, más allá de su simbología y trascendencia o de las incontables tecnologías que fueron necesarias para poder tomar una fotografía así desde el espacio, la célebre «Blue Marble» fue posible gracias al albedo de nuestro planeta. Ya sea un pequeño punto azul pálido o una canica brillante en el oscuro vacío del espacio, nuestra querida Tierra es visible desde el espacio porque refleja la luz… aunque según los todos estudios y datos satelitales de las últimas décadas, cada vez menos.

El albedo es un concepto científico que expresa el porcentaje de luz solar que refleja una superficie. La nieve, por ejemplo, puede tener un albedo de hasta un 0,9, es decir puede reflejar hasta el 90 % de la luz solar que incide sobre ella. Por otro lado, «el océano abierto puede tener un albedo inferior a 0,1, lo que significa que absorbe más del 90 % de la luz solar incidente y reflejando menos del 10 %».

El albedo es un concepto científico que expresa el porcentaje de luz solar que refleja una superficie. La nieve, por ejemplo, puede tener un albedo de hasta un 0,9, es decir puede reflejar hasta el 90 % de la luz solar que incide sobre ella. Por otro lado, «el océano abierto puede tener un albedo inferior a 0,1, lo que significa que absorbe más del 90 % de la luz solar incidente y reflejando menos del 10  %».

Un nuevo estudio, publicado hace unas semanas en Proceedings of the National Academy of Sciences (PNAS), vuelve a confirmar que nuestro planeta está perdiendo albedo y, desde hace décadas, es un cuerpo cada vez más y más oscuro. Los autores, encabezados por el investigador Norman Loeb, pertenecen al departamento de Ciencias de la radiación de NASA y han utilizado datos de tres satélites diferentes que miden «la luz solar incidente frente a la radiación de onda larga saliente, es decir, la cantidad de radiación reflejada de vuelta al espacio».

Los datos proceden del programa CERES, un acrónimo cuyas siglas se corresponden con «Sistema de Nubes y Energía Radiante de la Tierra» y que cuenta en la actualidad con una red de satélites que miden el balance de radiación terrestre (BRT). Desde el año 2000, CERES ha estado registrando cuánta luz solar absorbe nuestro planeta así como la cantidad de radiación infrarroja que escapa de vuelta al espacio. El equipo de Loeb utilizó estas mediciones para analizar el balance energético de nuestro planeta en los últimos 24 años (2001-2024) y, posteriormente, combinó estos datos con otras fuentes de información como cámaras espectrales de alta resolución, mapas de nieve y nubes, y modelos climáticos por computadora para llegar a una conclusión esperada: la Tierra lleva décadas oscureciéndose.

Un sistema desequilibrado en el Hemisferio Norte

El trabajo publicado no solo ha utilizado los datos satelitales del programa CERES para confirmar el paulatino oscurecimiento de la Tierra sino que además, y puede ser su mayor aportación, incluye un descubrimiento con importantes repercusiones: El Hemisferio Norte se está oscureciendo más rápido que el Sur.

Según las mediciones del estudio, el Hemisferio Norte «absorbe aproximadamente 0.34 vatios más de energía solar por metro cuadrado por década que el Hemisferio Sur», una diferencia que parece menos pero que, teniendo en cuenta toda la superficie del planeta, supone una «cantidad enorme», explica Loeb en Eos.org.

Hasta ahora se pensaba que la Tierra absorbía y reflejaba la energía procedente del Sol de manera balanceada y que no había una diferencia significativa entre ambos hemisferios, sin embargo este nuevo estudio descarta esa hipótesis y apunta a un desequilibrio notable entre hemisferios en el que el Norte está absorbiendo un plus energía y, por tanto, se oscurece más.

¿Por qué el Hemisferio Norte se oscurece más?

El trabajo publicado también expone los motivos de este desequilibrio e indica tres factores fundamentales. El primero, quizá el más obvio, es el deshielo. En el Hemisferio Norte la nieve y el hielo, especialmente en el Ártico, se están derritiendo a un ritmo más acelerado y eso reduce el albedo exponiendo la tierra y el océano que hay debajo.

El segundo aspecto a tener en cuenta son las regulaciones medioambientales que, en los últimos años, han logrado disminuir la contaminación en lugares como China, Estados Unidos y Europa, lo que significa que «hay menos aerosoles en el aire para reflejar la luz solar. En el Hemisferio Sur ocurre lo contrario».

Y en tercer lugar, los autores mencionan el vapor de agua. «Debido a que el Norte se está calentando más rápido, también retiene más vapor de agua, un gas de efecto invernadero que no refleja la luz solar sino que la absorbe. Esa es otra razón por la que el Hemisferio Norte está absorbiendo más calor».

Pero todavía quedan incógnitas que resolver en este panorama y factores de los cuales aún desconocemos su influencia, como por ejemplo la cobertura de nubes. Otro de los hallazgos interesantes de este estudio es que, en los últimos 20 años, la cobertura de nubes no ha cambiado significativamente a pesar de la asimetría Norte-Sur. «Debería verse más reflexión por parte de las nubes en el Hemisferio Norte (en comparación con el Sur), pero no la vemos», concluye Loeb.

En definitiva, el nuevo estudio publicado por NASA nos muestra que nuestro planeta está absorbiendo cada vez más radiación, reflejando menos luz y calentándose de manera acelerada, sin olvidar que el Hemisferio Norte lo hace más rápido que el Sur.

Si los astronautas del Apolo 17 mirasen en nuestros tiempos por la ventana de su módulo, la fotografía de nuestra «Canica Azul» sería hoy algo menos brillante y más oscura, un punto azul cada vez más pálido…

 

Referencias científicas y más información:

Loeb, Norman G., et al. (2025) Emerging Hemispheric Asymmetry of Earth’s Radiation Proceedings of the National Academy of Sciences doi:10.1073/pnas.2511595122.

Larissa G. Capella (2025) «New Satellite Data Reveal a Shift in Earth’s Once-Balanced Energy System» Eos.org

Margherita Bassi (2025) «Earth Is Getting Dimmer—and the Northern Hemisphere Is Losing Brightness Faster Than Scientists Expected» Smithsonian Magazine (2025)

Ryan Green (2025) «Earth Is Getting Darker, Which Could Accelerate Global Warming» Scientific American

 

Sobre el autor: Javier «Irreductible» Peláez es escritor y comunicador científico. Autor de «500 Años de Frío» (2019) y «Planeta Océano» (2022). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.

El artículo Adiós a la canica azul: La Tierra se está oscureciendo y no son buenas noticias se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

CRISPR-CAS9 y las terapias génicas

Sat, 2025/11/08 - 11:59

CRISPR-Cas9 ha transformado la biología: una herramienta de edición genética que permite cortar y pegar ADN con una precisión revolucionaria.

 

Los vídeos “Hitos científicos del siglo XXI” muestran los mayores descubrimientos y avances científicos de las últimas décadas. Se han emitido como una sección del programa de divulgación científica de RTVE Órbita Laika, en colaboración con la Cátedra de Cultura Científica de la Universidad del País Vasco.

Ficha técnica:

Producción ejecutiva: Blanca Baena

Guion: José Antonio Pérez Ledo

Dirección: Aitor Gutierrez

Grafismo: Cristina Serrano

Música: Israel Santamaría

Producción: Olatz Vitorica

Doblaje: K 2000

Locución: José Antonio Pérez Ledo

El artículo CRISPR-CAS9 y las terapias génicas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Cuidando nuestra salud oral protegemos el cerebro

Fri, 2025/11/07 - 11:59

Cuando pensamos en salud oral, solemos imaginar dientes blancos y encías firmes. Pero mantener una buena higiene bucal va mucho más allá de una cuestión estética: puede influir directamente en la salud de todo nuestro organismo.

oralFoto: Marcos Ramírez / Unsplash

Porque lo que ocurre en la boca no se queda en la boca. Las bacterias que se acumulan en los dientes y encías pueden viajar por el cuerpo y tener consecuencias en órganos tan distintos como el corazón o el cerebro.

Una mala salud oral no solo favorece la aparición de caries, la pérdida de dientes o la inflamación de encías (gingivitis): también puede agravar enfermedades crónicas como la diabetes, aumentar el riesgo de ciertos tipos de cáncer e incluso contribuir al desarrollo de enfermedades cardiovasculares, cerebrales y neurodegenerativas.

En concreto, se ha observado que las personas que padecen periodontitis –una inflamación crónica de las encías causada por la acumulación de placa bacteriana– presentan más posibilidades de desarrollar complicaciones en otras partes del cuerpo. Los datos son claros: un paciente con periodontitis no tratada tiene 2,5 veces más riesgo de sufrir un ictus y casi 3 veces más de probabilidades de padecer una enfermedad cardíaca en comparación con quienes mantienen una buena salud bucodental.

Además, la inflamación crónica asociada con la periodontitis también podría contribuir al deterioro cognitivo, como ocurre en el alzhéimer.

Alzhéimer: el olvido que lo cambia todo

El alzhéimer es la causa más frecuente de demencia neurodegenerativa. A nivel mundial, más de 57 millones de personas viven con demencia, de las cuales entre el 60 % y el 70 % padecen alzhéimer. En España, afecta a unas 800 000 personas, y se estima que su prevalencia se duplicará en los próximos 20 años.

Aunque aún no conocemos su causa exacta, sí sabemos que influyen tanto la genética como factores ambientales, incluido nuestro estilo de vida. Y es aquí donde aparece una conexión inesperada: el cuidado de las encías podría desempeñar un papel protector frente al deterioro cognitivo.

Bacterias, seres invisibles que dejan huella

La boca alberga unas 770 especies de microorganismos que componen la microbiota oral. En equilibrio, esta comunidad bacteriana cumple funciones beneficiosas. Pero cuando la higiene es deficiente o existen factores que alteran ese equilibrio, las bacterias patógenas se multiplican, favoreciendo la aparición de enfermedades como la enfermedad periodontal.

La gingivitis, la forma más leve, afecta hasta al 90 % de la población y puede revertirse con una correcta higiene. Sin embargo, si progresa, puede convertirse en periodontitis, una afección crónica, inflamatoria e irreversible con consecuencias que van mucho más allá de la pérdida de dientes.

Las bacterias implicadas, especialmente Porphyromonas gingivalis, y las moléculas inflamatorias que el sistema inmunitario libera al intentar combatirlas pueden viajar por la sangre y alcanzar órganos distantes, como el cerebro. Allí pueden contribuir a procesos inflamatorios y al desarrollo o progresión de enfermedades neurodegenerativas como el alzhéimer.

De hecho, varios estudios recientes refuerzan la hipótesis de esa conexión. En modelos animales, la exposición prolongada a toxinas de bacterias como Porphyromonas gingivalis ha inducido neuroinflamación, acumulación de proteína beta-amiloide y deterioro de la memoria, tres características típicas del alzhéimer.

En humanos, también se ha hallado evidencia sorprendente: la cantidad de bacterias orales en el tejido cerebral de personas fallecidas con esa patología es hasta siete veces mayor que en quienes no padecían la enfermedad.

Cepillarse: una rutina que podría proteger nuestra mente

Así pues, dedicar apenas 10 minutos al día a la higiene oral es una inversión para la salud futura. Cada vez que olvidamos cepillarnos, las bacterias se multiplican y pueden acabar en otras partes del cuerpo con efectos imprevisibles.

Cepillarse los dientes, usar hilo dental y acudir regularmente al dentista no solo cuida la sonrisa: también puede ayudar a proteger el corazón, el cerebro y, posiblemente, la memoria. El alzhéimer borra recuerdos, pero hay algo que conviene no olvidar: cuidar de nuestra boca es cuidar de nuestra mente.The Conversation

Sobre las autoras: Teresa Morera Herreras, Profesora agregada del Departamento de Farmacología, EHU; Ane Murueta-Goyena, Profesora Adjunta del Departamento de Neurociencia, EHU; y Unai Fernández Martín, Investigador predoctoral, EHU

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Cuidando nuestra salud oral protegemos el cerebro se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La Geología por la que pasean las ánimas

Thu, 2025/11/06 - 11:59

En estas fechas, aparte del maratón de películas de terror de la noche de Halloween, me encanta rememorar una fantástica historia convertida en auténtica leyenda por la pluma de Gustavo Adolfo Bécquer, y en una preciosa canción por el grupo español de folk metal Saurom, «El Monte de las Ánimas».

 

Esta historia nos relata que, en esa zona, siglos atrás tuvo lugar una cruenta batalla entre caballeros templarios y nobles castellanos, cuyas almas no encontraron descanso, por lo que sus espíritus vagan errantes en la Noche de Todos los Santos (que, según la versión de Bécquer, no es la noche del 31 de octubre, sino la que va del 1 al 2 de noviembre) para llevarse consigo a toda aquella persona que ose pasar por allí en ese oscuro momento. Cosa que descubre Beatriz de manera atroz al perder a Alonso tras hacerle regresar al monte por la noche. Pero, ¿sobre qué materiales geológicos caminan esos fantasmas?

ánimasDetalle de las rocas que forman el Monte de las Ánimas (Soria). Imagen de Google Street View a la altura de la antigua Área de Descanso de la N-234 (Soria Sur) a las afueras de la ciudad, tomada de Google Maps.

Si abandonamos las leyendas y nos vamos a la realidad, el monte de las Ánimas es una pequeña elevación del terreno situada a las afueras de la ciudad de Soria. Geológicamente hablando, esta zona forma parte de la denominada Cuenca de Almazán, que representa el límite oriental de la Cuenca del Duero, que abarca gran parte de la actual comunidad autónoma de Castilla y León. Y que también tiene una apasionante historia geológica.

 

Todo comenzó hace unos 80 millones de años, cuando la placa Ibérica chocó contra la placa Europea. Este proceso tectónico fue muy intenso en esta zona desde hace algo más de 60 millones de años hasta hace unos 40 millones de años, provocando la formación de tres grandes cadenas montañosas: el Sistema Ibérico al este, el Sistema Central al sur y la Cordillera Cantábrica al norte. El alzamiento de estas montañas dejó una zona deprimida en el centro, como si fuese una especie de cubeta, que es lo que en Geología denominamos cuenca sedimentaria.

ánimasMapa geológico simplificado de la Cuenca del Duero, donde se remarca la localización de la Cuenca de Almazán (CA). Imagen modificada de Sastre Merlín, A., Montamarta Prieto, G., de Miguel Vela, F., Vicente Lapuente, R., Alejandre Alcalde, V. y Acosta Molinero, J.A. (2025) Deza: un balcón sobre la cuenca de Almazán. Guía del Geolodía 25 Soria, 8 pp.

La principal característica de estas cuencas sedimentarias continentales rodeadas por elevaciones montañosas es que actúan como si fuesen unas bañeras, recibiendo el agua y los materiales (barro, arena y fragmentos de rocas) transportados por los ríos y arroyos que bajan por sus laderas. Y la Cuenca de Almazán no se quedó atrás, acumulando estos aportes montañosos durante más de 20 millones de años.

 

Esto provocó la formación de diferentes medios ambientes según nos alejamos de las montañas, debido a la energía que tenía el agua para poder arrastrar los materiales geológicos. Aquí es donde entran la física de fluidos y, sobre todo, la gravedad. Cuando un arroyo o riachuelo caía por la ladera de la montaña tenía una gran energía, lo que le permitía arrastrar grandes fragmentos de rocas, granos de arena de diferente tamaño y mucho barro. Pero, al llegar al pie de la ladera, cuando la pendiente disminuye, ya no tenía tanta energía, por lo que depositaba los materiales más grandes y pesados en el margen de su cauce, arrastrando sólo los sedimentos más finos hasta, finalmente, únicamente poder circular el agua casi limpia. De esta forma, junto a las laderas de las montañas se acumulaban rocas y arena de grano grueso mezcladas con barro, en unas estructuras llamadas abanicos aluviales, porque nos recuerdan a un abanico abierto si las miramos desde arriba. A su lado se formarían unas llanuras aluviales con arena más fina y arcilla y, al final, nos encontraríamos con lagos carbonatados poco profundos que, en muchas ocasiones, serían temporales.

 

Con el tiempo, estos sedimentos se convirtieron en diferentes tipos de rocas que, desde el pie de las laderas hasta las zonas centrales de la cuenca, serían: conglomerados y areniscas de grano grueso en los antiguos abanicos aluviales; areniscas de grano medio-fino y lutitas en las llanuras aluviales; y margas y calizas en los lagos carbonatados.

ánimasA) Zonación ambiental de una cuenca sedimentaria continental desde la cordillera hasta la zona central de la misma; y B) detalle de los ambientes sedimentarios formados en la Cuenca de Almazán. Imágenes modificadas de Huerta, P. (2006) El Paleógeno de la cuenca de Almazán. Tesis Doctoral. Universidad de Salamanca. Memoria (339 pp.), Anexo 1 y Anexo 2.

Pero la historia no terminó aquí. En los últimos millones de años, el Duero fue capaz de abrirse camino hasta su desembocadura en el océano Atlántico. Siguiendo con el símil, fue como si le quitásemos el tapón a las bañeras que eran la Cuenca del Duero y su pequeño apéndice, la Cuenca de Almazán. Así, los lagos efímeros se desecaron y los arroyos y riachuelos que surgían de las montañas se convirtieron en afluentes del propio Duero, transformándose en los principales agentes de la última fase de esta historia: la erosión. Esta agua que antes depositaba sedimentos, desde entonces está robando lo que una vez poseyó, arrasando con las rocas formadas en esta zona. Pero no a todas les afecta por igual: las más resistentes, como los conglomerados, las areniscas de grano más grueso y las calizas, resisten mejor la erosión; mientras que las rocas más débiles, como las lutitas o las margas, son arrastradas sin compasión.

 

Entonces, ¿qué ha pasado con el Monte de las Ánimas? Pues se trata de antiguos abanicos aluviales que transportaban agua, cantos, arena y barro procedentes de las montañas situadas justo al norte de Soria. Hoy en día, esas rocas soportan el embate del agua de lluvia resistiéndose a la erosión con mayor ahínco que los materiales que tiene a su lado, por lo que permanece en pie como una pequeña elevación que vigila la ciudad.

 

Así que, volviendo a la pregunta del inicio, los templarios y caballeros castellanos que visiten nuestro mundo en la noche de difuntos, caminarán sobre conglomerados, areniscas y arcillas de hace unos 20 millones de años. Pero si queréis ir a comprobarlo, os recomiendo que esperéis a que sea de día, por si acaso. Y recordad ataos bien al hombro la banda de color azul, no vaya a ser que la perdáis durante vuestro paseo…

Agradecimientos:

Quiero dar las gracias a mi colega Jone Mendicoa por darme la idea para este artículo después de una interesante conversación sobre literatura y música camino a un concierto.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la EHU

El artículo La Geología por la que pasean las ánimas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Una apuesta engañosa

Wed, 2025/11/05 - 11:59

A Julene, como buena bilbaína, le encanta hacer apuestas.

Está en clase de geografía, un tanto aburrida, escuchando al profesor López que está explicando el funcionamiento de las redes hidrográficas terrestres. Para intentar vencer la apatía, propone a su compañero de pupitre, Mikel, apostar sobre los números que va a mencionar el docente a lo largo de su lección. Así, Julene invita a Mikel a apostar diez euros en un juego que tratará sobre los siguientes nueve números que mencionará el profesor, números que hacen referencia a longitudes (en kilómetros) de ríos u otras corrientes fluviales.

apuestaFuente: FreepikJulene propone las reglas del juego a Mikel

Julene comenta los términos de la apuesta a Mikel:

Te propongo tener en cuenta únicamente la primera cifra significativa de las longitudes de los cursos de agua que mencione el profesor. Yo me quedaré con el conjunto de las tres primeras cifras A = {1, 2, 3} y tú con el conjunto de las otras seis cifras B = {4, 5, 6, 7, 8, 9}. Ganará, y recibirá los diez euros del otro, quien tenga en su conjunto la primera cifra que haya aparecido con mayor frecuencia en la lección.

Para aclarar su propuesta, Julene continúa argumentando para convencer a Mikel de que está siendo generosa con él:

Si las nueve longitudes mencionadas son, por ejemplo, 243 km, 876 km, 1222 km, 92 km, 4330 km, 982 km, 3445 km, 2122 km y 832 km (cuyos primeros dígitos son 2, 8, 1, 9, 4, 9, 3, 2 y 8), tú ganarías porque en el anterior listado de primeros dígitos hay cinco números del conjunto B, el tuyo, y sólo cuatro del conjunto A, el mío.

Julene es una jugadora astuta y, con su propuesta de juego y el ejemplo que hábilmente ha expuesto, ha conseguido que Mikel crea que es sencillo para él ganar los diez euros de la apuesta. Al fin y al cabo, el conjunto que le corresponde (el conjunto B) tiene seis dígitos y el de Julene (el conjunto A) solo posee tres. Así que, convencido de que tiene muchas posibilidades de ganar los diez euros, Mikel acepta el juego de Julene.

Pero se equivoca; de hecho, Julene tiene una mayor probabilidad de ganar. ¿Cómo puede ser esto cierto?

Con las reglas de Julene, a Mikel no le conviene jugar

Efectivamente, Julene ha conseguido embaucar a Mikel; con sus reglas, ella sabe que tiene bastantes probabilidades de quedarse con los diez euros de su compañero.

La explicación de la ventaja de Julene en este juego tiene que ver con la llamada ley de Benford (o ley del primer dígito) que se refiere a una distribución de frecuencia estadística observada empíricamente en muchas fuentes de datos numéricos (como en el caso de la medida de la longitud de ríos). Esta ley dice que la cifra 1 aparece en primera posición con mucha mayor frecuencia que el resto de los números. Además, según crece el primer dígito, es menos probable que se encuentre en la primera posición.

La ley de Benford establece que la probabilidad de que un número obtenido de un determinado dato comience con el dígito d es de:

En la práctica, la frecuencia de aparición de cada número es de:

Si la apuesta consistiera en jugar con un único número, Julene ganaría con una probabilidad de a = p(1) + p(2) + p(3) = 0,602  (0,301 + 0,176 + 0,125 = 0,602). Por lo tanto, Mikel ganaría con una probabilidad de b = 1 – a = 0,398.

Pero la apuesta tiene en cuenta nueve números, no solo uno. Así, la probabilidad de que Julene gane es la probabilidad de que, entre los nueve números que mencionará el profesor durante su clase, haya al menos cinco (cinco, seis, siete, ocho o nueve números) pertenecientes al conjunto A = {1, 2, 3}. Dicho de otro modo, de los números significativos mencionados por el docente, como mucho cuatro pertenecerán al conjunto B = {4, 5, 6, 7, 8, 9} asignado a Mikel, que perdería así la apuesta.

La probabilidad de que haya k números de A = {1, 2, 3} entre los nueve números utilizados por el profesor (probabilidad de k éxitos en una repetición de 9 experimentos) es de:

que involucra un coeficiente binomial (cantidad de subconjuntos de k elementos escogidos de un conjunto de 9 elementos).

Así, la probabilidad de que Julene gane es de:

Tras hacer las operaciones indicadas en la anterior fórmula, el resultado es de 0,738. Así, Mikel tiene pocas probabilidades de ganar (1 – 0,738 = 0,262), y muchas de perder los diez euros de la apuesta… ¡Su compañera Julene “se la ha jugado”!

Nota

Adaptado de: Jean-Paul Delahaye, Rubrique des paradoxes précédents : La longueur des fleuves, Accromath 20.2 été-automne 2025

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia

El artículo Una apuesta engañosa se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La teoría de juegos de cómo los algoritmos pueden hacer subir los precios

Tue, 2025/11/04 - 11:59

Estudios recientes revelan que incluso los algoritmos de fijación de precios más simples pueden encarecer las cosas.

Un artículo de Ben Brubaker. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

preciosIlustración: Nash Weerasekera / Quanta Magazine

Imagina un pueblo con dos comerciantes de utensilios. Los clientes prefieren el utensilio más barato, así que los comerciantes compiten fijando precios bajos. Descontentos con sus escasas ganancias, se reúnen una noche en una taberna llena de humo para discutir un plan secreto: si suben los precios juntos en lugar de competir, ambos podrían ganar más. Pero ese tipo de acuerdo intencionado sobre precios, llamado colusión, lleva más de un siglo prohibido. Los comerciantes deciden no arriesgarse y todo el mundo sigue disfrutando de utensilios baratos.

 

Durante más de un siglo, la legislación estadounidense ha seguido este esquema básico: prohibir esos tratos a puerta cerrada y con ello preservar unos precios justos. Hoy no es tan sencillo. En amplios sectores de la economía los vendedores dependen cada vez más de programas informáticos llamados algoritmos de aprendizaje, que ajustan los precios de forma iterada en función de nuevos datos sobre el mercado. A menudo son mucho más simples que los algoritmos de “aprendizaje profundo” que impulsa la inteligencia artificial moderna, pero aun así pueden comportarse de formas inesperadas.

 

Entonces, ¿cómo pueden los reguladores garantizar que los algoritmos fijan precios justos? Su enfoque tradicional no servirá, porque se basa en encontrar una colusión explícita. “Los algoritmos desde luego no se están tomando copas juntos”, apunta Aaron Roth, científico informático de la Universidad de Pennsylvania.

 

Sin embargo, un artículo muy citado de 2019 mostró que los algoritmos podían aprender a coludir de forma tácita, incluso cuando no estaban programados para ello. Un equipo de investigadores enfrentó dos copias de un algoritmo de aprendizaje simple en un mercado simulado y les dejó explorar distintas estrategias para aumentar sus beneficios. Con el tiempo, cada algoritmo aprendió por ensayo y error a castigar cuando el otro bajaba los precios: respondía reduciendo su propio precio en una cuantía enorme y desproporcionada. El resultado final fue precios elevados, sostenidos por la amenaza mutua de una guerra de precios.

preciosAaron Roth sospecha que los problemas de la fijación de precios algorítmica podrían no tener una solución sencilla. «La conclusión de nuestro estudio es que resulta difícil determinar qué descartar», afirma. Foto cortesía de Aaron Roth

Las amenazas implícitas como esta también están en la base de muchos casos de colusión humana. Así que, si quieres garantizar precios justos, ¿por qué no exigir que los vendedores utilicen algoritmos incapaces de hacer amenazas?

 

En un trabajo reciente, Roth y otros cuatro científicos informáticos mostraron por qué eso puede no ser suficiente. Probaron que incluso algoritmos aparentemente benignos que optimizan su propio beneficio pueden a veces dar lugar a resultados perjudiciales para los compradores. “Aun así puedes obtener precios altos de maneras que, desde fuera, parecen razonables”, explica Natalie Collina, estudiante de posgrado que trabaja con Roth y coautora del nuevo estudio.

 

No todos los investigadores coinciden en las implicaciones del hallazgo —mucho depende de cómo se defina “razonable”—. Pero la investigación revela lo sutiles que pueden ser las cuestiones sobre fijación algorítmica de precios y lo difícil que puede resultar regularlas.

 

“Sin alguna sospecha de amenaza o de un acuerdo, es muy difícil que un regulador pueda entrar y decir: ‘Estos precios no parecen correctos’”, afirma Mallesh Pai, economista de la Universidad Rice. “Por eso creo que este artículo es importante.”

 

Sin arrepentimiento

 

El trabajo reciente estudia la fijación algorítmica de precios desde la óptica de la teoría de juegos, un campo interdisciplinar en la frontera entre la economía y la informática que analiza las matemáticas de las competiciones estratégicas. Es una forma de explorar los errores de los algoritmos de precios en un entorno controlado.

 

“Lo que intentamos hacer es crear colusión en el laboratorio”, explica Joseph Harrington, economista de la Universidad de Pennsylvania que escribió un influyente artículo de revisión sobre la regulación de la colusión algorítmica y que no ha participado en la nueva investigación. “Una vez que lo hacemos, queremos averiguar cómo destruir esa colusión.”

preciosNatalie Collina y sus colegas han descubierto que los precios altos pueden surgir de maneras inesperadas. Foto: Nandan Tumu

Para entender las ideas clave conviene empezar con el simple juego de piedra-papel-tijera. Un algoritmo de aprendizaje, en este contexto, puede ser cualquier estrategia que un jugador use para elegir una jugada en cada ronda basándose en los datos de rondas anteriores. Los jugadores pueden probar distintas estrategias a lo largo del juego. Pero si juegan bien, acabarán convergiendo a un estado que los teóricos de juegos llaman equilibrio. En equilibrio, la estrategia de cada jugador es la mejor respuesta posible a la estrategia del otro, por lo que ninguno tiene incentivo a cambiar.

 

En piedra-papel-tijera, la estrategia ideal es sencilla: hay que jugar una jugada aleatoria cada ronda, escogiendo las tres posibilidades con la misma frecuencia. Los algoritmos de aprendizaje destacan cuando un jugador adopta un enfoque distinto. En ese caso, elegir jugadas en función de rondas anteriores puede ayudar al otro jugador a ganar más a menudo que si jugara al azar.

 

Supón, por ejemplo, que tras muchas rondas detectas que tu oponente —un geólogo— eligió piedra más del 50% de las veces. Si hubieras jugado papel cada ronda, habrías ganado más. Los teóricos de juegos se refieren a esta dolorosa constatación como arrepentimiento.

 

Los investigadores han diseñado algoritmos de aprendizaje sencillos que garantizan siempre que acabarás con arrepentimiento cero. Algoritmos de aprendizaje algo más sofisticados, llamados algoritmos “sin arrepentimiento por intercambio” (no-swap-regret), también garantizan que cualquiera que sea la acción de tu oponente, no podrías haberlo hecho mejor sustituyendo todas las ocurrencias de una jugada por otra (por ejemplo, jugando papel cada vez que en realidad jugaste tijera). En 2000, teóricos de juegos demostraron que, si enfrentas dos algoritmos sin arrepentimiento por intercambio en cualquier juego, acabarán en un tipo específico de equilibrio —uno que sería el equilibrio óptimo si solo jugaran una única ronda. Esa propiedad es atractiva porque los juegos de una sola ronda son mucho más simples que los de varias rondas. En particular porque las amenazas no funcionan ya que los jugadores no pueden ejecutarlas.

 

En un artículo de 2024, Jason Hartline, informático de la Universidad Northwestern, y dos estudiantes de posgrado tradujeron los resultados clásicos de 2000 a un modelo de mercado competitivo, donde los jugadores pueden fijar precios nuevos cada ronda. En ese contexto, los resultados implicaban que dos algoritmos sin arrepentimiento por intercambio se acabarían encontrando en precios competitivos cuando alcanzaran el equilibrio. La colusión sería imposible.

 

Sin embargo, los algoritmos sin arrepentimiento por intercambio no son las únicas estrategias de fijación de precios en los mercados en línea. ¿Qué ocurre cuando un algoritmo sin arrepentimiento por intercambio se enfrenta a un oponente distinto que también parece benigno?

 

El precio está equivocado

 

Según los teóricos de juegos, la mejor estrategia para jugar contra un algoritmo sin arrepentimiento por intercambio es simple: empieza con una probabilidad concreta para cada posible acción y, luego, en cada ronda elige una sola acción al azar, sin importar lo que haga tu oponente. La asignación ideal de probabilidades para este enfoque “no reactivo” depende del juego específico.

 

En el verano de 2024, Collina y su colega Eshwar Arunachaleswaran se propusieron encontrar esas probabilidades óptimas para un juego de fijación de precios entre dos jugadores. Hallaron que la mejor estrategia asignaba probabilidades sorprendentemente altas a precios muy elevados, junto con probabilidades menores distribuidas en una amplia gama de precios bajos. Si juegas contra un algoritmo sin arrepentimiento por intercambio, esta extraña estrategia maximizará tu beneficio. “Para mí fue una sorpresa total”, cuenta Arunachaleswaran.

preciosEshwar Arunachaleswaran y Collina obtuvieron su resultado al explorar las mejores respuestas a algoritmos de precios bien definidos. Foto: Paritosh Verma

Las estrategias no reactivas parecen superficialmente inocuas. No pueden transmitir amenazas, porque no reaccionan a las jugadas del rival en absoluto. Pero pueden inducir a los algoritmos de aprendizaje a subir sus precios, y luego aprovecharse ocasionalmente vendiendo más barato que el competidor.

 

Al principio, Collina y Arunachaleswaran pensaron que este escenario artificial no sería relevante en el mundo real. Seguro que el jugador que usara el algoritmo sin arrepentimiento por intercambio cambiaría a otro algoritmo en cuanto se diera cuenta de que su competidor estaba obteniendo beneficios a su costa.

 

Pero al profundizar y al discutirlo con Roth y otros dos colegas, se dieron cuenta de que su intuición era errónea. Los dos jugadores en su escenario ya estaban en un estado de equilibrio. Sus beneficios eran casi iguales, y ambos eran tan altos como podían ser siempre que ninguno cambiara de algoritmo. Ninguno tenía incentivo a cambiar de estrategia, así que los compradores se quedarían atrapados con precios altos. Además, las probabilidades precisas no eran tan importantes. Muchas elecciones distintas conducían a precios elevados cuando se enfrentaban a un algoritmo sin arrepentimiento por intercambio. Es un resultado que cabría esperar de una colusión, pero sin que se viera ningún comportamiento colusorio.

 

Conviene ser tonto

 

¿Y qué pueden hacer los reguladores? Roth admite que no tiene respuesta. No tendría sentido prohibir los algoritmos sin arrepentimiento por intercambio: si todos usaran uno, los precios caerían. Pero una simple estrategia no reactiva podría ser una elección natural para un vendedor en un mercado en línea como Amazon, aunque conlleve el riesgo de arrepentimiento.

 

“Una forma de tener arrepentimiento es simplemente ser un poco tonto”, afirma Roth. “Históricamente, eso no ha sido ilegal.”

 

Para Hartline, el problema de la colusión algorítmica tiene una solución simple: prohibir todos los algoritmos de fijación de precios excepto los algoritmos sin arrepentimiento por intercambio que los teóricos de juegos han venido recomendando. Puede haber formas prácticas de hacerlo: en su trabajo de 2024, Hartline y sus colegas idearon un método para comprobar si un algoritmo tiene la propiedad de sin arrepentimiento por intercambio sin mirar su código.

 

Hartline reconoció que su solución preferida no evitaría todos los malos resultados cuando algoritmos sin arrepentimiento por intercambio compitieran con humanos. Pero sostiene que escenarios como el del trabajo de Roth no son casos de colusión algorítmica.

 

“La colusión es algo de doble vía”, dijo. “Fundamentalmente debe ser posible que un único jugador haga algo para no coludir.”

 

Sea como fuere, el nuevo trabajo deja muchas preguntas abiertas sobre cómo puede fallar la fijación de precios algorítmica en el mundo real.

 

“Aún no entendemos ni de lejos todo lo que quisiéramos”, dico Pai. “Es una cuestión importante para nuestro tiempo.”

 

El artículo original, The Game Theory of How Algorithms Can Drive Up Prices, se publicó el 22 de octubre de 2025 en Quanta Magazine.

Traducido por César Tomé López

El artículo La teoría de juegos de cómo los algoritmos pueden hacer subir los precios se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Pages