Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 59 min 31 sec ago

Cómo el antiguo arte de la predicción de eclipses se convirtió en una ciencia exacta

Tue, 2024/04/09 - 11:59

La cronología del eclipse total del 8 de abril de 2024 se conocía al segundo, miles de años después de que los temerosos humanos comenzaran a intentar anticipar estos eventos cósmicos.

Un artículo de Joshua Sokol. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.


Fuente: Stephanie Swart for Quanta Magazine; Kristina Armitage and Emily Buder/Quanta Magazine

Los eclipses solares se interpretaron a lo largo de gran parte de la historia como malas noticias para el soberano: una señal de mal agüero para su salud personal o la del reino. Pero esos temores ayudaron a alimentar miles de años de erudición. Este progreso comenzó en Mesopotamia con una búsqueda de patrones periódicos en los datos históricos. Ha culminado en una era en la que conocemos los movimientos futuros interdependientes de los cuerpos del sistema solar con siglos de antelación, transformando lo que alguna vez fue una causa de angustia a escala cósmica en una cuestión de frío mecanismo de relojería.

Si hubiera que elegir un punto de inflexión, podría haber sido la mañana del 22 de abril de 1715, cuando un eclipse solar se cernía sobre Londres. El polímata británico Edmond Halley, más conocido por haber dado su nombre al cometa Halley, lo había predicho. Había publicado un anuncio que incluía un mapa del camino que trazaría la sombra de la luna sobre Inglaterra. Ese año, Inglaterra tenía un rey recién coronado y ya se estaba gestando una rebelión contra él; al desmitificar el eclipse con una predicción, Halley esperaba neutralizar su poder como presagio.

También quería reclutar recolectores de datos cuyas observaciones pudieran conducir a predicciones de eclipses aún mejores en el futuro. “Se desea que los Curiosos lo Observen, y especialmente la duración de la Oscuridad Total”, anunció, “… porque de ese modo se determinarán claramente la Situación y las dimensiones de la Sombra; y por medio de ello, podremos Predecir Apariciones similares para [el] futuro, con un mayor grado de certeza del que se puede pretender en el presente”.

Presagios que mantienen el ritmo

Décadas antes, Halley, un ávido lector de textos antiguos, había redescubierto y popularizado un ciclo celeste útil para pensar acerca de los eclipses y la posición de la luna en el cielo: 6.585 días, o un poco más de 18 años. Llamó a este ciclo «saros», que los historiadores modernos ven como una mala traducción de un símbolo sumerio que originalmente significaba algo así como «universo» o «gran número».

Alrededor del año 600 a.e.c. en Mesopotamia los sacerdotes-matemáticos asirios y babilónicos habían examinado las fechas de eclipses pasados registradas en tablillas de arcilla, con la esperanza de desarrollar estrategias para inferir cuándo podría ocurrir el próximo eclipse. Los eclipses preocupaban a los reyes de estas culturas y pronto, con la invención del zodíaco y los horóscopos personales, la necesidad de controlar las posiciones del sol, la luna y los planetas afectaría a todo el mundo.

Las primeras soluciones fueron reglas generales. Los eclipses lunares a menudo se suceden cada seis meses, por ejemplo. Los babilonios también se dieron cuenta de que los eclipses solares y lunares específicos a menudo estaban separados de un evento similar por lo que Halley llamó un saros.

Para entender este ciclo en términos modernos, imaginemos la geometría de los cuerpos celestes en el momento de un eclipse solar, cuando la Luna se encuentra directamente entre el Sol y la Tierra y los tres cuerpos forman una línea definida. Para que esto suceda, la Luna debe ser luna nueva. También debe estar en un punto donde su propia órbita inclinada alrededor de la Tierra se hunde a través del plano en el que la Tierra se mueve en su propia órbita alrededor del sol.

Ahora imagina que adelantas el reloj para encontrar un momento en el que se repitan estas mismas condiciones. Tenemos que conciliar varios ciclos lunares superpuestos pero desiguales. Ciclo uno: se necesitan unos 29,5306 días para pasar de una luna nueva a la siguiente. Ciclo dos: la Luna tarda unos 27,2122 días en ir de un paso por el plano de la órbita de la Tierra al mismo paso en la siguiente vuelta. Ciclo tres: debido a que la órbita elíptica de la Luna la acerca y la aleja de la Tierra, la Luna también oscila en su tamaño y velocidad aparentes en los cielos sobre la Tierra, un ciclo que dura aproximadamente 27,5546 días.

El saros, entonces, es simplemente un bonito intervalo redondo durante el que todos estos ciclos se repiten un número entero de veces: 223 pasos a la luna nueva es casi exactamente igual a 242 vueltas dentro y fuera de la eclíptica, que a su vez es casi exactamente igual a 239 oscilaciones en el tamaño aparente de la luna. Si viste un eclipse solar o lunar, solo espera un saros y se repetirá la misma disposición geométrica aproximada de los cuerpos celestes.

eclipsesA la izquierda, una tablilla de arcilla cuneiforme de Babilonia de diez centímetros de ancho que registra eclipses lunares entre 609 y 447 a.C. A la derecha aparece un fragmento de un antiguo planetario griego conocido como mecanismo de Anticitera. Descubierto en un naufragio y fechado aproximadamente en el siglo II a. C., el planetario rastreaba ciclos como el saros para predecir eclipses y otros eventos astronómicos. Fuentes: The Trustees of the British Museum (left); 2005 Museo Arqueológico Nacional de Atenas

Sin embargo, la órbita de la Luna es en realidad más complicada que estos parámetros. Y de todos modos, este esquema no te dice en qué lugar de la Tierra será visible el eclipse resultante.

Halley y más allá

Para cuando Halley leyó sobre el saros y lo resucitó para su propio uso, muchos siglos más de esfuerzo multicultural habían refinado aún más el problema de los eclipses, como lo describió la historiadora matemática Clemency Montelle en el libro de 2011 Chasing Shadows. Los babilonios finalmente pasaron de reglas empíricas simples como «espera un saros» a esquemas numéricos más complicados que calculaban las futuras coordenadas de la Luna en el cielo. Los antiguos griegos fusionaron sus propias ideas geométricas sobre el cosmos con cálculos numéricos al estilo babilónico. Sobre la base de esa síntesis, los astrónomos del mundo islámico como al-Juarismi, el homónimo de la palabra «algoritmo» en el siglo IX, introdujeron funciones trigonométricas y números decimales (de la India) que garabatearon en un nuevo medio papel (de China) para desarrollar métodos predictivos aún más avanzados, que ahora también tenían eco en toda Europa.

Pero Halley tenía algo aún más nuevo con qué jugar. Casi al mismo tiempo que repescaba el saros de la antigüedad, también financiaba la publicación de las ideas de su amigo Isaac Newton sobre la gravitación, que Newton luego aplicaría para comprender la órbita de la Luna. En 1715, cuando se acercaba a Londres el primer eclipse solar en muchos siglos, el mapa predictivo de Halley era una combinación de formas de pensar antiguas y modernas.

El siguiente gran paso se produjo en 1824, cuando el astrónomo alemán Friedrich Bessel amplió el enfoque newtoniano de pensar acerca de los eclipses utilizando las leyes de la gravedad. Imaginó la sombra de la luna proyectada sobre un plano imaginario que pasaba por el centro de la Tierra. Luego se podría proyectar esa sombra de vuelta a la superficie del globo para ver exactamente dónde y cuándo impactaría, un proceso que terminió requiriendo pensar en la Tierra no como una esfera sino como un objeto grumoso y lleno de baches que gira. Después de Bessel, muchas naciones tuvieron el alcance imperial global para perseguir esas sombras, explica Deborah Kent, historiadora de las matemáticas de la Universidad de St. Andrews. Al hacerlo, podrían refinar aún más sus cálculos en una batalla por la supremacía del poder blando científico.

Durante el siglo siguiente, las expediciones de eclipses ayudaron a resolver uno de los mayores misterios de la ciencia: ¿se debía la extraña órbita de Mercurio a un planeta no descubierto que abrazaba al Sol (que presumiblemente se haría visible durante un eclipse)? O, como resultó ser el caso, ¿había algún problema con la comprensión de Newton de la gravedad? Esto hizo que la predicción y observación de eclipses fuera aún más importante, y se enviaron científicos a todos los rincones de la Tierra con instrucciones estrictas sobre dónde estar exactamente y qué datos registrar. Luego presentaban informes secos salpicados por alguna que otra “erupción de asombro”, explica Kent. «En casi todos y cada uno de ellos hay como dos párrafos de descripción rapsódica, victoriana y exagerada».

En el siglo XX, el problema volvió a transformarse. Una predicción adecuada de los eclipses siempre había tenido que lidiar con el hecho de que la Luna y todo lo demás en el Sistema Solar interactúa constantemente entre sí. Este no era simplemente el famoso “problema de los tres cuerpos” irresoluble; era un problema de N-cuerpos. Cuando la NASA comenzó a lanzar personas y robots hacia cuerpos del sistema solar, la necesidad de saber dónde estaban esos cuerpos y dónde estarían en el futuro adquirió una nueva urgencia, y se volvió más fácil de entender.

Gracias a los espejos que dejaron en la Luna los astronautas del Apolo, sabemos dónde está la Luna en relación con la Tierra con una precisión de un par de metros, según Ryan Park, que dirige el grupo de Dinámica del Sistema Solar en el Laboratorio de Propulsión a Chorro (JPL) de la NASA. Y con múltiples naves espaciales transmitiendo datos de alcance mientras zumban alrededor del sistema solar, también conocemos la posición del Sol con gran precisión. El equipo de Park introduce los datos de posición lunar y solar, junto con parámetros similares para los planetas y cientos de asteroides, y correcciones para cosas como la presión del viento solar, y no simplemente las leyes de la gravedad de Newton sino los ajustes más sutiles de la relatividad general, en un modelo de ordenador. Así el modelo genera una lista de las posiciones predichas de todo, incluida la Luna. Y luego, periódicamente, el equipo del JPL actualiza su modelo y publica nuevas listas.

Estas posiciones, excesivas para la tarea de predecir eclipses, deben ser lo suficientemente buenas para los viajes espaciales. «Me sorprendo un poco», afirma Park, cuando los desarrolladores de misiones espaciales preguntan si tendrán que dedicar tiempo a descubrir dónde estará exactamente la Luna y cómo se mueve. «Yo en plan, no, no, no, no, resolvimos el problema hace años».

 

El artículo original, How the Ancient Art of Eclipse Prediction Became an Exact Science, se publicó el 5 de abril de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Cómo el antiguo arte de la predicción de eclipses se convirtió en una ciencia exacta se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El pájaro que se comunica con un gesto simbólico

Mon, 2024/04/08 - 11:59

Un estudio publicado en Nature Communications describe por primera vez un gesto simbólico en animales no primates. En los carboneros japoneses (Parus minor) un rápido aleteo por parte de un miembro de la pareja indica al otro que entre primero en el nido.

gesto simbólicoCarbonero japonés (Parus minor). Foto: Alpsdake / Wikimedia Commons

La anécdota es muy conocida, se ha atribuido a diferentes protagonistas y ha incorporado insultos diversos. Básicamente es así: dos hombres se encuentran frente a una puerta. Uno de ellos dice “yo no cedo el paso a un imbécil”. El otro responde “yo sí, pase usted”.

Es concebible que la persona que cedió el paso acompañara su frase con un gesto, dirigiendo su mano hacia la puerta. Este tipo de gestos que señalan o dirigen la atención hacia algo se denominan “deícticos”. Otro tipo de gestos que usamos los humanos para comunicarnos son los simbólicos. En ellos no hay relación evidente entre el gesto y su significado. Por ejemplo decir adiós agitando la mano, o indicar que todo va bien con el pulgar hacia arriba.

Muchos animales se comunican con sonidos y en algunos casos, muchos menos, también lo hacen con gestos. Esto se ha estudiado sobre todo en primates, por motivos obvios de su parentesco con nosotros. De hecho, se han llegado a describir en los chimpancés hasta 66 gestos con 19 significados diferentes, incluyendo acércate, aléjate o acicálame. Estos gestos son fundamentalmente deícticos, el chimpancé llama la atención de un congénere y señala para comunicar su intención. Más allá de los primates se han descrito gestos deícticos en cuervos y urracas, indicando por ejemplo de dónde viene un depredador. Incluso en peces de coral (Plectropomus) que cazan en grupo, hay un señalamiento hacia el lugar en el que se ha escondido la presa.

Nunca se han descrito claros gestos simbólicos fuera de los primates. Hasta ahora. Porque un pájaro, el carbonero japonés (Parus minor), muy parecido a nuestro bonito carbonero común (Parus major), ha desarrollado un gesto especial para indicar a su pareja que entre primero al nido.

Esta no es la primera sorpresa que nos depara este pajarillo. En 2016 se describió un caso excepcional de composición sintáctica en su canto. El carbonero japonés tiene cuatro tipos de notas principales, A, B, C y D. Cuando combina ABC en una llamada, sus congéneres miran hacia los lados para detectar posibles amenazas. Cuando repite la nota D, los demás carboneros se agrupan para hacer frente a un peligro. Lo curioso del caso es que si la llamada (reproducida en un altavoz) consiste en ABC-D, los carboneros miran hacia los lados y luego vuelan hacia el altavoz. Pero si se reproduce una llamada D-ABC, los pájaros no reaccionan. Es decir, los dos mensajes requieren una sintaxis precisa para ser comprendidos.

El carbonero japonés acaba de sorprender de nuevo utilizando un gesto simbólico que significa “pasa tú primero”. Estas aves anidan en huecos de árboles con entradas estrechas o en cajas de anidamiento. Cuando los dos miembros de la pareja llegan con alimento para los pollos, uno de ellos, más frecuentemente la hembra, agita las alas. Esta es la señal para que el macho entre primero al nido. Cuando es el macho el que agita las alas, o la hembra no hace ninguna señal, es ésta la que precede al macho. Pueden ver este comportamiento en los siguientes vídeos:

Ya se conocían muchos patrones estereotipados de conducta en las aves que implican movimientos corporales precisos durante el cortejo. Pero lo fascinante de esta observación, aparentemente sencilla, es que los carboneros han desarrollado un gesto simbólico (agitar las alas), que no tiene ninguna relación con su significado: “después de ti”. Esto nos indica la importancia de conocer mejor los mecanismos de comunicación animal para comprender la evolución de los lenguajes, y en especial la del nuestro, un fenómeno que contribuyó decisivamente a hacernos humanos.

Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga

El artículo El pájaro que se comunica con un gesto simbólico se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El anciano que murió haciendo el amor con un fantasma

Sun, 2024/04/07 - 11:59

La Real Academia Española recoge tres acepciones para la palabra fascinar. Aunque son netamente diferentes, las dos primeras se ajustan muy bien al efecto que producen en nosotros los misterios. Nos ofuscan, alucinan, engañan, pero, también, nos atraen, encantan, seducen, cautivan.

La fascinación que nos producen explica, por ello, que haya personas que reaccionen a los misterios tratando de desvelarlos, esto es, de retirar el velo metafórico que los oculta de nuestra comprensión. Esto es lo que hace la chiquilla que desmonta el juguete que emite sonidos humanos, con la intención de conocer el origen de esos sonidos. Y es lo que hacemos quienes investigamos o hemos investigado en un laboratorio tratando de desentrañar los mecanismos implicados en el funcionamiento de un ser vivo o quienes analizan los registros de una parroquia tratando de perfilar la evolución demográfica de su comarca en el pasado.

El misterio es uno de los motores de la curiosidad humana, del afán por conocer la realidad.

Pero también nos puede ofuscar. Cuando nos enfrentamos a un misterio es posible que la seducción que causa nuble nuestra capacidad para discernir y caigamos presa de las supercherías más absurdas. Por esa misma razón, no es difícil que los misterios sean utilizados de forma artera por quienes encuentran la forma de beneficiarse de ese ofuscamiento.

La fascinación de los misterios

A Luis Alfonso Gámez le fascinan los misterios, así ha sido desde que era muy joven y así sigue siendo hoy. Además, se combinan en él una formación superior en historia y periodismo con una prolongada trayectoria profesional en prensa escrita. Ha sido durante años redactor de El Correo, y en gran parte de su ejecutoria profesional se ha ocupado, en especial, de la información científica. A nadie debe extrañar, por tanto, que haya dedicado parte de su ocio a la investigación de fenómenos misteriosos, a desvelar –él también– la naturaleza de esos ‘misterios’, a escribir sobre ellos en Magonia, y a denunciar, desde el Círculo Escéptico, las supercherías en las que algunos tratan de envolver la explicación de misterios supuestos o reales.

El anciano que murió haciendo el amor con un fantasma’ recopila una colección de historias con dos denominadores comunes: el misterio y la fascinación –entendida esta en su segunda acepción, el engaño, la ofuscación, la alucinación– que causa a muchas personas. Un tercer elemento, el interés en engañar a sus congéneres, no es común a todas las historias, pero es la motivación que impulsa a muchos de quienes han hecho de ellos un medio de vida.

misteriosFuente: menoscuarto Ediciones

Los ovnis, la Atlántida, el espiritismo, dioses extraterrestres, conspiraciones y otros supuestos misterios pasan por las páginas del libro y son diseccionados por su autor con inteligencia y un sutil sentido del humor. Todas las historias están debidamente documentadas y los episodios o casos que cuentan abarcan, en conjunto, desde mediados del siglo XIX hasta el presente. El libro está –como no podía ser de otro modo– muy bien escrito y su lectura es amena y, por momentos, divertida.

Las historias que narra Luis Alfonso no deben tomarse como meras anécdotas. Revelan debilidades humanas de cuya existencia hemos de ser conscientes y ante las que conviene mantener una actitud vigilante. Nadie es inmune a la credulidad injustificada. Todos podemos ser víctimas de la versión engañosa de la fascinación. Sobre nosotros no solo incide el atractivo del misterio; en ocasiones deseamos fervientemente creer lo que se nos presenta como extraordinario. Y nos afectan todo tipo de sesgos; nadie está exento de ellos.

Tomemos, a modo de ejemplo, una de las historias. En ‘El noble español con visión de rayos X’ leemos con asombro que personalidades de la talla del ingeniero Leonardo Torres Quevedo, del físico Blas Cabrera, o del escritor Ramón María del Valle Inclán salieron en defensa de Joaquín María Argamasilla de la Cerda y Elio, undécimo marqués de Santacara, quien pretendía tener visión de rayos X. En estos asuntos los magos profesionales llevan ventaja, porque dominan los trucos del ilusionismo: el gran Harry Houdini desenmascaró al marqués en Nueva York. Pero también Juan Negrín, el médico y fisiólogo que llegó a ser presidente de la República, y el escritor Luis Araquistáin se dieron cuenta de las trampas que Houdini le vio hacer.

Soy de la opinión de que no se debe dramatizar con la incidencia que sobre algunas personas tienen engañifas, trolas y patrañas como las que repasa Luis Alfonso en su libro. No es posible conducirse con total y absoluta racionalidad en todas las esferas de la vida. Y cuando alguien se siente mejor creyendo en alguno de estos bulos, prefiero que cada cual gestione sus creencias como le parezca o pueda, siempre y cuando esas creencias no desemboquen en daños a otras personas.

El impacto social de la credulidad

Pero a lo dicho hay de hacer excepciones. Porque no debe minusvalorarse el impacto social que tienen la credulidad y la extensión de patrañas. Sospecho –aunque esto no es, por supuesto, ninguna ley ni regla general– que es más fácil creer en una superchería cuando se cree en otras. La credulidad puede ser específica, dependiendo de las circunstancias, pero creo que la especificidad no es la norma y que, por ejemplo, quienes creen en ovnis es más fácil que crean en fantasmas. Y, por lo mismo, pueden creer en peligrosas terapias ‘alternativas’ o que las radiaciones de telefonía móvil son dañinas.

Es perjudicial que se extiendan bulos y falsas creencias en la sociedad. Los relacionados con la salud, en especial, pueden ser muy perjudiciales; aunque hay decenas de ejemplos, las actitudes en contra de las vacunas se han demostrado particularmente nocivas. Por otro lado, cuando se prescinde de las precauciones intelectuales que nos permiten limitar la susceptibilidad frente a posturas irracionales o a bulos anticientíficos, creo que es más fácil hacer lo propio también cuando esas posturas y bulos se refieren a materias de orden político. En este caso, el funcionamiento de la sociedad y la misma democracia se resienten, porque el ejercicio de una ciudadanía verdaderamente democrática exige contar con criterio bien formado, lo más ajeno posible a supercherías.

La imperiosa necesidad de pensamiento crítico

El pensamiento crítico debería ser un ingrediente básico de nuestro bagaje intelectual. Cuando hablo de pensamiento crítico no aludo a esas actitudes que consisten en criticar lo que dicen o hacen otros y, en especial, lo que dicen o hacen los adversarios políticos o quienes ostentan el poder. Eso puede obedecer a pensamiento crítico genuino, sí, pero también puede tener su origen en el puro sectarismo, sin matices. Con pensamiento crítico me refiero a otra cosa: nombro una forma de pensar que nos lleva a demandar las pruebas o las fuentes que avalan lo que se predica. Y, si es posible, a someterlo a contraste.

El pensamiento crítico nos ayuda a tomar mejores decisiones y facilita nuestras vidas. Desde el criterio que nos ilumina al adquirir este yogur y no aquel otro, hasta el que nos debe asistir a la hora de votar a esta o aquella opción política, el espectro de decisiones que se encuentra entre esos dos ejemplos extremos (por sus trascendencias dispares), se puede ver muy afectado por el análisis crítico de la información de que disponemos. Por esa razón es necesario cultivarlo y promoverlo. Para ello, pocas cosas se me ocurren más útiles que mostrar a la gente, a la mayor cantidad de personas posible, de qué naturaleza son y cómo operan los bulos, las conspiranoias, las posverdades, y sus fabricantes.

Conociendo esa faceta de la naturaleza humana quizás contemos con más y mejores defensas frente a ellos. Eso es lo que hace este libro y por eso me parece que obras como esta son muy útiles.

Título: El anciano que murió haciendo el amor con un fantasma. Y otras historias sobre lo paranormal

Autor: Luis Alfonso Gámez

Ed.  menoscuarto, 2024.

 

En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

Una versión de este texto de Juan Ignacio Pérez Iglesias apareció anteriormente en Lecturas y Conjeturas (Substack).

El artículo El anciano que murió haciendo el amor con un fantasma se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Naukas Bilbao 2023 – Invisible a los ojos

Sat, 2024/04/06 - 11:59

El gran evento de divulgación organizado por Naukas y la Cátedra de Cultura Científica volvió a Bilbao para celebrar su decimotercera edición en el gran Palacio Euskalduna los pasados 15 y 16 de septiembre de 2023.

briones

 

Carlos Briones, astrobiólogo de reconocido prestigio y gran divulgador científico, dio en Naukas 2023 una charla diferente a cualquier otra. En ella habla de asteroides, lo que en sí mismo no es una novedad, pero sí si uno habla de uno tan, tan especial para él.

Carlos Briones es Licenciado y Doctor en Ciencias Químicas  y Coordinador del Grupo de Evolución Molecular, Mundo RNA y Biosensores del Centro de Astrobiología (CSIC-INTA).



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2023 – Invisible a los ojos se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Constantes vitales de los bosques en tiempo real

Fri, 2024/04/05 - 11:59
Constantes vitalesFoto: Matthew Smith / Unsplash

Monitorizar nuestras constantes vitales de manera continua, con relojes inteligentes mientras hacemos deporte o mediante electrocardiógrafos cuando estamos enfermos en los hospitales, es una práctica muy común. Esta monitorización en tiempo real nos sirve tanto para optimizar nuestro rendimiento físico como para detectar umbrales de salud que puedan poner en riesgo nuestras vidas. Y es esencial porque facilita el diagnóstico, el tratamiento preciso y la optimización del funcionamiento fisiológico y el rendimiento. Al igual que ocurre con los humanos, monitorizar las “constantes vitales” de los bosques nos permite entender sus problemas y optimizar la toma de decisiones orientadas a su conservación y gestión sostenible.

Medir las constantes vitales de los bosques

Proteger los bosques se ha convertido en un reto acuciante, ya que su vulnerabilidad y los desafíos a los que se enfrentan son cada vez mayores. Un ejemplo es el fenómeno, ya global, de decaimiento caracterizado por la muerte masiva de árboles, que ocasiona pérdidas importantes, no solo de madera, sino también de servicios ecosistémicos esenciales, como la mitigación del cambio climático, la prevención de grandes inundaciones, los espacios recreativos, etc.

Vigilar la salud de los bosques es, por lo tanto, fundamental. Para ello disponemos de sensores medioambientales muy precisos para medir a alta resolución todo tipo de variables. Se trata de instrumentos que, al igual que un reloj inteligente o un electrocardiógrafo, nos permiten monitorizar, bajo condiciones de campo y a tiempo real, las “constantes vitales” de los bosques.

Muchos grupos de investigación desarrollan y aplican técnicas de monitoreo basadas en el empleo de sensores que permiten detectar cambios significativos en la salud de los bosques.

Diferentes tipos de sensores

Entre los avances tecnológicos que destacan en la investigación científica actual, se encuentran los sensores de medición de variables climáticas de suelo y aire. Registran con gran precisión y de forma continua, incluso minuto a minuto, factores clave como la disponibilidad de agua o las condiciones microclimáticas en las cuales crecen los árboles.

Otros sensores con gran potencial por su nivel de detalle son los dendrómetros digitales. Estos nos permiten monitorizar con gran precisión el crecimiento de los árboles, ya que miden de forma muy fiel las variaciones de engrosamiento y encogimiento de los troncos. Registran de forma continua “las palpitaciones” de los árboles que se pueden relacionar con el clima.

Otros sensores son los conocidos como medidores de flujo de savia, capaces de revelar, en tiempo real, cómo funciona el “sistema circulatorio” de los árboles.

Ejemplo de árbol monitoreado en campo con cámaras fotográficas, sensores de flujo de savia, dendrómetros y sensores de humedad y temperatura del suelo. Fuente: Raquel Esteban

Además de todo lo mencionado, también tenemos la capacidad de detectar, a través de índices obtenidos de imágenes de cámaras instaladas en torno a las especies, cambios imperceptibles para el ojo humano, como pequeñas transiciones de color en las hojas que nos brindan información clave sobre el rendimiento fotosintético.

Esta fina monitorización de las “constantes vitales” se puede posteriormente acoplar a otras tecnologías avanzadas, como el uso de imágenes de satélites y drones, para detectar estas transiciones de color en la vegetación a escalas espaciales más amplias. Así, no solo somos capaces de monitorizar individuos aislados, sino que podemos aprovechar todo el potencial de estas tecnologías para medir a escalas superiores, como a nivel de bosques, regiones, continentes e incluso a nivel global.

Por último, no podemos dejar de mencionar a la “internet de las cosas”, ya que nos permite tener acceso cómodamente desde nuestro lugar de trabajo o desde casa a todos los datos medidos por los sensores a tiempo real en el campo. Y supone un gran ahorro en infraestructuras y desplazamientos.

La línea entre la salud y la enfermedad

Monitorizar en detalle las “constantes vitales” de los árboles nos permite detectar sus “umbrales de salud”. Estos umbrales nos dan información critica sobre, por ejemplo, los niveles de agua en suelo por debajo de los cuales un árbol no puede sobrevivir o la temperatura máxima a partir de la cual deja de fotosintetizar de manera eficiente.

En los seres humanos, monitorizar nuestras constantes vitales puede significar la diferencia entre la vida y la muerte o entre ganar una medalla olímpica y sufrir una lesión. En los bosques, la monitorización a tiempo real es esencial para optimizar la toma de decisiones orientadas a su gestión sostenible. Y nos brinda la oportunidad de ayudar a mejorar su gestión y conservación y, por tanto, de tener bosques sanos que puedan mitigar el cambio climático y seguir proveyendo servicios ecosistémicos clave para nuestra sociedad.The Conversation

Sobre las autoras: Raquel Esteban, Profesora de Fisiología Vegetal, Universidad del País Vasco / Euskal Herriko Unibertsitatea; Ana-Maria Hereş, Investigadora, Transilvania University of Brașov; Francisco San Miguel Oti, Estudiante de doctorado, BC3 – Basque Centre for Climate Change; Jorge Curiel Yuste, Ikerbasque Research Professor, BC3 – Basque Centre for Climate Change y Lorena Ruiz de Larrinaga, Estudiante de doctorado, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Constantes vitales de los bosques en tiempo real se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Sofones, o como desplegar el universo

Thu, 2024/04/04 - 11:59

Es posible que pocas teorías de la física levanten tantas pasiones en el imaginario popular, a pesar de su complejidad, como la teoría de cuerdas ―que, en realidad, puede desdoblarse en varias―, y, aun así, rara vez es protagonista, en todo su esplendor, de las narrativas de ficción. Uno de los pocos que se ha atrevido con ella es el escritor chino Liu Cixin en su trilogía del recuerdo del pasado de la Tierra ―más conocida como trilogía de los tres cuerpos―, que se acaba de adaptar por segunda vez a la gran pantalla en forma de serie de televisión. Y no ha sido la única obra donde la ha utilizado. En su relato «Espejo», por ejemplo, aparece un ordenador de supercuerdas capaz de simular cualquier tipo de universo… lo cual también tiene cierto sentido cuando se pone en contexto la teoría.

sofonesTrilogía El recuerdo del pasado de la Tierra, de Liu Cixin, editada en España por Nova/Ediciones B.

En lo que la mayoría de físicos coincide es en que la teoría de cuerdas es «bella», pero tal vez se trate de una belleza fatal, dados los quebraderos de cabeza que se derivan de su propia naturaleza. En principio, la idea básica en torno a la cual gira todo el formalismo es sencilla: las partículas, en lugar de ser «bolitas», serían filamentos unidimensionales cuyos modos de vibración determinarían sus propiedades ―masa, carga…― y definirían qué tipo de partícula es ―un electrón, un quark…―. Y podría tratarse de un enfoque intuitivo, casi obvio, dado que la física está plagada de sistemas ondulatorios; los problemas surgen cuando se le trata de dar sentido a través de las matemáticas.

La teoría de cuerdas nació a finales de los años sesenta en el contexto del estudio de la interacción nuclear fuerte ―una de las cuatro fuerzas fundamentales, responsable de mantener los núcleos atómicos unidos, junto con la interacción débil, el electromagnetismo y la gravedad― cuando Gabriele Veneziano utilizó la función beta de Euler para explicar algunos fenómenos que se habían observado de forma experimental en el CERN. Poco después, en 1970, Yoichiru Nambu, Holger Nielsen y Leonard Susskind propusieron que la aproximación de Veneziano tenía sentido si se interpretaba que las partículas se comportaban como cuerdas vibrantes unidimensionales, aunque esta visión no terminó de cuadrar con los experimentos por más que otros investigadores ya comenzaran a introducir elementos «creativos», como dimensiones ―hasta veintiséis― adicionales. Cuando la cromodinámica cuántica se erigió, finalmente, como la mejor opción para explicar la interacción fuerte, aquella incipiente teoría de cuerdas pasó a mejor vida… hasta 1974, cuando John Henry Schwarz y Joël Scherk investigaron los modos de vibración de esas cuerdas y y descubrieron que uno de ellos podría corresponderse con la partícula mensajera del campo gravitatorio: el gravitón. Y el resto es historia.

Desde que la teoría de cuerdas mostró los primeros indicios de poder convertirse en una teoría del todo han corrido ríos de tinta sobre ella, tanto por parte de sus partidarios como de sus detractores. Porque, si bien es cierto que podría ser un buen punto de partida en nuestro afán por entender el universo, por el momento las dificultades que plantea, tanto a nivel teórico como experimental, superan con creces a sus posibilidades. Por un lado, se trata de un formalismo que está planteado a escalas del orden de la longitud de Planck ―1,616199(97) × 10-35 m―, lo que implica que, para poder demostrar su veracidad experimentalmente, necesitaríamos energías del orden de 10¹⁹ GeV ―el LHC se creó para alcanzar 14 TeV o 1,4⁴ GeV―. Por otro, se trata de una herramienta matemática tan amplia y que admite tantas soluciones, que no todas tendrían por qué representar fenómenos físicos, por no mencionar que muchas de ellas llevan a sistemas inestables o caóticos. Estamos hablando de que la teoría de cuerdas podría describir del orden de 10⁵⁰⁰ tipos de universo, luego ¿cómo podríamos encontrar las condiciones que definen el nuestro en esa inmensidad? Y, finalmente, está la cuestión de la multidimensionalidad que es, en realidad, lo que subyace a todo lo anterior. Además de las cuatro dimensiones que observamos en nuestra vida diaria, la teoría de cuerdas se sostiene sobre otras seis, denominadas «compactas» o «arrolladas», que podrían entenderse como «aburruñadas» en el propio espacio-tiempo en formas geométricas muy específicas, y que, al menos con los medios actuales, no podríamos detectar. Como se puede intuir, todo esto supone un terrible quebradero de cabeza para la ciencia… pero, por otro lado, es una puerta abierta a infinitas posibilidades para la ciencia ficción.

sofonesUn sector del tunel del LHC, en el CERN, la mejor herramienta que tenemos ahora mismo para explorar la física de partículas.
Créditos: Wikimedia Commons/CC BY-SA 3.0/Maximilien Brice

Decía Stanley Schmidt, editor de la histórica revista Analog Science Fiction and Fact desde 1978 hasta 2012 ―y sucesor de los históricos John W. Campbell y Ben Bova― que «cualquier cosa que nadie pueda probar que sea imposible es juego limpio en ciencia ficción», refiriéndose a que, siempre que exista una base científica real, es lícito que la ciencia ficción juegue en el límite del alcance de la ciencia y especule más allá. Eso es lo que hace Liu Cixin en su trilogía ―y en toda su obra, en realidad― y por eso funciona tan bien. Iría incluso más allá: por eso nos hace soñar… soñar con el futuro de la ciencia, con las maravillas que un día podría llegar a revelarnos.

En la trilogía de los tres cuerpos Liu Cixin utiliza la multidimensionalidad de la teoría de cuerdas como excusa para hacer papiroflexia con el espacio-tiempo. Crea, así, crear todo tipo de tecnologías indistinguibles de la magia con el mero artificio de desplegar dimensiones arrolladas, como es el caso de los sofones.

En realidad, los sofones que crea la imaginación de Liu Cixin tienen menos misterio del que parece, pero ese barniz abstracto que les da el despliegue de las dimensiones adicionales los convierte en algo muy exótico. Partiendo de la base de que un protón, como cualquier otra partícula según la teoría de cuerdas, es un filamento vibrante unidimensional que está definido en un espacio de diez dimensiones ―once, si tenemos en cuenta la teoría M, que unificaría las diferentes versiones―, «lo único» que hacen los trisolarianos es volver macroscópica una de esas dimensiones arrolladas, convirtiendo el protón en un inmenso objeto bidimensional ―en la novela cubre toda la superficie de Trisolaris como si fuera un espejo―. Después, de nuevo utilizando conceptos de física de partículas, se imprime en él una extensa maraña de circuitos integrados. El último paso de los trisolarianos es, simplemente, volver a compactificar la dimensión y, por tanto, comprimir de nuevo la información ―como una especie de fichero .zip―.

Liu Cixin parte de la especulación de de que cada dimensión arrollada esconde una complejidad tan rica que, si se consiguieran desplegar todas, se podría llegar a codificar en una sola partícula toda la información del universo, aunque ya plantea como algo tremendamente complicado desplegar una sola.

Un sofón, por tanto, no es más que un superordenador, o incluso una especie de IA al borde de la singularidad tecnológica, que, gracias a un pequeño truco de prestidigitador basado la teoría de cuerdas, consigue despertar nuestro sentido de la maravilla mucho más que si Liu Cixin nos lo hubiera contado de otra forma. Pero hay algo más…

Como último apunte, antes dije que las dimensiones compactas de la teoría de cuerdas se definían sobre formas geométricas muy específicas: se conocen como variedades de Calabi-Yau, algo que a la mayoría seguramente no le dirá mucho, pero que tienen aspectos como este:

sofonesLas dimensiones compactas de la teoría de cuerdas se definen sobre variedades de Calabi-Yau.  Fuente: Wikimedia Commons/CC BY-SA 2.5/Lunch

… y ahora invito a cualquiera que esté viendo la serie de Netflix a que se fije cuidadosamente en cómo aparecen representados los sofones.

Bibliografía

Greene, Brian (2003). El universo elegante. Crítica.

Hossenfelder, Sabine (2015). Will the LHC be able to test string theory? Medium.

Liu, Cixin (2016). El problema de los tres cuerpos. Nova.

Liu, Cixin (2021). Espejo. En Sostener el cielo. Nova.

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo Sofones, o como desplegar el universo se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

¿Cómo ser un buen profesor?

Wed, 2024/04/03 - 11:59

En la Universidad de Cambridge (Reino Unido) existe una sociedad matemática, formada principalmente por estudiantes (de matemáticas), llamada The Archimedeans / Los arquimedianos y que fue fundada en 1935. Entre los objetivos de esta sociedad matemática está “fomentar el disfrute y la comprensión de las Matemáticas entre los estudiantes de todas las disciplinas, y promover la causa de las Matemáticas y de los matemáticos en la Universidad y en otros lugares”. Esta sociedad publica dos revistas: i) la revista matemática Eureka, con el objetivo de que sea publicado un número al año, aunque desde su primer número en 1939 se han publicado tan solo 65 números, el último en 2018, y en la que han colaborado matemáticos y científicos de la talla de Paul Erdös, Martin Gardner, Douglas Hofstadter, Godfrey H. Hardy, Béla Bollobás, John Conway, Stephen Hawking, Roger Penrose, Ian Stewart, Chris Budd, el medalla Fields Timothy Gowers o el premio Nobel Paul Dirac, entre otros; ii) y la revista de problemas de matemáticas, QARCH.

profesorPortada y contraportada del número 3 de la revista matemática Eureka, de la sociedad matemática Los arquimedianos (Universidad de Cambridge)

En el número 53 (publicado en febrero de 1994) de la revista Eureka, el matemático Jonathan R. Partington (1955), profesor emérito de la Universidad de Leeds (Reino Unido), y que fue estudiante del Trinity College de la Universidad de Cambridge, publicó un jocoso artículo titulado How to be a Good Lecturer (que yo he traducido ¿Cómo ser un buen profesor?). Este artículo se divide en tres partes, la primera con el mismo título How to Be a Good Lecturer / ¿Cómo ser un buen profesor?, la segunda titulada How to Be a Good Member of a Lecture Audience (que conectada con la anterior podríamos traducir ¿Cómo ser un buen estudiante de una clase?) y la tercera, How to Be a Good Exam Invigilator (¿Cómo ser un buen vigilante de un examen?). En esta entrada del Cuaderno de Cultura Científica traemos la traducción que he realizado de la primera parte, sobre cómo ser un buen profesor, las otras dos partes quizás para otra ocasión.

Fotografía de una conferencia organizada por la sociedad matemática de Los arquimedianos en la Universidad de Cambridge ¿Cómo ser un buen profesor?

“Bueno … Hola y bienvenidos a la primera clase del curso … ¡eeeh! … ¡escuchad, he dicho hola! … escuchad, me gustaría empezar ya … ¿vais a callaros? ¡¡QUE OS CALLÉIS, POR FAVOR!! ¡Oh, gracias! No me importa que habléis, pero si lo hacéis en voz baja … Yo no pedí impartir este curso … ¿Sabéis? Yo quería impartir un curso de álgebra … se lo dije … que yo no sabía nada de análisis matemático …”

“… Veamos, este curso está dedicado a los números complejos y aquí tengo una lista de libros recomendados … ¡eeeh! Bueno, no, parece que me la he olvidado en el despacho … ¡no importa! De hecho, están todos agotados … Empecemos escribiendo una definición … ¿Dónde está la tiza? ¡Ah, aquí está! SNAP [esta onomatopeya está relacionada con algo que se rompe, podría ser el sonido de la tiza que se rompe al intentar el profesor escribir en la pizarra] … ¡ahhh! Permitidme que coja otro trozo … THUD [esta onomatopeya, que suele relacionarse con un golpe, podría significar que el profesor se ha caído de la pequeña tarima destinada al profesor, donde está la pizarra para la clase], no son muy grandes estas plataformas, sigo cayéndome de ellas …”

“… Ahora, la definición 1.1 es … ¡ah!¡mmm! … ¡Perdón! Todavía no he dicho cómo se llama esta sección … ¡oh! aunque parece que no tiene título … de todos modos, es sobre la convergencia de series de potencias … hicisteis algo parecido en la asignatura de análisis real, ¿no?, ¿Os acordáis? … Bueno, vuestro profesor debería habéroslo contado en sus clases, yo no tengo tiempo ahora para meterme en ese tema …”

“… Ahora, la definición 1.1 … [escribe en la pizarra] … ¿Podéis leer esto los que estáis sentados atrás? … ¿no? Pues tendréis que poneros delante … Ahora que lo pienso, yo tampoco puedo leerlo … quizás si enciendo esta luz … ¡ah, no! ¡esa no! ¡quizás esta otra! ¡oh! ¡vaya! supongo que el cable estará roto … Bueno, mirad este símbolo, es una sigma mayúscula … ¿sí? ¿cuál es el problema?… sí, bueno, parece que el verde es el único color que queda en la caja de tizas, probablemente porque nadie en su sano juicio lo usa, por eso lo han dejado ahí para mí …”

“… Bueno, escuchad … quizás, si lo explico con palabras … de todas formas, está todo en los libros de texto … aunque no puedo ayudaros si no los encontráis en la biblioteca, parece que la gente se los come o algo parecido … Bueno, ahora dibujaré un diagrama … no hace falta que lo copiéis exactamente ya que está un poco mal … de todas formas, es el diagrama 2 … ¡Buena pregunta! … Creo que he olvidado dibujar el diagrama 1 … de todos modos, permitidme que os diga que tampoco ayuda mucho …. ¡ufff! Dejadme un momento que me quite la chaqueta … RIP [onomatopeya que nos dice que se ha rasgado una tela o similar] … vaya, yo mismo cosí ese botón, creo que se nota, ¿no? …”

“… Ahora, permitidme que me extienda un poco sobre la historia del tema que nos ocupa … Fue descubierto por Cauchy … o quizás era Gauss … uno de los dos … y envió una copia de su artículo a otra persona que, bueno, … en cualquier caso, es un tema muy importante y tiene muchas aplicaciones como … ¡ehhh! … como … Bueno, veréis aplicaciones en las otras asignaturas que estudiáis … ¡espero! … por supuesto, en ellas no se utiliza la misma notación, pero tampoco tienen la misma idea de rigor que se tiene en esta asignatura … Y ahora escribamos el primer resultado, Lema 1.2 …”

“… Lema 1.2 … ¡Oh! En realidad aún no he definido lo que es el radio de convergencia … todavía puedo … Dejadme que lo escriba y podemos decidir más tarde qué significa … Bueno, parece que todavía me quedan unos minutos, así que será mejor que empiece ya con la demostración … sea n esto, y r esto, y esto otro v, y sea n … pensándolo bien, ya estoy utilizando n, luego lo llamaré nu, perdón, no, nu es una letra griega, la tenéis que haber visto antes, ya sabéis las letras griegas alfa, etcétera … no, esta es nu, está bien, llamadlo v si queréis, aunque ya estamos utilizando v también, pero no causará confusión …”

“… ahora multiplicad esto y obviamente lo que obtenemos es … ¡ehhh! … claramente … ¡mmm! ¡oh! … esto no puede estar bien … ¿Qué he hecho mal aquí? ¿Podéis ver el error? … quizás he olvidado un signo menos en algún lugar … Dejadme que lo busque … ¡Oh! Es hora de terminar, ¿no? … Bueno, dadme solo 5 minutos más y lo terminaré … ¡Oh! Tal vez debería hacer esto con más cuidado la próxima vez … ¡Ah! Eso debería haber sido un nu, tal vez no, debería ser una v, ¡oh! es una r, ¡oh! Bueno, escuchad, lo terminaré en la siguiente clase … estoy seguro de que la mayoría de los detalles están bien … es algo muy elemental después de todo, todavía no hemos hecho nada que no sea trivial.”

Cambridge IV (2011), de Alejandro Guijarro, perteneciente a la exposición Momentum, que podéis ver en su página web Alejandro Guijarro

Bibliografía

1.- Jonathan Partington, How to be a Good Lecturer, Eureka n. 53, 1994.

2.- David Wells, El curioso mundo de las matemáticas, Gedisa editorial, 2000.

 

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo ¿Cómo ser un buen profesor? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El cerio y la evolución química del universo

Tue, 2024/04/02 - 11:59
Detalle de la tabla periódica de los isótopos. Fuente: CIAAW / IUPAC

La mayoría de los elementos más pesados del Universo se forman en las estrellas mediante uno de los llamados procesos de captura de neutrones, en los que un núcleo atómico absorbe uno o más neutrones. En el proceso lento de captura de neutrones, o «proceso s», las absorciones se distribuyen en el tiempo. Como tal, cada evento de absorción da como resultado bien un núcleo estable con la misma cantidad de protones pero un neutrón adicional, o un núcleo inestable, que luego se desintegra radiactivamente para producir el núcleo del siguiente elemento en la tabla periódica: el que tiene un protón adicional.

Utilizando los modelos actualmente disponibles del proceso s se han predicho correctamente la abundancia onservada de elementos tan pesados como el bario (56 protones), el lantano (57 protones), el praseodimio (59 protones) y el neodimio (60 protones) en estrellas que se sabe que se enriquecen a través del proceso s. Pero los modelos parecen fallar en el caso del cerio (58 protones), ya que las predicciones de abundancia de este elemento en algunos cúmulos globulares de baja masa y metalicidad han discrepado hasta en un 30% con las observaciones. Es llamativo que el modelo funcione para los elementos vecinos y que discrepe así para un elemento solo.

El cerio tiene otra característica interesante: puede formar el llamado núcleo de número mágico. La mayor parte del cerio del Universo (89%) existe como cerio-140, un isótopo del elemento que contiene 58 protones y un número mágico de 82 neutrones. Los núcleos de números mágicos son particularmente estables y, por lo tanto, a menudo existen en mayor abundancia que otros isótopos del mismo elemento o de elementos vecinos en la tabla periódica.

Abundancia relativa de los isótopos del cerio.  Fuente: CIAAW / IUPAC

Al igual que otros núcleos de números mágicos, la alta estabilidad del cerio-140 surge de su baja sección transversal de captura de neutrones, que es la probabilidad de que un núcleo del isótopo absorba un neutrón entrante. También es el parámetro medido en nuevos experimentos en el CERN realizados por la Colaboración n_TOF. El análisis de los datos indica que la sección transversal de captura de neutrones es un 40% mayor que la medida en experimentos anteriores, que tenían menor precisión. Una sección transversal más alta hace que sea más probable que el cerio-140 capture un neutrón entrante y menos probable que permanezca en su forma de cerio-140. Esto, a su vez, lleva a predecir una menor abundancia de cerio-140 que antes.

La sección transversal más alta también tiene implicaciones para la abundancia de los núcleos que se forman más adelante en la cadena del proceso s. Dado que es más probable que el cerio-140 capture un neutrón y forme un núcleo más pesado, el proceso s puede continuar más rápido, creando una mayor abundancia de núcleos más pesados.

La discrepancia entre la abundancia de cerio-140 predicha por la teoría y la medida en las observaciones de las estrellas de baja metalicidad sugiere que un proceso distinto al proceso s también podría producir este núcleo en esas estrellas. Una posibilidad es que otra vía de nucleosíntesis, el llamado proceso i, esté involucrada en la producción de cerio. Este proceso de captura de neutrones propuesto pasa por alto algunos núcleos estables involucrados en el proceso s y, si desempeñara un papel importante, podría cambiar las abundancias relativas de los elementos.

En febrero, utilizando una técnica diferente, otro equipo encontró un valor de la sección transversal aproximadamente un 15% menor que el medido anteriormente con esa técnica. Nadie sabe el origen de la discrepancia entre los dos nuevos valores. Para descubrir exactamente qué está pasando, es necesario realizar más mediciones nucleares.

Referencias:

S. Amaducci et al. (n_TOF Collaboration)(2024) Measurement of the 140Ce(n, γ) cross section at n_TOF and its astrophysical implications for the chemical evolution of the Universe Phys. Rev. Lett. doi: 10.1103/PhysRevLett.132.122701

R. N. Sahoo et al. (2024) Stellar s-process neutron capture cross section of Ce isotopes Phys. Rev. C. doi: 10.1103/PhysRevC.109.025808

K.Wright (2024) Heavy Element Quandary in Stars Worsened by New Nuclear Data Physics 17, 47

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El cerio y la evolución química del universo se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La corteza de hielo de Europa

Mon, 2024/04/01 - 11:59

Europa, el satélite de Júpiter, es uno de los mundos con mayor interés astrobiológico de todo el Sistema Solar gracias al océano que pensamos que puede existir debajo de su corteza congelada. El espesor de esta corteza y sus características tanto físicas como químicas podría contarnos algunas pistas sobre la historia geológica de este mundo, pero, al mismo tiempo, también podría tener una gran influencia a la hora de transformar este mundo en un lugar habitable, ya que su comportamiento puede facilitar el intercambio de materia entre el interior y el exterior de este océano, así como mitigar la pérdida de calor que congelase al océano rápidamente en ausencia de una fuente de energía interna.

Por desgracia, no son muchos los datos que tenemos todavía sobre su corteza a pesar de las misiones que se han situado en órbita al sistema joviano -como lo son la Galileo en la década de los 90 o la Juno, actualmente en órbita- aunque en la década de 2030, si todo va bien, tendremos las sondas Europa Clipper y JUICE tomando nuevos datos que podrían arrojar algo de luz y confirmar nuestras teorías.

Europa¿Cómo es la corteza de Europa? ¿Fina o gruesa? Los autores de un nuevo estudio sugieren que estamos ante el segundo caso. Imagen cortesía de NASA/JPL/Michael Carroll.

Como hemos dicho en la introducción, uno de los asuntos de interés es el espesor de la corteza, por lo que distintos equipos de científicos han intentado calcular este valor, dando como resultado rangos que oscilan entre los 10 y los 35 kilómetros estudiando distintos aspectos como las proporciones entre el diámetro y la profundidad de los cráteres, modelos termodinámicos e incluso simulaciones sobre como la capa de hielo se pliega ante distintos esfuerzos, pero como podemos ver, la horquilla es muy grande (Bray et al. 2014; Billings & Kattenhorn 2005; Quick & Marsh, 2015; Nimmo et al. 2007).

Pero recientemente, otro equipo de científicos ha propuesto una nueva y singular forma de calcular el espesor de la capa de hielo en un artículo publicado en Science Advances. Wakita et. al (2024) plantea el uso de simulaciones y el estudio de la topografía de las cuencas multi-anillo para averiguar este dato. Si, es cierto que ya se ha usado la topografía anteriormente para este menester, pero ahora se centra en unas formas muy concretas y menos abundantes.

Quienes nunca hayan escuchado este término -el de cuenca multi-anillo- nos referimos a una serie de estructuras concéntricas que podemos encontrar en las superficies planetarias -también las hay en la Luna y en la Tierra, por ejemplo- que se han formado como consecuencia de grandes impactos.

EuropaLa cuenca de impacto de Tyre es una de las estudiadas en este nuevo artículo. Es una estructura de impacto de unos 140 kilómetros de diámetro en la que se aprecia perfectamente la estructura en anillos concéntricos. Desde su formación incluso ha sufrido procesos que han alterado su forma, lo que nos ayuda a apreciar que Europa todavía tiene cierto grado de actividad geológica. Imagen cortesía de NASA/JPL/ASU.

La formación de estas cuencas y su estructura deberían de ser sensibles a las propiedades de la capa de hielo donde se produce el impacto -y probablemente a las subyacentes-, de tal modo que realizando distintas simulaciones para distintos espesores de hielo, conductividades térmicas y parámetros de impacto se pueden establecer comparaciones con el relieve que hoy vemos y podríamos llegar a conocer el verdadero espesor de esta manera indirecta.

El resultado de estas simulaciones muestra que la capa de hielo debe de medir más de 20 kilómetros de espesor -o potencia si hablamos en términos geológicos- para poder sostener la estructura en anillos concéntricos que observamos. Este dato es crucial, ya que supera algunas de las estimaciones anteriores y añade un volumen de hielo considerable alrededor del océano de Europa.

Siendo más concretos, el modelo consistiría en dos capas: una capa superior rígida de entre unos seis y ocho kilómetros de espesor cuya forma de transferencia de calor sería a través de la conducción, y bajo de esta una capa de hielo a mayor temperatura y con procesos de convección activos.

La presencia de la capa externa sobre una capa más interna en convección podría indicar un gradiente geotérmico complejo en la corteza, algo crítico para mantener el océano en estado líquido la mayor cantidad de tiempo posible: la capa externa actuaría en cierto modo como un aislante que ralentiza la pérdida de calor interno hacia el espacio, permitiendo una mayor duración temporal del océano, algo muy importante de cara al origen y mantenimiento de la vida.

EuropaOtra de las grandes cuencas multi-anillo de Europa, Callanish, vista de cerca por la sonda Galileo en el año 2000. Cortesía de NASA/JPL.

Pero al mismo tiempo podría ser un problema: Una capa externa de mayor espesor supone un reto para la existencia de mecanismos de intercambio directo de materia -como nutrientes o compuestos orgánicos, por ejemplo- entre el exterior y el interior de Europa, aunque obviamente siempre pueden existir puntos o bien donde el gradiente geotérmico o la existencia de fracturas facilite este intercambio, aunque con una corteza gruesa podría ser un proceso mucho más restringido.

¿Qué certeza tienen los autores del estudio sobre estos resultados? Junto con la topografía observada, las simulaciones han sido validadas calculando el esfuerzo radial, ya que aporta la posibilidad de cuantificar de una manera numérica los patrones de deformación asociados a estas cuencas multi-anillo y, por lo tanto, valga la redundancia, los patrones topográficos observados. Estos esfuerzos radiales ayudan a medir hasta donde llegan los fenómenos de extensión y compresión producidos como consecuencia del impacto y también como respuesta de la propia corteza.

Sea como sea, probablemente todavía tardaremos una década -o incluso algo más- en verificar de una manera empírica estos estudios a través de las nuevas misiones que estudien el sistema joviano con instrumentos más modernos que nos permitan, quizás por fin, conocer la estructura interna de un cuerpo tan interesante como Europa.

Referencias:

Shigeru Wakita et al.  (2024) Multiring basin formation constrains Europa’s ice shell thickness Sci. Adv. doi: 10.1126/sciadv.adj8455

Moore, J. M., Asphaug, E., Belton, M. J. S., Bierhaus, B., Breneman, H., Brooks, S. M., Chapman, C. R., Chuang, F. C., Collins, G. C., Giese, B., Greeley, R., Head, J. W., Kadel, S. D., Klaasen, K. P., Klemaszewski, J. E., Magee, K. P., Moreau, J. W., Morrison, D., Neukum, G., . . . Williams, K. K. (2001) Impact features on Europa: Results of the Galileo Europa Mission (GEM). Icarus doi: 10.1006/icar.2000.6558

Bray, V. J., Collins, G. S., Morgan, J. V., Melosh, H. J., & Schenk, P. (2014) Hydrocode simulation of Ganymede and Europa cratering trends – How thick is Europa’s crust? Icarus, doi: 10.1016/j.icarus.2013.12.009

Billings, S. E., & Kattenhorn, S. A. (2005) The great thickness debate: Ice shell thickness models for Europa and comparisons with estimates based on flexure at ridges Icarus doi: 10.1016/j.icarus.2005.03.013

Quick, L. C., & Marsh, B. D. (2015) Constraining the thickness of Europa’s water–ice shell: Insights from tidal dissipation and conductive cooling Icarus doi: 10.1016/j.icarus.2015.02.016

Nimmo, F., Thomas, P. C., Pappalardo, R., & Moore, W. B. (2007) The global shape of Europa: Constraints on lateral shell thickness variations Icarus doi: 10.1016/j.icarus.2007.04.021

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo La corteza de hielo de Europa se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El problema de los tres cuerpos

Sun, 2024/03/31 - 11:59
tres cuerposEl problema de los tres cuerpos consiste en determinar el movimiento de tres cuerpos sometidos a la gravedad mutua. Esta ilustración representa los seis planetas del sistema HD110067, que crean juntos un fascinante patrón geométrico.
Thibaut Roger/NCCR PlanetS, CC BY-SA

El problema de los n-cuerpos se planteó por primera vez en el concurso aniversario patrocinado por el rey Oscar II de Suecia para celebrar el sexagésimo aniversario de su nacimiento, que tuvo lugar en 1889. Y es un problema que siglo y medio después no ha logrado resolverse. Que nadie espere que lo resuelva la serie de Netflix que lo integra en la ficción.

Antes de Netflix  

En el año 2004 se publicó en España una novela de crímenes titulada La incógnita Newton. Su título original era The three body problem (El problema de los tres cuerpos) y su argumento gira en torno a la misteriosa muerte de tres matemáticos que trabajan en la búsqueda de la solución al famoso problema de los n-cuerpos. Esta novela, firmada por Catherine Shaw, es muy interesante desde el punto de vista de la divulgación matemática.

tres cuerposEl problema de los tres cuerpos, de Catherine Shaw, pseudónimo de la investigadora en teoría de números Lila Schneps.

Dos años después de esta primera novela se publicó la primera parte de una trilogía de ciencia ficción del escritor chino Liu Cixin con el mismo título, El problema de los tres cuerpos. Y su obra es la que ha dado lugar a la serie de Netflix que promete convertirse en uno de los fenómenos mediáticos más relevantes de la temporada. Detrás están los productores de la también célebre Juego de Tronos, David Benioff y Daniel Brett Weiss.

Ficción sí, ciencia no tanta

El título de la serie y de la novela hace alusión al comportamiento de Trisolaris, un enigmático planeta que orbita en un sistema de tres estrellas, creando un caos gravitatorio que da lugar a ciclos de extremos climáticos impredecibles. El planeta Trisolaris (con tres soles) padece alternativamente etapas estables, con vida similar a la terrestre, y estaciones caóticas e infernales, en las que en unos segundos la temperatura puede alterarse en cientos de grados, lo que lo convierte en un infierno.

En la ficción, hay un juego de realidad virtual que se llama Tres Cuerpos que simula el comportamiento de tres cuerpos con campos gravitacionales erráticos, lo que está ocurriendo en el universo trisolariano. Explicar cómo se comportan podría solucionar sus problemas climáticos universales. Pero los matemáticos, en la vida real, no encuentran solución al problema, y la propuesta un tanto naif de la serie es que un friki de los videojuegos tiene más suerte.

No es la primera obra de ficción que se reviste de ciencia como tirón, sin que hable de ciencia. Si alguien espera encontrar respuesta al problema de los n-cuerpos, mejor que no se acerque.

Ahora, vamos al meollo matemático.

El problema del universo trisolariano

El problema consiste en determinar el movimiento de tres cuerpos sometidos a la gravedad mutua. El movimiento de los tres puede ser caótico o regular, y puede terminar en una desintegración del sistema. Buscar soluciones posibles ha motivado el análisis y estudio de una parte importantísima de la matemática, los sistemas dinámicos (la teoría del caos es un ejemplo, dentro de los casos de dinámica no lineal), que en la actualidad plantea multitud de cuestiones abiertas en proceso de investigación.

El primero en estudiarlos fue Newton. Gracias a sus leyes, dados dos cuerpos de cualquier masa, sometidos a atracción gravitacional mutua y partiendo de unas posiciones y velocidades dadas, podemos determinar, en cualquier instante, sus posiciones y velocidades. Si el sistema solar estuviera formado por el Sol y un único planeta, este seguiría una órbita elíptica y podríamos determinar con exactitud dónde va a encontrarse en cualquier momento. Pero cuando el sistema consta de más de dos cuerpos, resolver las ecuaciones de movimiento resulta realmente complicado.

Tres cuerpos y el caso de los asteroides troyanos

Para tres cuerpos, los matemáticos han encontrado un pequeño número de casos especiales en los que las órbitas de las tres masas son periódicas.

En 1765, Leonhard Euler pudo describir con matemáticas un modelo en el que tres masas comienzan en línea y giran para permanecer alineadas. Sin embargo, tal conjunto de órbitas es inestable y no se encuentran en ningún lugar del sistema solar.

En 1772, Joseph-Louis Lagrange identificó una órbita periódica en la que tres masas se encuentran en los vértices de un triángulo equilátero. En este caso, cada masa se mueve en una elipse de tal forma que el triángulo formado por las tres siempre permanece equilátero. Los llamados asteroides troyanos de Júpiter se mueven de acuerdo a este esquema. Forman un triángulo con Júpiter y el Sol. Hasta 2021 se han descubierto 9 800 asteroides troyanos de Júpiter distintos.

Posteriormente, Henri Poincaré y otros demostraron que, en general, es imposible obtener una solución general, expresada como una fórmula explícita, al problema de los tres cuerpos. Es decir, dados tres cuerpos en una configuración aleatoria, no se puede predecir con precisión qué trayectoria seguirían.

La órbita en forma de ocho

En 1993, Cristopher Moore, descubrió, mediante cálculos informáticos, que tres masas iguales pueden perseguirse alrededor de la misma curva en forma de ocho en el plano. Y en el año 2000, los matemáticos Richard Montgomery (Universidad de California en Santa Cruz) y Alain Chenciner (Universidad París VII-Denis Diderot) redescubrieron la órbita en forma de ocho descrita por Moore, y encontraron una solución exacta a las ecuaciones de movimiento para tres cuerpos que interactúan gravitacionalmente.

tres cuerposLa órbita en forma de ocho para el problema de los 3 cuerpos. Animación de Michael Nauenberg, profesor emérito de Física de la Universidad de California en Santa Cruz.

Carlès Simò (Universidad de Barcelona) ha demostrado mediante simulaciones por ordenador que la órbita en forma de ocho es estable, que persiste incluso cuando las tres masas no son exactamente iguales y puede sobrevivir a una pequeña perturbación sin alteraciones graves.

Los sistemas planetarios extrasolares

La posibilidad de que exista un sistema de tres cuerpos así en algún lugar del universo es muy pequeña. Sin embargo, el descubrimiento de sistemas planetarios extrasolares inusuales abre nuevos escenarios espacio-temporales en los que podrían producirse tales movimientos.

La existencia de la órbita en forma de ocho de tres cuerpos ha llevado a los matemáticos a buscar órbitas similares que involucraran más masas.

Simò ha encontrado cientos de soluciones exactas para el caso de n masas iguales que recorren una curva plana fija, aunque no son estables. También se han modelizado órbitas tridimensionales. A estas estructuras y sus trayectorias periódicas se las ha bautizado como coreografías.

Así, admitiendo la ficción, el universo trisolariano podría estar formado por planetas que describen una órbita de ochos, pero esto es algo que no va a contar la serie de Netflix.The Conversation

Sobre el autor: Alfonso Jesús Población Sáez, Profesor Titular en Dpto. Matemática Aplicada, Universidad de Valladolid

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo El problema de los tres cuerpos se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Naukas Bilbao 2023 – La última de Vermeer

Sat, 2024/03/30 - 11:59

El gran evento de divulgación organizado por Naukas y la Cátedra de Cultura Científica volvió a Bilbao para celebrar su decimotercera edición en el gran Palacio Euskalduna los pasados 15 y 16 de septiembre de 2023.

vermeer

 

Sin lugar a dudas el artista más veces citado y explicado en las charlas de Naukas Bilbao ha sido el pintor neerlandés Vermeer. Esta charla de Oskar González aborda como se contribuye a identificar desde la ciencia la autenticidad de un Vermeer y es, posiblemente, el broche de oro a esa tradición. Incluye un sentido homenaje a otro gran divulgador de la ciencia en Vermeer, Manu Arregi, fallecido en 2022.

Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU. Además es el autor de la sección kimikArte del Cuaderno de Cultura Científica y del libro Por qué los girasoles se marchitan fruto, en parte, de ella.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2023 – La última de Vermeer se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Redefiniendo el embrión humano

Fri, 2024/03/29 - 11:59

Iñigo de Miguel Beriain, investigador del Grupo de Investigación en Ciencias Sociales y Jurídicas aplicadas a las Nuevas Tecnociencias de la UPV/EHU, ha publicado un artículo en el que se aporta una perspectiva legal para ayudar a identificar una definición universalmente aceptable de embrión, lo que podría facilitar y unificar su regulación en diferentes países. Así, se propone que cualquier célula o grupo de células celular con la capacidad inherente de desarrollarse hasta dar origen a un ser humano debería considerarse embrión.

embriónFuente: UPV/EHU

La biotecnología puede contribuir decisivamente a mejorar el conocimiento y control de las primeras etapas de la vida humana. Sin embargo, este escenario genera controversias desafiantes desde el punto de vista ético y jurídico. No en vano, pocos temas biotecnológicos son más controvertidos que los relacionados con los embriones humanos. Sin embargo, hay un aspecto que permanece poco explorado en los debates recientes. Aunque el estatus moral del embrión ha sido una cuestión crucial en las discusiones públicas, la delimitación precisa de lo que es un embrión humano y su distinción de otras entidades similares ha adquirido una importancia primordial. No se trata de un problema meramente semántico, sino normativo, que tiene importantes consecuencias prácticas para la investigación.

En ese sentido, diversos avances científicos y tecnológicos en biología reproductiva han obligado a revisar la definición de embrión humano en las dos últimas décadas. La posibilidad de generar embriones humanos a través de procedimientos diferentes a la fecundación, como la transferencia nuclear, y el desarrollo de las tecnologías que hoy en día permiten generar modelos celulares capaces de imitar estructuras embrionarias han puesto en tela de juicio el término científico de embrión, lo que tiene repercusiones tanto éticas como jurídicas.

“Los desarrollos tecnológicos plantean a veces la necesidad de repensar categorías conceptuales que en otros momentos se daban por sentadas. Ahora mismo ya no es posible sostener que un embrión es siempre y solo el resultado de una fecundación”, afirma de Miguel.

Iñigo de Miguel ha publicado junto con Jon Rueda, de la Universidad de California-San Diego, y Adrián Villalba, de la Universidad de Granada, un artículo en el que reflexionan sobre diferentes definiciones jurídicas de un embrión humano y aportan una definición sólida desde una perspectiva legal. “En el artículo se sugiere una visión alternativa, en la que cualquier estructura celular que tenga la capacidad de desarrollarse hasta dar origen a un ser humano nacido debería considerarse un embrión y que esta capacidad debería ser el eje sobre el que se construya la definición, como ya se hace en algunos países, por cierto, y como ha dictaminado el Tribunal de Justicia de la Unión Europea”.

Según señala de Miguel, “una definición jurídica universal y generalmente aceptada de embrión contribuiría a aliviar la inseguridad jurídica y a armonizar las normativas”. “Nuestra reflexión pretende contribuir a consolidar un concepto de embrión que sea más capaz de hacer frente a los retos que plantean los avances de la biotecnología”, añade, y a su vez señala que “puede tener repercusiones legales a la hora de afianzar un sistema jurídico más coherente que el que existe ahora mismo, capaz de conectar la idea de embrión con la de ser humano nacido (que es la que en Derecho define a la persona)“.

De Miguel considera que esta definición ”también servirá para subrayar que existe un debate previo al que tradicionalmente se ha formulado en torno al embrión, su estatuto moral, que es el que tiene que ver con la propia definición de embrión. Antes de discutir qué protección merece, tenemos que decidir qué es y qué no es un embrión, porque no es lo mismo una estructura incapaz de culminar un proceso de transferencia por un defecto en su ADN que otra que sí puede hacerlo, por ejemplo”.

Referencia:

Iñigo De Miguel Beriain, Jon Rueda & Adrian Villalba (2024) Re-defining the human embryo: A legal perspective on the creation of embryos in research EMBO Reports doi: 10.1038/s44319-023-00034-0

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Redefiniendo el embrión humano se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Las señales del frío que vienen del Norte

Thu, 2024/03/28 - 11:59
fríoPhoto by Ant Rozetsky on Unsplash

Si hay algo que caracteriza al último Periodo de la historia de nuestro planeta, el Cuaternario, es la alternancia cíclica de momentos climáticos más fríos, denominados glaciaciones, y momentos más cálidos, los interglaciales. Actualmente nos encontramos viviendo en un interglacial, el Holoceno, que comenzó hace unos 11.700 años. Anteriormente, entre hace 11.700 y unos 70.000 años se produjo la última glaciación, que sucedió al anterior interglacial, que abarcó desde hace unos 70.000 hasta hace unos 130.000 años. Y paro aquí, porque creo que ya os habéis hecho una idea.

fríoCiclicidad climática acontecida en el Atlántico Norte durante el último millón de años (la escala, Ka BP, se refiere a miles de años antes de la actualidad). En color naranja se señalan los periodos interglaciales, mientras que en azul se marcan las glaciaciones. Imagen modificada de la original tomada de skepticalscience.com, realizada a partir de los datos de Lisiecki, L.E. y Raymo, M.E. (2005). A Pliocene-Pleistocene stack of 57 globally distributed benthic d18O records. Paleoceanography 20, PA1003.

Cuando estás trabajando con afloramientos geológicos cuaternarios, esta ciclicidad climática puede ser muy útil para hacerte una idea de la posible edad de tus materiales antes de que obtengas alguna datación absoluta. Principalmente si encuentras fósiles con los que puedas hacer una reconstrucción paleoecológica del ambiente en el que vivieron. Es decir, si te aparecen restos de un mamut o un rinoceronte lanudo, estaríamos en alguna glaciación, mientras que si encuentras fósiles de un antepasado de los leones, elefantes o hienas actuales nos moveríamos a algún interglacial.

Sin embargo, si nos fijamos en la curva de reconstrucción climática realizada para la parte final del Cuaternario, observaremos que no se trata de una sucesión de curvas que pasan del calor al frío dibujadas con una línea continua. En realidad, es una línea irregular, con múltiples dientes de sierra. Esto indica que, dentro de esas grandes tendencias climáticas glacial-interglacial que duran decenas de miles de años, se producen momentos relativamente más cálidos alternando con otros relativamente más fríos de mucha menor duración temporal. En concreto, estos pequeños ciclos cálido-frío presentan una periodicidad de unos 1500 años.

De esta forma, si volvemos al yacimiento que os ponía de ejemplo y queremos hacer una reconstrucción muy detallada de los cambios paleoambientales que ocurrieron en el pasado, estudiar los restos fósiles de organismos grandes no nos permitirá tener tanta resolución. Esto se debe a que, por norma general, los animales más grandes y complejos suelen tener requerimientos ecológicos más amplios, es decir, son capaces de vivir en amplios rangos de variación de temperatura, salinidad, humedad, etc. Por tanto, deberemos acudir a organismos más pequeños y simples, biológicamente hablando, que tendrán parámetros ecológicos más constreñidos. Así que, en yacimientos continentales, intentaremos buscar restos fósiles de animales como los roedores. Y, aun así, es posible que no logremos detectar todos los eventos cálidos y fríos son absoluta precisión en un afloramiento continental, ya que entran en juego factores más relacionados con la propia conservación del registro, como son las tasas de sedimentación o la capacidad de preservación de los restos orgánicos.

Pero, en medio marino, las cosas tienen mejor pinta. En el fondo oceánico es posible encontrar más zonas en las que las tasas de sedimentación sean muy altas y apenas haya procesos erosivos, por lo que se pueden conservar registros geológicos cuaternarios muy completos y con mucha resolución temporal. Y en el mar hay muchos tipos de organismos pequeños, simples y con rangos ecológicos muy concretos, que nos permiten hacer unas reconstrucciones paleoambientales de mucho detalle.

fríoFotografía de microscopio electrónico de barrido del caparazón de un ejemplar del foraminífero planctónico Neogloboquadrina pachyderma variedad sinestrosa, de hace unos 55.000 años, aparecido en un sondeo sedimentario recogido en el Mar Cantábrico. La escala representa 0,1 mm.

Como un ejemplo vale más que mil palabras, voy a acudir a mis dos grupos faunísticos preferidos, los foraminíferos y los ostrácodos. Y os voy a presentar dos especies concretas, con unos nombres muy sencillos de recordar: Neogloboquadrina pachyderma variedad sinestrosa, un foraminífero planctónico, y Acanthocythereis dunelmensis, un ostrácodo bentónico, que habitan en zonas circumpolares del Atlántico Norte en aguas con temperaturas de entre 0ºC y 6ºC. En la actualidad, en el Mar Cantábrico A. dunelmensis no está presente, mientras que N. pachyderma sin. aparece de manera anecdótica y arrastrada por las corrientes procedentes de zonas más profundas del Golfo de Bizkaia. Sin embargo, en los eventos más fríos acontecidos en los últimos 130.000 años, ambas especies son dominantes. Esto implica que, en esos momentos de clima frío de corta duración, se produce la entrada de masas de agua polares llegadas desde el norte de Europa en el Mar Cantábrico.

Fotografía de Microscopio Electrónico de Barrido de la parte externa de una valva del ostrácodo Acanthocythereis dunelmensis, de hace unos 30.000 años, aparecido en un sondeo sedimentario recogido en el Mar Cantábrico. La escala representa 0,1 mm.

Estas señales biológicas para definir eventos climáticos son tan evidentes que, los incrementos bruscos en la abundancia de N. pachyderma sin. se utilizan para realizar una biocronología precisa para finales del Cuaternario en latitudes medias-bajas del Atlántico Norte. Y, en el caso de los ostrácodos, estas especies polares que colonizan zonas de latitudes más bajas llevadas por la entrada de masas de agua muy frías procedentes del Norte de Europa, reciben el nombre de “los invitados del norte”.

Como soy una friki, me encanta este nombre, porque me imagino a los ostrácodos como los primeros vikingos que llegaron al Mar Cantábrico decenas de miles de años antes que los humanos. Pero, lo verdaderamente increíble es que, unos microorganismos que miden menos de un milímetro de largo, son capaces de darnos una información climática tan precisa como identificar eventos climáticos que apenas duraron unos cientos de años. Y esta reconstrucción del pasado es básica para poder adaptarnos al cambio climático del futuro, porque hemos visto que estos eventos fríos ocurren de manera periódica. Aunque seguiré imaginándome a estos ostrácodos con cascos de hierro, escudos redondos y hachas cortas llegando a conquistar nuestras costas.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

 

El artículo Las señales del frío que vienen del Norte se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Jaime Escalante: “Ganas. Lo que necesitamos son ganas”

Wed, 2024/03/27 - 11:59

El profesor Jaime Escalante (1930-2010) fue un referente en la enseñanza de las matemáticas en Estados Unidos. A través de su singular y comprometida práctica docente consiguió que estudiantes de origen humilde y poco motivados destacaran en esta materia.

Este retrato alfabético es un pequeño homenaje a este poco convencional docente.

Jaime Escalante (1983), Garfield High School en Los Angeles. Fuente: Wikimedia Commons.

 

A. P. (EXAMEN)

Escalante consiguió que muchos de sus alumnos lograran superar con éxito la prueba a nivel avanzado de cálculo (A. P., Advanced Placement Examination in Mathematics: Calculus AB), requisito para ingresar a la universidad en Estados Unidos.

BOLIVIA

Es el país de origen de Jaime Escalante y donde regresó tras su jubilación en la escuela en la que trabajaba en Estados Unidos.

CERO (NO SE PUEDE DIVIDIR POR)

Escalante decía que para poder enseñar se necesitan tres cosas:

“Lo primero es el conocimiento del tema. Debes dominar lo que vas a enseñar. […] Lo segundo es motivar el concepto que voy a enseñar. Por ejemplo, presento el concepto de “defensa ilegal”: que en matemáticas no se puede dividir por cero. Entonces quiero que esto quede claro, le pongo un denominador cero y toda la clase grita “¡Defensa ilegal!” […] En tercer lugar, hay que entender las relaciones humanas, hay que mirar a los chicos como personas. Y respetarlos. Y de esa manera los motivas. Y desarrollas esa buena relación gradualmente durante todo un semestre o dos semanas o tres semanas. Y si haces eso, cuando tengas la retroalimentación del estudiante, matemáticamente hablando, entonces te responderá y sabrás que está aprendiendo”.

DOCENTE

Era el segundo de los cinco hijos e hijas de Zenobio Escalante Rodríguez y Sara Gutiérrez Valle, ambos maestros. Sus hermanas Olimpia y Bertha también fueron profesoras; la mayor de química y la menor de psicología. Sin duda, la profesión docente estaba muy arraigada en la familia.

EDNA (ESPECIAL)

Edna especial” es un episodio de la decimocuarta temporada de la serie animada Los Simpson. Escalante aparece nombrado como “Julio Estudiante”, uno de los candidatos a ganar el premio de “Maestro del año”.

FAMILIA

Escalante nació en La Paz, Bolivia. Sus padres, Zenobio Escalante Rodríguez y Sara Gutiérrez Valle, eran maestros y fueron destinados a la provincia de Omasuyos. Jaime pasó su infancia en Achacachi, la capital. Su tía tenía algunas fincas en las que trabajaban los aimaras. El pequeño pasaba mucho tiempo con ellos; la lengua aimara fue su primera lengua; en esa época no hablaba español.

GARFIELD (ESCUELA PREPARATORIA)

Una vez calificado para enseñar en Estados Unidos, solicitó un puesto en el Distrito Escolar Unificado de Los Ángeles. Escalante deseaba enseñar en una escuela latina. En otoño de 1974 fue contratado por la Escuela Preparatoria Garfield, con alumnado en su mayoría hispano, como profesor de informática. Pero no había ordenadores, así que le asignaron la clase de matemáticas de nivel más bajo, con estudiantes sin interés por esta materia y con un mal comportamiento en general. Nadie esperaba nada de ellos.

HUMBERTO BILBAO

Cuando estaba en cuarto grado, uno de sus profesores era Humberto Bilbao, quien valoraba su talento a pesar de que hablaba mal español y no se portaba demasiado bien. Bilbao habló con la madre de Jaime y decidieron trasladarle a al Colegio La Salle donde el profesor estimaba que el pequeño podría desarrollar sus capacidades. Pero fue expulsado por su mal comportamiento con el profesor de matemáticas. Pasó por otros centros escolares, obteniendo malas notas y siendo conocido por su falta de disciplina.

Y volvería a encontrarse con Humberto Bilbao en 1950, cuando comenzó a estudiar en la Escuela Normal “Simón Bolívar” de La Paz en la que se formaba a futuros maestros. Jaime realizó el curso para acreditarse como profesor de matemáticas y física. Con Bilbao disfrutó aprendiendo a partir de experimentos. Y en esa escuela conoció a su futura esposa, Fabiola Tapia, con la que se casaría en 1954.

INGENIERÍA

Tras graduarse, su deseo hubiera sido matricularse en la Facultad de Ingeniería, pero su familia no podía costear sus estudios. Su padre había fallecido y Jaime tuvo que trabajar y emprender el servicio militar obligatorio a partir mediados de 1949.

JAIME

Jaime, el nombre del profesor. Y (Edward) James, el nombre del actor que le interpretó (ver la letra O).

KIMO

“Kimo” fue el apodo con el que le bautizó uno de sus alumnos en la década de 1970. Era la forma abreviada de “Kemo sabe” (amigo de confianza), la manera en la que el indio Toro llamaba a El Llanero Solitario.

LOUIS LEITHOLD

Escalante fue alumno del matemático Louis Leithold, autor del libro de texto “The Calculus 7”, que cambió los métodos de enseñanza del cálculo en las escuelas secundarias y universidades del todo el mundo.

MATEMÁTICAS

Emigró a Estados Unidos a finales de 1963. No sabía inglés y su título en Bolivia no tenía validez allí. Así que tuvo que realizar diferentes trabajos mientras aprendía el idioma; en 1973 consiguió finalmente su grado en matemáticas en la Universidad Estatal de California.

NARANJAS

Su abuelo materno, José Gutiérrez, le enseñó a leer y escribir con apenas seis años. Su madre le hablaba de geometría; utilizaba naranjas como ejemplo, para motivarle.

OLMOS

El actor Edward James Olmos, gran amigo de Escalante, interpretó al profesor en la película Stand and Deliver. Fue nominado en los Premios Óscar de 1988 como mejor actor por este papel.

POSTAL (SELLO)

En 2011, el Servicio de Correos de Bolivia, su país de origen, emitió un sello postal en su honor. Y, en 2016, el Servicio Postal de los Estados Unidos le rindió homenaje a través de otro sello de uso postal.

Sellos postales emitidos en Bolivia y Estados Unidos en honor de Jaime Escalante. Fuente: MacTutor History of Mathematics archive.

QUERER ES PODER

Stand and Deliver es un elogio al “querer es poder”. Como decía Escalante: “Ganas. Lo que necesitamos son ganas”.

RELACIONES HUMANAS

Ver la letra “C”, es parte de las tres cosas que se necesitan, según Escalante, para poder enseñar.

Stand and Deliver

Stand and Deliver (1988) es el título de una película estadounidense basada en la historia de este profesor de matemáticas.

THE BEST TEACHER IN AMERICA

La vida de Jaime Escalante inspiró al escritor Jay Mathews para escribir el libro “Escalante: The Best Teacher in America” (1988) en el que se basó posteriormente la película Stand and Deliver.

UNIÓN ASTRONÓMICA INTERNACIONAL

En 1993 Escalante fue honrado por la Unión Astronómica Internacional al nombrar al asteroide (5095) con su apellido.

VERDAD

Escalante afirmó que la película Stand and Deliver contenía “un 90 % de verdad y un 10 % de drama”. En particular, el profesor comentaba que transcurrieron muchos años para que su sistema de enseñanza de las matemáticas tuviera éxito, en contra de lo que parecía indicar el largometraje.

WITTENBERG

Entre otros muchos reconocimientos por su labor docente, Escalante recibió un Doctorado Honoris Causa de la Universidad de Wittenberg en 1998.

X, Y, Z (LAS INCÓGNITAS EN CÁLCULO)

Falleció el 30 de marzo de 2010 tras una larga enfermedad. Por expreso deseo, su ataúd fue colocado por un día en un aula de la Escuela Preparatoria Garfield donde había enseñado entre 1974 y 1991. En la pizarra escribieron una de las frases con la que este profesor animaba a sus estudiantes:

“No hay que hacer el cálculo fácil, ya es fácil”.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Jaime Escalante: “Ganas. Lo que necesitamos son ganas” se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Los físicos finalmente encuentran un problema que solo los ordenadores cuánticos pueden resolver

Tue, 2024/03/26 - 11:59

Los investigadores han demostrado que resolver un problema sobre la energía de un sistema cuántico es fácil para los ordenadores cuánticos pero difícil para los clásicos.

Un artículo de Lakshmi Chandrasekaran. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

ordenadores cuánticos

Los ordenadores cuánticos están a punto de convertirse en superpotencias computacionales, pero los investigadores llevan mucho tiempo buscando un problema viable que confiera una ventaja cuántica, algo que solo un ordenador cuántico pueda resolver. Solo entonces, argumentan, la tecnología finalmente será vista como esencial.

Han estado buscando durante décadas. «Parte de la razón por la que es un desafío es que los ordenadores clásicos son bastante buenos en muchas de las cosas que hacen», explica John Preskill, físico teórico del Instituto de Tecnología de California.

En 1994 Peter Shor descubrió una posibilidad: un algoritmo cuántico para factorizar números grandes. El algoritmo de Shor es potente y se cree ampliamente que supera a todos los algoritmos clásicos; cuando se ejecute en un ordenador cuántico, tiene el potencial de romper gran parte de los sistemas de seguridad de Internet, que dependen de la dificultad de factorizar grandes números. Pero por muy impresionante que sea, el algoritmo solo es relevante para una pequeña porción de áreas de investigación, y es posible que mañana alguien encuentre una manera eficiente de factorizar números grandes en una máquina clásica, lo que haría que el algoritmo de Shor sea discutible. La limitada aplicabilidad de Shor ha llevado a la comunidad investigadora a buscar otros casos de uso de máquinas cuánticas que realmente podrían ayudar a realizar nuevos descubrimientos científicos.

«No queremos construir un ordenador solo para una tarea singular», afirma Soonwon Choi, físico del Instituto Tecnológico de Massachusetts. «Aparte del algoritmo de Shor, ¿qué más podemos hacer con un ordenador cuántico?»

Como dice Preskill: «Tenemos que encontrar aquellos problemas que sean difíciles clásicamente, pero entonces tendremos que [mostrar] que los métodos cuánticos serán realmente eficientes».

Ha habido unas pocas veces en las que los investigadores pensaron que lo habían logrado, descubriendo algoritmos cuánticos que podían resolver problemas más rápido que cualquier cosa que pudiera hacer un ordenador clásico. Solo para que luego alguien (a menudo el joven investigador Ewin Tang) ideara nuevos e inteligentes algoritmos clásicos que podían superar a los cuánticos.

Ahora, un equipo de físicos, que incluye a Preskill, podría haber encontrado el mejor candidato hasta ahora para la ventaja cuántica. Al estudiar la energía de ciertos sistemas cuánticos descubrieron una pregunta específica y útil que es fácil de responder para una máquina cuántica, pero difícil para una clásica. «Este es un gran avance en la teoría de los algoritmos cuánticos», comenta Sergey Bravyi, físico teórico e informático de IBM. «Su resultado es una ventaja cuántica para un problema relevante para la química y las ciencias de los materiales».

Los investigadores también están entusiasmados con que el nuevo trabajo explore nuevas áreas inesperadas de las ciencias físicas. «Esta nueva capacidad es cualitativamente diferente [a la de Shor] y potencialmente abre muchas oportunidades nuevas en el mundo de los algoritmos cuánticos», afirma Choi.

El problema tiene que ver con las propiedades de los sistemas cuánticos (típicamente átomos) en diversos estados energéticos. Cuando los átomos saltan entre estados, sus propiedades cambian. Podrían emitir un color de luz determinado, por ejemplo, o volverse magnéticos. Si queremos predecir mejor las propiedades del sistema en diversos estados de energía, es útil comprender el sistema cuando está en su estado menos excitado, al que los científicos se refieren como estado fundamental.

«Muchos químicos, científicos de materiales y físicos cuánticos están trabajando para encontrar estados fundamentales», explica Robert Huang, uno de los autores del nuevo artículo e investigador científico de Google Quantum AI. «Se sabe que es extremadamente difícil».

Es tan difícil que, después de más de un siglo de trabajo, los investigadores todavía no han encontrado un enfoque computacional eficaz para determinar el estado fundamental de un sistema a partir de primeros principios. Tampoco parece haber ninguna manera de que un ordenador cuántico lo haga. Los científicos han llegado a la conclusión de que encontrar el estado fundamental de un sistema es difícil tanto para los ordenadores clásicos como para los cuánticos.

Pero algunos sistemas físicos exhiben un panorama energético más complejo. Cuando se enfrían, estos sistemas complejos se contentan con asentarse no en su estado fundamental, sino más bien en un nivel de energía bajo cercano, conocido como nivel de energía mínimo local. (Parte del Premio Nobel de Física de 2021 se otorgó por el trabajo en uno de esos conjuntos de sistemas, conocidos como vídrios de espín). Los investigadores comenzaron a preguntarse si la cuestión de determinar el nivel mínimo de energía local de un sistema también era universalmente difícil.

Las respuestas comenzaron a surgir el año pasado, cuando Chi-Fang (Anthony) Chen, otro autor del artículo reciente, ayudó a desarrollar un nuevo algoritmo cuántico que podría simular la termodinámica cuántica (que estudia el impacto del calor, la energía y el trabajo en un sistema cuántico). «Creo que mucha gente ha [investigado] la cuestión de qué aspecto tiene la superficie de energía potencial en los sistemas cuánticos, pero antes no existía ninguna herramienta para analizarlo», afirma Huang. El algoritmo de Chen ha ayudado a abrir una ventana a cómo funcionan estos sistemas.

Al ver lo potente que era la nueva herramienta, Huang y Leo Zhou, el cuarto y último autor del nuevo artículo, la utilizaron para diseñar una manera en la que los ordenadores cuánticos determinen el estado de energía mínimo local de un sistema, en lugar de perseguir el estado fundamental ideal; un enfoque que se centraba precisamente en el tipo de pregunta que estaban buscando los investigadores en computación cuántica. «Ahora tenemos un problema: encontrar una cantidad local de energía, lo que todavía es difícil desde el punto de vista clásico, pero que podemos decir que es cuánticamente fácil», afirma Preskill. «Así que eso nos coloca en el terreno donde queremos estar para lograr una ventaja cuántica».

Dirigidos por Preskill, los autores no sólo demostraron el poder de su nuevo enfoque para determinar el estado energético mínimo local de un sistema (un gran avance en el campo de la física cuántica), sino que también demostraron que éste era finalmente un problema en el que los ordenadores cuánticos podían demostrar su valor. «El problema de encontrar un mínimo local tiene una ventaja cuántica», concluye Huang.

Y a diferencia de los candidatos anteriores, éste probablemente no será destronado por ningún nuevo algoritmo clásico. «Es poco probable que se descuantifique», afirma Choi. El equipo de Preskill hizo suposiciones muy plausibles y tomó pocos riesgos lógicos; si un algoritmo clásico puede lograr los mismos resultados significa que los físicos deben estar equivocados en muchas otras cosas. «Ese será un resultado impactante», apunta Choi. «Me entusiasmará verlo, pero sería demasiado impactante para creerlo». El nuevo trabajo presenta un candidato viable y prometedor para demostrar la ventaja cuántica.

Para ser claros, el nuevo resultado sigue siendo de naturaleza teórica. Demostrar este nuevo enfoque en un ordenador cuántico real es hoy por hoy imposible. Llevará tiempo construir una máquina que pueda probar exhaustivamente la ventaja cuántica del problema. Por ello, para Bravyi, el trabajo acaba de empezar. «Si nos fijamos en lo que pasó hace cinco años, solo teníamos ordenadores cuánticos de unos pocos qubits, y ahora ya tenemos máquinas de cientos e incluso de 1.000 qubits», explica. “Es muy difícil predecir lo que sucederá dentro de cinco o diez años. Es un campo muy dinámico”.

 

El artículo original, Physicists Finally Find a Problem That Only Quantum Computers Can Do, se publicó el 12 de marzo de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Los físicos finalmente encuentran un problema que solo los ordenadores cuánticos pueden resolver se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

No mezcles estos productos de limpieza

Mon, 2024/03/25 - 11:59
limpiezaProductos de limpieza variados. Fuente: Freepick

 

¿Puede matarte limpiar el váter? En la búsqueda de un hogar limpio y libre de gérmenes, a menudo recurrimos a una variedad de productos de limpieza. Sin embargo, ciertas combinaciones de productos químicos pueden generar vapores tóxicos y reacciones potencialmente peligrosas que pongan en peligro nuestra salud y seguridad.

Lee la etiqueta y ponte guantes

Un accidente bastante frecuente consiste en limpiar una superficie con un producto e inmediatamente después aplicar otra sustancia. ¡Y no hablemos de echarlos juntos en el cubo de fregar! Al mezclar estos productos, lo menos grave que puede ocurrir es que sus propiedades se anulen, y lo más grave, que se liberen vapores tóxicos o exista riesgo de exposición.

Los productos de limpieza tienen composiciones muy variadas, por lo que se suelen catalogar en función de su uso y no tanto de sus ingredientes. Por ejemplo, hay desatascadores de tuberías formulados con oxidantes, otros con bases fuertes y otros con tensioactivos. Además, raramente contienen una única sustancia, de manera que hacer una lista general sobre las mezclas más peligrosas es prácticamente imposible.

Lo primero que hay que saber es que estos productos son seguros si se utilizan de acuerdo a las instrucciones. En términos generales, es importante evitar mezclar productos de limpieza entre sí, así como con sustancias domésticas comunes como el vinagre, el agua oxigenada, la laca o el bicarbonato, y tampoco es recomendable combinarlos con agua caliente.

Cuidado con estas mezclas

La lejía es una de las sustancias de limpieza más usadas en el hogar, pero también de las más peligrosas a la hora de mezclar con otros productos. La que tenemos en casa consiste por lo general en una disolución de hipoclorito de sodio (NaClO) al 5% en agua. Se trata de una sustancia oxidante, con excelentes propiedades blanqueantes y desinfectantes. Sin embargo, su mezcla con otros productos comunes como el amoníaco, el alcohol o el vinagre puede producir reacciones químicas potencialmente tóxicas.

  • Lejía y amoníaco. El amoníaco comercial contiene una disolución del 5-10% de hidróxido de amonio. La mezcla de estos dos productos habituales en el hogar genera vapores tóxicos de cloramina, que pueden irritar los ojos, la nariz, la garganta e incluso causar daño pulmonar grave. Además, la reacción entre el cloro y el amoniaco también puede generar gas cloruro de nitrógeno, un compuesto altamente tóxico y corrosivo que puede ser letal en altas concentraciones. En principio, no se trata de un peligro mortal, pero si a eso se suma una deficiente ventilación, se puede dar una intoxicación fatal.

Un accidente bastante frecuente consiste en limpiar una superficie con un producto e inmediatamente después aplicar otra sustancia.”

limpiezaLimpieza de superficies con guantes y productos de limpieza habituales. Fuente: Pexels

 

  • Lejía y alcohol. La mezcla de lejía (cloro) con alcohol, como el alcohol etílico (etanol) o el alcohol isopropílico, puede generar cloroformo y otros compuestos cáusticos, como el ácido clorhídrico y la cloroacetona. Estos vapores pueden ser extremadamente irritantes para los ojos, la nariz y la garganta, y llegar a causar mareos, náuseas e incluso pérdida del conocimiento.

  • Lejía y vinagre. Al mezclar lejía con vinagre, que no es más que una disolución de ácido acético, se produce gas cloro. Este gas es altamente irritante para las vías respiratorias y puede causar tos, dificultad para respirar e incluso daño pulmonar. Además, tienen lugar reacciones que pueden producir cloruro sódico y oxígeno, desproporcionar a cloruro y clorato, o generar otros compuestos químicos potencialmente peligrosos.

La lejía tampoco debe mezclarse con otros productos de uso habitual, como el agua caliente o el agua oxigenada. En el primer caso, si se superan los 30ºC de temperatura, puede descomponerse y liberar gas cloro. En el caso del agua oxigenada, que es una disolución de peróxido de hidrógeno, el hipoclorito de la lejía puede reaccionar formando cloratos y percloratos, en una serie de reacciones químicas exotérmicas que desprenden calor y presentan un elevado riesgo de explosión.

Otras combinaciones peligrosas

La combinación de productos de limpieza como la sosa cáustica (hidróxido de sodio), el agua fuerte (ácido clorhídrico) y ciertos insecticidas puede generar mezclas extremadamente peligrosas. La sosa cáustica es altamente alcalina y puede reaccionar violentamente con ácidos fuertes como el agua fuerte, liberando calor y vapores corrosivos. Esta reacción puede causar quemaduras químicas graves en la piel y las vías respiratorias. Además, algunos insecticidas contienen compuestos químicos volátiles que pueden reaccionar de manera impredecible con otros productos químicos presentes en el ambiente, creando gases tóxicos o inflamables. Por lo tanto, es esencial evitar mezclar estos productos de limpieza con otros productos químicos para prevenir accidentes graves y proteger la salud y seguridad de las personas.

La lejía tampoco debe mezclarse con otros productos de uso habitual, como el agua caliente o el agua oxigenada.”

limpiezaProductos de limpieza variados. Fuente: Pexels

 

Esta selección de combinaciones peligrosas es solo la punta del iceberg, ya que las posibles interacciones entre productos de limpieza podrían ser infinitas. La conclusión principal es que los productos de limpieza deben utilizarse exclusivamente para su propósito previsto, siguiendo siempre las indicaciones del fabricante y evitando en todo momento su mezcla con otras sustancias, por más inofensivas que puedan parecer, debido al riesgo de desencadenar reacciones químicas potencialmente mortales.

En caso de experimentar síntomas de intoxicación accidental, como irritación, tos, náuseas, escozor, mareos, dolor de cabeza, somnolencia, dificultad para respirar o dolor abdominal, es crucial llamar de inmediato a los servicios de emergencia al número 112 o contactar con el Servicio de Información Toxicológica.

Sobre la autora: Raquel Gómez Molina es química especialista en laboratorio clínico y comunicación científica

El artículo No mezcles estos productos de limpieza se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Naukas Bilbao 2023 – Toda su sangre en mis manos

Sat, 2024/03/23 - 11:59

El gran evento de divulgación organizado por Naukas y la Cátedra de Cultura Científica volvió a Bilbao para celebrar su decimotercera edición en el gran Palacio Euskalduna los pasados 15 y 16 de septiembre de 2023.

 

Alberto García Salido es un superhéroe auténtico. Pero no de los de capa y leotardos, sino de los de bata y estetoscopio. En esta charla nos cuenta una de sus primeras intervenciones como médico adjunto, que daría para una película.

Alberto García Salido (Madrid, 1981) es pediatra, escritor y divulgador. Trabaja actualmente en las unidades de Cuidados Intensivos y Cuidados Paliativos del Hospital Infantil Universitario Niño Jesús de Madrid.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2023 – Toda su sangre en mis manos se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Raíces culturales de la transición demográfica

Fri, 2024/03/22 - 11:59

La opinión mayoritaria es que la transición demográfica obedece, fundamentalmente, a causas económicas. Sin embargo, sin descartar esas causas, hay datos que avalan la hipótesis de que el elemento determinante de ese fenómeno puede ser de naturaleza cultural, y tenga su origen en los valores e ideas predominantes en las sociedades avanzadas y en la forma en que esos valores e ideas son transmitidos.

transición demográficaFoto: Stéphane Juban / Unsplash

La transición demográfica consiste en el descenso secuencial de las tasas de mortalidad y de las de natalidad. Tras un largo periodo –de siglos– durante el que ambas tasas se mantuvieron en valores relativamente altos y la población (cuando se daban las condiciones para ello) crecía muy lentamente, se ha pasado a una época de cambios en esas tasas que comenzó hace menos de 200 años.

Para que se produzca la transición demográfica debe reducirse, en primer lugar, la tasa de mortalidad. La mejora de las condiciones de alimentación, salud y vivienda hace que aumente la esperanza de vida, debido, fundamentalmente, a la reducción de la mortalidad infantil. Tras ese descenso en la mortalidad, y como consecuencia del mismo, la población crece de forma acelerada, porque aumenta mucho el número de niños que alcanzan la edad reproductora. Posteriormente, y tras un periodo de crecimiento poblacional fuerte, empieza a descender la tasa de natalidad, normalmente desde valores de entre seis y ocho hijos por mujer hasta niveles inferiores a dos. Una vez se ha reducido la tasa de natalidad hasta esos valores tan bajos, la población puede incluso llegar a descender.

La transición demográfica empezó a producirse en algunos países hace casi dos siglos y se está extendiendo al resto del mundo hasta alcanzar a prácticamente todos los países del planeta, con la notable excepción, hasta la fecha, de algunos africanos, principalmente. En este momento, la fecundidad ha descendido ya por debajo de los niveles necesarios para mantener la población mundial estable.

Lógicamente, la generalización de los métodos anticonceptivos, con el control que otorga a las mujeres sobre su propia reproducción, ha sido un elemento muy importante, dado que facilita que disminuyan los nacimientos.

La explicación económica

De acuerdo con la explicación económica de la transición demográfica los factores responsables del fenómeno son las mejores condiciones de vida y una amplia oferta de bienes de consumo. La primera fase, la de la reducción de la mortalidad, está claramente vinculada a las condiciones de salud y alimentación. Y la segunda, la del descenso de la natalidad, se atribuye a una decisión consciente de criar a un pequeño número de hijos o hijas, y poderles ofrecer así las mejores condiciones posibles (de salud, formación, económicas), para su posterior trayectoria vital. Además, el disfrute de los bienes de consumo a que tenemos acceso es incompatible con las necesidades que se derivan de criar una amplia prole.

Desde un punto de vista evolutivo, la transición demográfica plantea un problema evidente. En principio, de acuerdo con lo que sabemos acerca de la evolución y sus mecanismos, lo lógico sería que los individuos tratásemos de tener una descendencia lo más numerosa posible. Y de hecho, la consecución de ese objetivo reproductivo debiera verse favorecida por la abundancia de recursos propia de nuestra época. Sin embargo, ocurre lo contrario.

A la explicación del descenso de la natalidad propio de la transición demográfica basada en factores puramente económicos, relacionados con la calidad de vida y el deseo de proporcionar la misma calidad a la descendencia, se ha venido a sumar una explicación alternativa que basa su argumentación en consideraciones de índole cultural.

La cultura como argumento alternativo

Adquirir información es muy valioso y por eso tenemos mucha facilidad para hacerlo. El problema es que esa misma facilidad provoca que aumente la probabilidad de recibir ideas maladaptativas, que disminuyen la aptitud biológica (el fitness darwiniano).

La cultura minimiza el problema que conlleva el alto coste de evaluar la información. Gracias a ella, disponemos de un sistema de resolución de problemas de carácter general. La ciencia, por sí misma o a través de la tecnología, es el ejemplo más sofisticado de la capacidad de la cultura para resolver problemas diversos y de gran dificultad. Hasta tal punto es efectiva, que si existen las instituciones sociales adecuadas, intelectos individuales muy falibles –como los humanos– son capaces de revelar gradualmente los secretos más profundos del Universo. Pero a cambio pagamos un precio, y ese precio consiste en dar cobijo, en ocasiones, a variantes culturales patológicas en términos darwinianos.

La razón de que ocurra eso es que la posibilidad de difundir variantes culturales maladaptativas no se elimina fácilmente, porque evaluar una variante cultural es muy costoso. Si se eliminase fácilmente ese tipo de difusión de la información, también se perderían las ventajas que reporta, con carácter general, el contar con sistemas de transmisión cultural que se han demostrado muy útiles. Por esa razón, eso solo se hace en casos excepcionales; en la mayoría de los casos se recurre a heurísticos sencillos y rápidos.

Dos buenos ejemplos de heurísticos de gran utilidad son la conformidad y el sesgo de prestigio. El primero nos hace proclives a adoptar los comportamientos mayoritarios dentro del grupo, y el segundo, a imitar a las personas con prestigio. Estos sesgos se manifiestan con mucha claridad en los adolescentes, pero están presentes en el conjunto de la población.

Son, efectivamente, herramientas útiles, pero tienen efectos colaterales maladaptativos inevitables, pues cuando, por las razones que sea, la información o variante cultural que se transmite es maladaptativa, no es fácil que esa transmisión se elimine o limite. Además, la importancia relativa de este modo de transmisión es mayor cuanto mayor es el volumen de población, ya que son más las personas de las que se puede recibir información.

En las sociedades agrarias premodernas, el prestigio y el estatus lo daba la cuna, no el mérito, y la familia era la institución social más significativa. En esas sociedades la transmisión de información es vertical y tiende a favorecer variantes culturales que refuerzan la propia importancia de la familia, porque, al fin y al cabo, la prosperidad dependía del tamaño familiar, y una familia amplia era, a su vez, señal de éxito económico.

La formación en una sociedad compleja

Conforme los pueblos han accedido a mejores condiciones de vida, las sociedades se han hecho cada vez más complejas, y las economías, más y más dependientes del conocimiento avanzado. En esas sociedades se necesitan personas con un nivel de formación alto para ocuparse de la gestión y gobierno de entidades, tanto públicas como privadas, así como para desempeñar trabajos para los que se requieren conocimientos técnicos de alto nivel. Para formarse, esas personas necesitan dedicar un tiempo cada vez mayor, por lo que han de posponer el momento en que tendrán hijos.

Por otra parte, hay una fuerte competencia por esos puestos de trabajo cualificado, ya que quienes los ocupan tienen un mayor estatus social. Además, al posponerse la maternidad y extenderse a las mujeres las oportunidades de formación, éstas también participan de esas actividades.

Las vías de transmisión de las ideas han cambiado. La información se transmite de múltiples formas, y las vías “horizontales” –sobre todo basadas en medios de comunicación y sistemas educativos– han adquirido una importancia creciente. Cuando los modelos a imitar, en virtud del sesgo de prestigio, son profesionales de éxito, esas ideas y valores se extienden por la población, y a partir de ahí opera la conformidad, haciendo que muchas o todas las personas adopten los mismos comportamientos. El descenso en la natalidad es la consecuencia de todo ese proceso.

En definitiva, cierto grado de desarrollo económico es condición para que se pueda dar la transición demográfica, pero no está claro que sea el desencadenante, ni su factor más determinante. Un estudio realizado con 600 unidades administrativas europeas en el marco del Princeton European Fertility Project mostró un notable desajuste entre el desarrollo económico y los hitos de la transición demográfica. Esta comenzó en ciertas zonas de Francia alrededor de 1830, y sin embargo, en el Reino Unido, más desarrollado económicamente, no se produjo hasta 50 años después, a la vez que en algunas zonas de Alemania. En otras zonas de este último país, la transición se demoró hasta la segunda década del siglo XX, sin que esas diferencias tuvieran nada que ver con diferencias económicas. Igualmente, en la Bélgica francófona la transición demográfica se inició alrededor de 1870, pero no empezó hasta 1910 en la zona flamenca. Y hubo zonas de Francia, como Bretaña y Normandía, en las que el fenómeno se retrasó un siglo con respecto al resto del país. También en el que había sido el Imperio Austrohúngaro se produjeron grandes diferencias: Hungría se adelantó al resto del imperio. En todos los casos registrados, hay un elemento común: el acceso de las mujeres al mercado laboral es el factor que marca el inicio del descenso en la natalidad.

Pero hay excepciones

Para terminar, merece la pena presentar dos notables excepciones en Occidente a la tendencia general. Se trata de las dos comunidades articuladas en torno a sendas confesiones religiosas, la de los amish y la de los huteritas. Amish, en los Estados Unidos, y huteritas, en el Canadá, son los herederos de los anabaptistas que sufrieron persecución por motivos religiosos tras la reforma luterana en Europa. Los amish emigraron a los Estados Unidos en el siglo XVIII y los huteritas al Canadá en el XIX. En ambos casos mantuvieron sus tradiciones y modo de vida, basado fundamentalmente en la agricultura.

Ambas comunidades han mantenido un notable aislamiento cultural con respecto al resto de comunidades de sus países. Han rechazado el uso de los medios de comunicación propios de la era contemporánea, han renunciado a gran parte de los productos del desarrollo tecnológico, y cuentan con sistemas educativos propios para los niveles superiores. En definitiva, en estas comunidades se han preservado las vías de transmisión cultural propias de las sociedades premodernas.

Pues bien, tasas de natalidad de entre 6 y 8 hijos por mujer son la norma en estas comunidades. Durante el siglo XX los huteritas han duplicado su número cada 17 años, y los amish, que eran 5.000 a comienzo del siglo XX, han alcanzado la cifra de 150.000 a comienzos del siglo XXI. No son pobres. Unos y otros forman comunidades prósperas, que dedican sus recursos a sostener su crecimiento demográfico, para lo que necesitan extender sus posesiones de tierra. Solo el precio de esta última ha podido limitar en cierta medida su expansión, pero también han tenido la suficiente versatilidad como para dedicarse a otras actividades económicas sin perder los elementos esenciales de su modo de vida.

Fuente: Síntesis de algunas ideas tomadas del capítulo 4 (Culture is an adaptation) del libro de Peter J Richerson y Robert Boyd “Not by genes alone: How culture transformed human evolution” (The University of Chicago Press, 2006).

Nota: Our World in Data ofrece datos muy completos sobre fertilidad y un análisis detallado del posible efecto de diferentes factores sobre esta variable. En esos análisis el acceso de las mujeres a la educación recibe atención preferente, pero también se estudian las condiciones de crianza de la progenie, así como la influencia de factores culturales y otros.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Raíces culturales de la transición demográfica se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El deterioro de los lagos de la montaña cantábrica

Fri, 2024/03/22 - 11:59

Una investigación en la que participan la Universidad Complutense de Madrid (UCM), la Universidad Politécnica de Madrid (UPM), la Universidad de Alcalá y la Universidad del País Vasco ha detectado que las aguas de los lagos de montaña de la Cordillera Cantábrica han perdido calidad en las últimas décadas. Detrás de esas variaciones estarían las condiciones climáticas y acciones humanas como los cambios de uso del suelo y la actividad ganadera de las últimas décadas.

montaña

El estudio detecta un aumento de la carga de nutrientes y la pérdida de oxígeno disuelto en esos lagos, lo que conlleva una pérdida de calidad de las aguas en esos valiosos ecosistemas. “Estos resultados permiten comparar la magnitud de los cambios ambientales que se han producido durante una época histórica en relación con el actual Cambio Global, sus causas y sus consecuencias en los ecosistemas acuáticos de montaña, lo que constituye un avance científico muy significativo”, destacan los investigadores.

La investigación, publicada en Anthropocene se ha llevado a cabo mediante el análisis de biomarcadores orgánicos en los sedimentos del fondo del Lago Isoba (León), que ha permitido identificar tanto su grado de preservación como el origen de los mismos.

A partir de ahí, se han reconstruido los principales cambios ambientales que se han producido en la región durante los últimos 550 años –que abarcan la Pequeña Edad de Hielo, periodo de enfriamiento global entre los siglos XVI y XIX- en respuesta a los cambios climáticos recientes y al impacto de las actividades humanas que se han desarrollado como ganadería, cambios en el uso del suelo y en la cubierta vegetal.

Entre la información extraída, por ejemplo, se sabe que durante la Pequeña Edad del Hielo se produjo un mayor aporte de plantas terrestres y poca degradación debido a las condiciones climáticas frías, o que desde 2006 la productividad del fitoplancton y la actividad microbiana han sido significativas, así como el aumento de estanoles de origen fecal -moléculas presentes en las heces de herbívoros-.

“Desde un punto de vista más aplicado, permiten evaluar el impacto de los cambios ligados a la actividad humana en los lagos de montaña, lo que proporciona criterios para una mejor ordenación del territorio y la conservación y restauración ecológica de estos emblemáticos lagos”, comentan sobre las aplicaciones de los resultados los investigadores.

Referencia:

José E. Ortiz, Yolanda Sánchez-Palencia, Ignacio López-Cilla, César Morales-Molino, Jon Gardoki, Trinidad Torres, Mario Morellón (2024) Lipid biomarkers in high mountain lakes from the Cantabrian range (Northern Spain): Coupling the interplay between natural and anthropogenic drivers Anthropocene doi: 10.1016/j.ancene.2024.100431

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El deterioro de los lagos de la montaña cantábrica se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

¿Un visitante de un mundo oceánico?

Thu, 2024/03/21 - 11:59

Siempre ha estado muy, muy cerca, en nuestro sistema solar, y lleva en él mucho más tiempo que nosotros, al menos, desde que este se originó hace unos 4500 millones de años, así que es posible que lo «viera» todo… y estamos deseando que nos lo cuente. Su nombre es Bennu, un asteroide cuya órbita se extiende entre el interior de la terrestre y el exterior de la marciana, y es uno de los pocos cuerpos celestes de los que hemos podido traer muestras a la Tierra hasta el momento ―los otros son la Luna, así como los asteroides Itokawa y Ryugu y material de la cola del cometa 81P/Wild.

BennuAsteroide Bennu, antes 1999 RQ36. Bennu es una antigua ave mitológica egipcia, similar al ave fénix griego. El nombre lo eligió Michael Puzio, de 9 años, un niño de Carolina del Norte.
Fuente: NASA/Goddard/University of Arizona

El 24 de septiembre de 2023 aterrizó en el desierto de Utah una cápsula con los 70,3 gr que la misión de la NASA OSIRIS-Rex (Origins, Spectral Interpretation, Resource Identification, and Security – Regolith Explorer) había logrado obtener de la superficie de Bennu ―más de los 60 gr que se habían establecido como objetivo y la más abundante hasta el momento―. La sonda se lanzó el 8 de septiembre de 2016 y llegó a su destino dos años después: el 3 de diciembre de 2018. Las muestras se recogieron el 20 de octubre de 2020 y llegaron hasta nosotros tres años después. Ya hemos empezando a obtener los primeros resultados de su análisis.

La cápsula con las muestras del asteroide Bennu aterrizó en el desierto de Utah el 24 de septiembre de 2023. Se logró abrir, tras alguna dificultad, el 11 de octubre. Fuente: NASA/Keegan Barber

Pero ¿qué tiene de especial Bennu? ¿Por qué esta inversión de recursos para analizarlo e incluso traer muestras de su superficie? Son varios los motivos que expone la NASA. El primero de ellos ya lo hemos mencionado: es muy antiguo, al menos tanto como el propio sistema solar, lo que ya podría darnos muchos datos sobre la manera en la que este se formó, pero es que, además, Bennu podría contener fragmentos de materiales más antiguos. Preservado durante tantos miles de millones de años gracias al vacío del espacio, podría considerarse una cápsula del tiempo de la historia de nuestros propios orígenes… y el de la vida en general debido a su composición, rica en moléculas orgánicas e incluso agua. Además, pero no menos importante, se encuentra bastante cerca de nosotros y su máxima aproximación a nosotros tiene lugar cada seis años, lo que facilita las labores de lanzamiento. También tiene el tamaño adecuado ―es más o menos como el Empire State Building, de Nueva York― como para que su velocidad de giro sobre sí mismo no sea tan grande como para haber complicado muchísimo las labores de aterrizaje.

Momento de recolección de muestras de la misión OSIRIS-REx en la zona de aterrizaje Nightingale, en el asteroide Bennu.
Créditos: NASA/Goddard/University of Arizona

Por si todo esto no fuera suficiente, aún hay más: Bennu podría tener algunas claves para averiguar cuál sería nuestra mejor estrategia de protección en el caso de que algún asteroide se aproximara demasiado a la Tierra, ya que se espera que en 2135 se acerque a nosotros a una distancia menor que la de la Luna. ¡¿Cómo?! ¿Hay peligro de colisión entonces? ¡Para nada! Pero esa cercanía nos permitirá calcular y estudiar su trayectoria, así como la acción del campo gravitatorio de la Tierra sobre cualquier cuerpo similar que se pueda aproximar e incluso suponer una amenaza, con mucha mayor precisión.

Las muestras de Bennu se están analizando el Laboratorio Lunar y Planetario de la Universidad de Arizona y el director del proyecto, Dante Lauretta, ya ha empezado a dar algunas pistas, aunque aún no se ha publicado ningún resultado. Lo que han encontrado son ciertos tipos de minerales compatibles con la presencia de agua y otros similares a los detectados en los géiseres de Encélado, uno de los satélites de Saturno, que, pensamos, oculta un vasto océano bajo su capa superficial de hielo. Así que, ¿es posible que Bennu venga de un lugar similar? Esa es, según Lauretta, la hipótesis con la que trabajan en este momento. No ha dado mucha información más, pero se espera que se publiquen muchos más detalles en algunas semanas que, según comenta el investigador son «muy interesantes».

Géiseres de Encélado fotografiados por la sonda Cassini en el año 2009. Fuente: NASA/JPL-Caltech/SSI/CICLOPS/Kevin M. Gill

En cualquier caso, puede que lo más bello de este tipo de misiones sea cómo nuestras ensoñaciones sobre otros mundos parecen hacerse realidad. En esta ocasión, nuestro visitante de las estrellas no es más que un pedazo de roca a la deriva, pero que, tal vez, venga de un mundo que hemos imaginado muchas veces: El mundo azul, de Jack Vance; Cachalot, de Alan Dean Foster; Terramar, de Ursula K. Le Guin; Hydros, de Robert Silverberg; El mundo de Roche, de Robert L. Forward; Solaris, de Stanislaw Lem, y tantos, tantos otros.

Fuente: Pixabay / NWimages by Sabrina Eickhoff

Estaremos muy atentos al mensaje que traiga consigo este pequeño asteroide.

Bibliografía

Howgego, Joshua (10 de febrero de 2024). Bennu may be from an ocean world, New Scientist.

NASA Science, OSIRIS-Rex.

Méndez Chazarra, Nahúm (8 de agosto de 2022). Meteoritos interestelares, muestreando otros sistemas planetarios, Cuaderno de Cultura Científica.

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo ¿Un visitante de un mundo oceánico? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Pages