Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 20 min 36 sec ago

Las señales del frío que vienen del Norte

7 hours 21 min ago
fríoPhoto by Ant Rozetsky on Unsplash

Si hay algo que caracteriza al último Periodo de la historia de nuestro planeta, el Cuaternario, es la alternancia cíclica de momentos climáticos más fríos, denominados glaciaciones, y momentos más cálidos, los interglaciales. Actualmente nos encontramos viviendo en un interglacial, el Holoceno, que comenzó hace unos 11.700 años. Anteriormente, entre hace 11.700 y unos 70.000 años se produjo la última glaciación, que sucedió al anterior interglacial, que abarcó desde hace unos 70.000 hasta hace unos 130.000 años. Y paro aquí, porque creo que ya os habéis hecho una idea.

fríoCiclicidad climática acontecida en el Atlántico Norte durante el último millón de años (la escala, Ka BP, se refiere a miles de años antes de la actualidad). En color naranja se señalan los periodos interglaciales, mientras que en azul se marcan las glaciaciones. Imagen modificada de la original tomada de skepticalscience.com, realizada a partir de los datos de Lisiecki, L.E. y Raymo, M.E. (2005). A Pliocene-Pleistocene stack of 57 globally distributed benthic d18O records. Paleoceanography 20, PA1003.

Cuando estás trabajando con afloramientos geológicos cuaternarios, esta ciclicidad climática puede ser muy útil para hacerte una idea de la posible edad de tus materiales antes de que obtengas alguna datación absoluta. Principalmente si encuentras fósiles con los que puedas hacer una reconstrucción paleoecológica del ambiente en el que vivieron. Es decir, si te aparecen restos de un mamut o un rinoceronte lanudo, estaríamos en alguna glaciación, mientras que si encuentras fósiles de un antepasado de los leones, elefantes o hienas actuales nos moveríamos a algún interglacial.

Sin embargo, si nos fijamos en la curva de reconstrucción climática realizada para la parte final del Cuaternario, observaremos que no se trata de una sucesión de curvas que pasan del calor al frío dibujadas con una línea continua. En realidad, es una línea irregular, con múltiples dientes de sierra. Esto indica que, dentro de esas grandes tendencias climáticas glacial-interglacial que duran decenas de miles de años, se producen momentos relativamente más cálidos alternando con otros relativamente más fríos de mucha menor duración temporal. En concreto, estos pequeños ciclos cálido-frío presentan una periodicidad de unos 1500 años.

De esta forma, si volvemos al yacimiento que os ponía de ejemplo y queremos hacer una reconstrucción muy detallada de los cambios paleoambientales que ocurrieron en el pasado, estudiar los restos fósiles de organismos grandes no nos permitirá tener tanta resolución. Esto se debe a que, por norma general, los animales más grandes y complejos suelen tener requerimientos ecológicos más amplios, es decir, son capaces de vivir en amplios rangos de variación de temperatura, salinidad, humedad, etc. Por tanto, deberemos acudir a organismos más pequeños y simples, biológicamente hablando, que tendrán parámetros ecológicos más constreñidos. Así que, en yacimientos continentales, intentaremos buscar restos fósiles de animales como los roedores. Y, aun así, es posible que no logremos detectar todos los eventos cálidos y fríos son absoluta precisión en un afloramiento continental, ya que entran en juego factores más relacionados con la propia conservación del registro, como son las tasas de sedimentación o la capacidad de preservación de los restos orgánicos.

Pero, en medio marino, las cosas tienen mejor pinta. En el fondo oceánico es posible encontrar más zonas en las que las tasas de sedimentación sean muy altas y apenas haya procesos erosivos, por lo que se pueden conservar registros geológicos cuaternarios muy completos y con mucha resolución temporal. Y en el mar hay muchos tipos de organismos pequeños, simples y con rangos ecológicos muy concretos, que nos permiten hacer unas reconstrucciones paleoambientales de mucho detalle.

fríoFotografía de microscopio electrónico de barrido del caparazón de un ejemplar del foraminífero planctónico Neogloboquadrina pachyderma variedad sinestrosa, de hace unos 55.000 años, aparecido en un sondeo sedimentario recogido en el Mar Cantábrico. La escala representa 0,1 mm.

Como un ejemplo vale más que mil palabras, voy a acudir a mis dos grupos faunísticos preferidos, los foraminíferos y los ostrácodos. Y os voy a presentar dos especies concretas, con unos nombres muy sencillos de recordar: Neogloboquadrina pachyderma variedad sinestrosa, un foraminífero planctónico, y Acanthocythereis dunelmensis, un ostrácodo bentónico, que habitan en zonas circumpolares del Atlántico Norte en aguas con temperaturas de entre 0ºC y 6ºC. En la actualidad, en el Mar Cantábrico A. dunelmensis no está presente, mientras que N. pachyderma sin. aparece de manera anecdótica y arrastrada por las corrientes procedentes de zonas más profundas del Golfo de Bizkaia. Sin embargo, en los eventos más fríos acontecidos en los últimos 130.000 años, ambas especies son dominantes. Esto implica que, en esos momentos de clima frío de corta duración, se produce la entrada de masas de agua polares llegadas desde el norte de Europa en el Mar Cantábrico.

Fotografía de Microscopio Electrónico de Barrido de la parte externa de una valva del ostrácodo Acanthocythereis dunelmensis, de hace unos 30.000 años, aparecido en un sondeo sedimentario recogido en el Mar Cantábrico. La escala representa 0,1 mm.

Estas señales biológicas para definir eventos climáticos son tan evidentes que, los incrementos bruscos en la abundancia de N. pachyderma sin. se utilizan para realizar una biocronología precisa para finales del Cuaternario en latitudes medias-bajas del Atlántico Norte. Y, en el caso de los ostrácodos, estas especies polares que colonizan zonas de latitudes más bajas llevadas por la entrada de masas de agua muy frías procedentes del Norte de Europa, reciben el nombre de “los invitados del norte”.

Como soy una friki, me encanta este nombre, porque me imagino a los ostrácodos como los primeros vikingos que llegaron al Mar Cantábrico decenas de miles de años antes que los humanos. Pero, lo verdaderamente increíble es que, unos microorganismos que miden menos de un milímetro de largo, son capaces de darnos una información climática tan precisa como identificar eventos climáticos que apenas duraron unos cientos de años. Y esta reconstrucción del pasado es básica para poder adaptarnos al cambio climático del futuro, porque hemos visto que estos eventos fríos ocurren de manera periódica. Aunque seguiré imaginándome a estos ostrácodos con cascos de hierro, escudos redondos y hachas cortas llegando a conquistar nuestras costas.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

 

El artículo Las señales del frío que vienen del Norte se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Jaime Escalante: “Ganas. Lo que necesitamos son ganas”

Wed, 2024/03/27 - 11:59

El profesor Jaime Escalante (1930-2010) fue un referente en la enseñanza de las matemáticas en Estados Unidos. A través de su singular y comprometida práctica docente consiguió que estudiantes de origen humilde y poco motivados destacaran en esta materia.

Este retrato alfabético es un pequeño homenaje a este poco convencional docente.

Jaime Escalante (1983), Garfield High School en Los Angeles. Fuente: Wikimedia Commons.

 

A. P. (EXAMEN)

Escalante consiguió que muchos de sus alumnos lograran superar con éxito la prueba a nivel avanzado de cálculo (A. P., Advanced Placement Examination in Mathematics: Calculus AB), requisito para ingresar a la universidad en Estados Unidos.

BOLIVIA

Es el país de origen de Jaime Escalante y donde regresó tras su jubilación en la escuela en la que trabajaba en Estados Unidos.

CERO (NO SE PUEDE DIVIDIR POR)

Escalante decía que para poder enseñar se necesitan tres cosas:

“Lo primero es el conocimiento del tema. Debes dominar lo que vas a enseñar. […] Lo segundo es motivar el concepto que voy a enseñar. Por ejemplo, presento el concepto de “defensa ilegal”: que en matemáticas no se puede dividir por cero. Entonces quiero que esto quede claro, le pongo un denominador cero y toda la clase grita “¡Defensa ilegal!” […] En tercer lugar, hay que entender las relaciones humanas, hay que mirar a los chicos como personas. Y respetarlos. Y de esa manera los motivas. Y desarrollas esa buena relación gradualmente durante todo un semestre o dos semanas o tres semanas. Y si haces eso, cuando tengas la retroalimentación del estudiante, matemáticamente hablando, entonces te responderá y sabrás que está aprendiendo”.

DOCENTE

Era el segundo de los cinco hijos e hijas de Zenobio Escalante Rodríguez y Sara Gutiérrez Valle, ambos maestros. Sus hermanas Olimpia y Bertha también fueron profesoras; la mayor de química y la menor de psicología. Sin duda, la profesión docente estaba muy arraigada en la familia.

EDNA (ESPECIAL)

Edna especial” es un episodio de la decimocuarta temporada de la serie animada Los Simpson. Escalante aparece nombrado como “Julio Estudiante”, uno de los candidatos a ganar el premio de “Maestro del año”.

FAMILIA

Escalante nació en La Paz, Bolivia. Sus padres, Zenobio Escalante Rodríguez y Sara Gutiérrez Valle, eran maestros y fueron destinados a la provincia de Omasuyos. Jaime pasó su infancia en Achacachi, la capital. Su tía tenía algunas fincas en las que trabajaban los aimaras. El pequeño pasaba mucho tiempo con ellos; la lengua aimara fue su primera lengua; en esa época no hablaba español.

GARFIELD (ESCUELA PREPARATORIA)

Una vez calificado para enseñar en Estados Unidos, solicitó un puesto en el Distrito Escolar Unificado de Los Ángeles. Escalante deseaba enseñar en una escuela latina. En otoño de 1974 fue contratado por la Escuela Preparatoria Garfield, con alumnado en su mayoría hispano, como profesor de informática. Pero no había ordenadores, así que le asignaron la clase de matemáticas de nivel más bajo, con estudiantes sin interés por esta materia y con un mal comportamiento en general. Nadie esperaba nada de ellos.

HUMBERTO BILBAO

Cuando estaba en cuarto grado, uno de sus profesores era Humberto Bilbao, quien valoraba su talento a pesar de que hablaba mal español y no se portaba demasiado bien. Bilbao habló con la madre de Jaime y decidieron trasladarle a al Colegio La Salle donde el profesor estimaba que el pequeño podría desarrollar sus capacidades. Pero fue expulsado por su mal comportamiento con el profesor de matemáticas. Pasó por otros centros escolares, obteniendo malas notas y siendo conocido por su falta de disciplina.

Y volvería a encontrarse con Humberto Bilbao en 1950, cuando comenzó a estudiar en la Escuela Normal “Simón Bolívar” de La Paz en la que se formaba a futuros maestros. Jaime realizó el curso para acreditarse como profesor de matemáticas y física. Con Bilbao disfrutó aprendiendo a partir de experimentos. Y en esa escuela conoció a su futura esposa, Fabiola Tapia, con la que se casaría en 1954.

INGENIERÍA

Tras graduarse, su deseo hubiera sido matricularse en la Facultad de Ingeniería, pero su familia no podía costear sus estudios. Su padre había fallecido y Jaime tuvo que trabajar y emprender el servicio militar obligatorio a partir mediados de 1949.

JAIME

Jaime, el nombre del profesor. Y (Edward) James, el nombre del actor que le interpretó (ver la letra O).

KIMO

“Kimo” fue el apodo con el que le bautizó uno de sus alumnos en la década de 1970. Era la forma abreviada de “Kemo sabe” (amigo de confianza), la manera en la que el indio Toro llamaba a El Llanero Solitario.

LOUIS LEITHOLD

Escalante fue alumno del matemático Louis Leithold, autor del libro de texto “The Calculus 7”, que cambió los métodos de enseñanza del cálculo en las escuelas secundarias y universidades del todo el mundo.

MATEMÁTICAS

Emigró a Estados Unidos a finales de 1963. No sabía inglés y su título en Bolivia no tenía validez allí. Así que tuvo que realizar diferentes trabajos mientras aprendía el idioma; en 1973 consiguió finalmente su grado en matemáticas en la Universidad Estatal de California.

NARANJAS

Su abuelo materno, José Gutiérrez, le enseñó a leer y escribir con apenas seis años. Su madre le hablaba de geometría; utilizaba naranjas como ejemplo, para motivarle.

OLMOS

El actor Edward James Olmos, gran amigo de Escalante, interpretó al profesor en la película Stand and Deliver. Fue nominado en los Premios Óscar de 1988 como mejor actor por este papel.

POSTAL (SELLO)

En 2011, el Servicio de Correos de Bolivia, su país de origen, emitió un sello postal en su honor. Y, en 2016, el Servicio Postal de los Estados Unidos le rindió homenaje a través de otro sello de uso postal.

Sellos postales emitidos en Bolivia y Estados Unidos en honor de Jaime Escalante. Fuente: MacTutor History of Mathematics archive.

QUERER ES PODER

Stand and Deliver es un elogio al “querer es poder”. Como decía Escalante: “Ganas. Lo que necesitamos son ganas”.

RELACIONES HUMANAS

Ver la letra “C”, es parte de las tres cosas que se necesitan, según Escalante, para poder enseñar.

Stand and Deliver

Stand and Deliver (1988) es el título de una película estadounidense basada en la historia de este profesor de matemáticas.

THE BEST TEACHER IN AMERICA

La vida de Jaime Escalante inspiró al escritor Jay Mathews para escribir el libro “Escalante: The Best Teacher in America” (1988) en el que se basó posteriormente la película Stand and Deliver.

UNIÓN ASTRONÓMICA INTERNACIONAL

En 1993 Escalante fue honrado por la Unión Astronómica Internacional al nombrar al asteroide (5095) con su apellido.

VERDAD

Escalante afirmó que la película Stand and Deliver contenía “un 90 % de verdad y un 10 % de drama”. En particular, el profesor comentaba que transcurrieron muchos años para que su sistema de enseñanza de las matemáticas tuviera éxito, en contra de lo que parecía indicar el largometraje.

WITTENBERG

Entre otros muchos reconocimientos por su labor docente, Escalante recibió un Doctorado Honoris Causa de la Universidad de Wittenberg en 1998.

X, Y, Z (LAS INCÓGNITAS EN CÁLCULO)

Falleció el 30 de marzo de 2010 tras una larga enfermedad. Por expreso deseo, su ataúd fue colocado por un día en un aula de la Escuela Preparatoria Garfield donde había enseñado entre 1974 y 1991. En la pizarra escribieron una de las frases con la que este profesor animaba a sus estudiantes:

“No hay que hacer el cálculo fácil, ya es fácil”.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Jaime Escalante: “Ganas. Lo que necesitamos son ganas” se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Los físicos finalmente encuentran un problema que solo los ordenadores cuánticos pueden resolver

Tue, 2024/03/26 - 11:59

Los investigadores han demostrado que resolver un problema sobre la energía de un sistema cuántico es fácil para los ordenadores cuánticos pero difícil para los clásicos.

Un artículo de Lakshmi Chandrasekaran. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

ordenadores cuánticos

Los ordenadores cuánticos están a punto de convertirse en superpotencias computacionales, pero los investigadores llevan mucho tiempo buscando un problema viable que confiera una ventaja cuántica, algo que solo un ordenador cuántico pueda resolver. Solo entonces, argumentan, la tecnología finalmente será vista como esencial.

Han estado buscando durante décadas. «Parte de la razón por la que es un desafío es que los ordenadores clásicos son bastante buenos en muchas de las cosas que hacen», explica John Preskill, físico teórico del Instituto de Tecnología de California.

En 1994 Peter Shor descubrió una posibilidad: un algoritmo cuántico para factorizar números grandes. El algoritmo de Shor es potente y se cree ampliamente que supera a todos los algoritmos clásicos; cuando se ejecute en un ordenador cuántico, tiene el potencial de romper gran parte de los sistemas de seguridad de Internet, que dependen de la dificultad de factorizar grandes números. Pero por muy impresionante que sea, el algoritmo solo es relevante para una pequeña porción de áreas de investigación, y es posible que mañana alguien encuentre una manera eficiente de factorizar números grandes en una máquina clásica, lo que haría que el algoritmo de Shor sea discutible. La limitada aplicabilidad de Shor ha llevado a la comunidad investigadora a buscar otros casos de uso de máquinas cuánticas que realmente podrían ayudar a realizar nuevos descubrimientos científicos.

«No queremos construir un ordenador solo para una tarea singular», afirma Soonwon Choi, físico del Instituto Tecnológico de Massachusetts. «Aparte del algoritmo de Shor, ¿qué más podemos hacer con un ordenador cuántico?»

Como dice Preskill: «Tenemos que encontrar aquellos problemas que sean difíciles clásicamente, pero entonces tendremos que [mostrar] que los métodos cuánticos serán realmente eficientes».

Ha habido unas pocas veces en las que los investigadores pensaron que lo habían logrado, descubriendo algoritmos cuánticos que podían resolver problemas más rápido que cualquier cosa que pudiera hacer un ordenador clásico. Solo para que luego alguien (a menudo el joven investigador Ewin Tang) ideara nuevos e inteligentes algoritmos clásicos que podían superar a los cuánticos.

Ahora, un equipo de físicos, que incluye a Preskill, podría haber encontrado el mejor candidato hasta ahora para la ventaja cuántica. Al estudiar la energía de ciertos sistemas cuánticos descubrieron una pregunta específica y útil que es fácil de responder para una máquina cuántica, pero difícil para una clásica. «Este es un gran avance en la teoría de los algoritmos cuánticos», comenta Sergey Bravyi, físico teórico e informático de IBM. «Su resultado es una ventaja cuántica para un problema relevante para la química y las ciencias de los materiales».

Los investigadores también están entusiasmados con que el nuevo trabajo explore nuevas áreas inesperadas de las ciencias físicas. «Esta nueva capacidad es cualitativamente diferente [a la de Shor] y potencialmente abre muchas oportunidades nuevas en el mundo de los algoritmos cuánticos», afirma Choi.

El problema tiene que ver con las propiedades de los sistemas cuánticos (típicamente átomos) en diversos estados energéticos. Cuando los átomos saltan entre estados, sus propiedades cambian. Podrían emitir un color de luz determinado, por ejemplo, o volverse magnéticos. Si queremos predecir mejor las propiedades del sistema en diversos estados de energía, es útil comprender el sistema cuando está en su estado menos excitado, al que los científicos se refieren como estado fundamental.

«Muchos químicos, científicos de materiales y físicos cuánticos están trabajando para encontrar estados fundamentales», explica Robert Huang, uno de los autores del nuevo artículo e investigador científico de Google Quantum AI. «Se sabe que es extremadamente difícil».

Es tan difícil que, después de más de un siglo de trabajo, los investigadores todavía no han encontrado un enfoque computacional eficaz para determinar el estado fundamental de un sistema a partir de primeros principios. Tampoco parece haber ninguna manera de que un ordenador cuántico lo haga. Los científicos han llegado a la conclusión de que encontrar el estado fundamental de un sistema es difícil tanto para los ordenadores clásicos como para los cuánticos.

Pero algunos sistemas físicos exhiben un panorama energético más complejo. Cuando se enfrían, estos sistemas complejos se contentan con asentarse no en su estado fundamental, sino más bien en un nivel de energía bajo cercano, conocido como nivel de energía mínimo local. (Parte del Premio Nobel de Física de 2021 se otorgó por el trabajo en uno de esos conjuntos de sistemas, conocidos como vídrios de espín). Los investigadores comenzaron a preguntarse si la cuestión de determinar el nivel mínimo de energía local de un sistema también era universalmente difícil.

Las respuestas comenzaron a surgir el año pasado, cuando Chi-Fang (Anthony) Chen, otro autor del artículo reciente, ayudó a desarrollar un nuevo algoritmo cuántico que podría simular la termodinámica cuántica (que estudia el impacto del calor, la energía y el trabajo en un sistema cuántico). «Creo que mucha gente ha [investigado] la cuestión de qué aspecto tiene la superficie de energía potencial en los sistemas cuánticos, pero antes no existía ninguna herramienta para analizarlo», afirma Huang. El algoritmo de Chen ha ayudado a abrir una ventana a cómo funcionan estos sistemas.

Al ver lo potente que era la nueva herramienta, Huang y Leo Zhou, el cuarto y último autor del nuevo artículo, la utilizaron para diseñar una manera en la que los ordenadores cuánticos determinen el estado de energía mínimo local de un sistema, en lugar de perseguir el estado fundamental ideal; un enfoque que se centraba precisamente en el tipo de pregunta que estaban buscando los investigadores en computación cuántica. «Ahora tenemos un problema: encontrar una cantidad local de energía, lo que todavía es difícil desde el punto de vista clásico, pero que podemos decir que es cuánticamente fácil», afirma Preskill. «Así que eso nos coloca en el terreno donde queremos estar para lograr una ventaja cuántica».

Dirigidos por Preskill, los autores no sólo demostraron el poder de su nuevo enfoque para determinar el estado energético mínimo local de un sistema (un gran avance en el campo de la física cuántica), sino que también demostraron que éste era finalmente un problema en el que los ordenadores cuánticos podían demostrar su valor. «El problema de encontrar un mínimo local tiene una ventaja cuántica», concluye Huang.

Y a diferencia de los candidatos anteriores, éste probablemente no será destronado por ningún nuevo algoritmo clásico. «Es poco probable que se descuantifique», afirma Choi. El equipo de Preskill hizo suposiciones muy plausibles y tomó pocos riesgos lógicos; si un algoritmo clásico puede lograr los mismos resultados significa que los físicos deben estar equivocados en muchas otras cosas. «Ese será un resultado impactante», apunta Choi. «Me entusiasmará verlo, pero sería demasiado impactante para creerlo». El nuevo trabajo presenta un candidato viable y prometedor para demostrar la ventaja cuántica.

Para ser claros, el nuevo resultado sigue siendo de naturaleza teórica. Demostrar este nuevo enfoque en un ordenador cuántico real es hoy por hoy imposible. Llevará tiempo construir una máquina que pueda probar exhaustivamente la ventaja cuántica del problema. Por ello, para Bravyi, el trabajo acaba de empezar. «Si nos fijamos en lo que pasó hace cinco años, solo teníamos ordenadores cuánticos de unos pocos qubits, y ahora ya tenemos máquinas de cientos e incluso de 1.000 qubits», explica. “Es muy difícil predecir lo que sucederá dentro de cinco o diez años. Es un campo muy dinámico”.

 

El artículo original, Physicists Finally Find a Problem That Only Quantum Computers Can Do, se publicó el 12 de marzo de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Los físicos finalmente encuentran un problema que solo los ordenadores cuánticos pueden resolver se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

No mezcles estos productos de limpieza

Mon, 2024/03/25 - 11:59
limpiezaProductos de limpieza variados. Fuente: Freepick

 

¿Puede matarte limpiar el váter? En la búsqueda de un hogar limpio y libre de gérmenes, a menudo recurrimos a una variedad de productos de limpieza. Sin embargo, ciertas combinaciones de productos químicos pueden generar vapores tóxicos y reacciones potencialmente peligrosas que pongan en peligro nuestra salud y seguridad.

Lee la etiqueta y ponte guantes

Un accidente bastante frecuente consiste en limpiar una superficie con un producto e inmediatamente después aplicar otra sustancia. ¡Y no hablemos de echarlos juntos en el cubo de fregar! Al mezclar estos productos, lo menos grave que puede ocurrir es que sus propiedades se anulen, y lo más grave, que se liberen vapores tóxicos o exista riesgo de exposición.

Los productos de limpieza tienen composiciones muy variadas, por lo que se suelen catalogar en función de su uso y no tanto de sus ingredientes. Por ejemplo, hay desatascadores de tuberías formulados con oxidantes, otros con bases fuertes y otros con tensioactivos. Además, raramente contienen una única sustancia, de manera que hacer una lista general sobre las mezclas más peligrosas es prácticamente imposible.

Lo primero que hay que saber es que estos productos son seguros si se utilizan de acuerdo a las instrucciones. En términos generales, es importante evitar mezclar productos de limpieza entre sí, así como con sustancias domésticas comunes como el vinagre, el agua oxigenada, la laca o el bicarbonato, y tampoco es recomendable combinarlos con agua caliente.

Cuidado con estas mezclas

La lejía es una de las sustancias de limpieza más usadas en el hogar, pero también de las más peligrosas a la hora de mezclar con otros productos. La que tenemos en casa consiste por lo general en una disolución de hipoclorito de sodio (NaClO) al 5% en agua. Se trata de una sustancia oxidante, con excelentes propiedades blanqueantes y desinfectantes. Sin embargo, su mezcla con otros productos comunes como el amoníaco, el alcohol o el vinagre puede producir reacciones químicas potencialmente tóxicas.

  • Lejía y amoníaco. El amoníaco comercial contiene una disolución del 5-10% de hidróxido de amonio. La mezcla de estos dos productos habituales en el hogar genera vapores tóxicos de cloramina, que pueden irritar los ojos, la nariz, la garganta e incluso causar daño pulmonar grave. Además, la reacción entre el cloro y el amoniaco también puede generar gas cloruro de nitrógeno, un compuesto altamente tóxico y corrosivo que puede ser letal en altas concentraciones. En principio, no se trata de un peligro mortal, pero si a eso se suma una deficiente ventilación, se puede dar una intoxicación fatal.

Un accidente bastante frecuente consiste en limpiar una superficie con un producto e inmediatamente después aplicar otra sustancia.”

limpiezaLimpieza de superficies con guantes y productos de limpieza habituales. Fuente: Pexels

 

  • Lejía y alcohol. La mezcla de lejía (cloro) con alcohol, como el alcohol etílico (etanol) o el alcohol isopropílico, puede generar cloroformo y otros compuestos cáusticos, como el ácido clorhídrico y la cloroacetona. Estos vapores pueden ser extremadamente irritantes para los ojos, la nariz y la garganta, y llegar a causar mareos, náuseas e incluso pérdida del conocimiento.

  • Lejía y vinagre. Al mezclar lejía con vinagre, que no es más que una disolución de ácido acético, se produce gas cloro. Este gas es altamente irritante para las vías respiratorias y puede causar tos, dificultad para respirar e incluso daño pulmonar. Además, tienen lugar reacciones que pueden producir cloruro sódico y oxígeno, desproporcionar a cloruro y clorato, o generar otros compuestos químicos potencialmente peligrosos.

La lejía tampoco debe mezclarse con otros productos de uso habitual, como el agua caliente o el agua oxigenada. En el primer caso, si se superan los 30ºC de temperatura, puede descomponerse y liberar gas cloro. En el caso del agua oxigenada, que es una disolución de peróxido de hidrógeno, el hipoclorito de la lejía puede reaccionar formando cloratos y percloratos, en una serie de reacciones químicas exotérmicas que desprenden calor y presentan un elevado riesgo de explosión.

Otras combinaciones peligrosas

La combinación de productos de limpieza como la sosa cáustica (hidróxido de sodio), el agua fuerte (ácido clorhídrico) y ciertos insecticidas puede generar mezclas extremadamente peligrosas. La sosa cáustica es altamente alcalina y puede reaccionar violentamente con ácidos fuertes como el agua fuerte, liberando calor y vapores corrosivos. Esta reacción puede causar quemaduras químicas graves en la piel y las vías respiratorias. Además, algunos insecticidas contienen compuestos químicos volátiles que pueden reaccionar de manera impredecible con otros productos químicos presentes en el ambiente, creando gases tóxicos o inflamables. Por lo tanto, es esencial evitar mezclar estos productos de limpieza con otros productos químicos para prevenir accidentes graves y proteger la salud y seguridad de las personas.

La lejía tampoco debe mezclarse con otros productos de uso habitual, como el agua caliente o el agua oxigenada.”

limpiezaProductos de limpieza variados. Fuente: Pexels

 

Esta selección de combinaciones peligrosas es solo la punta del iceberg, ya que las posibles interacciones entre productos de limpieza podrían ser infinitas. La conclusión principal es que los productos de limpieza deben utilizarse exclusivamente para su propósito previsto, siguiendo siempre las indicaciones del fabricante y evitando en todo momento su mezcla con otras sustancias, por más inofensivas que puedan parecer, debido al riesgo de desencadenar reacciones químicas potencialmente mortales.

En caso de experimentar síntomas de intoxicación accidental, como irritación, tos, náuseas, escozor, mareos, dolor de cabeza, somnolencia, dificultad para respirar o dolor abdominal, es crucial llamar de inmediato a los servicios de emergencia al número 112 o contactar con el Servicio de Información Toxicológica.

Sobre la autora: Raquel Gómez Molina es química especialista en laboratorio clínico y comunicación científica

El artículo No mezcles estos productos de limpieza se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Naukas Bilbao 2023 – Toda su sangre en mis manos

Sat, 2024/03/23 - 11:59

El gran evento de divulgación organizado por Naukas y la Cátedra de Cultura Científica volvió a Bilbao para celebrar su decimotercera edición en el gran Palacio Euskalduna los pasados 15 y 16 de septiembre de 2023.

 

Alberto García Salido es un superhéroe auténtico. Pero no de los de capa y leotardos, sino de los de bata y estetoscopio. En esta charla nos cuenta una de sus primeras intervenciones como médico adjunto, que daría para una película.

Alberto García Salido (Madrid, 1981) es pediatra, escritor y divulgador. Trabaja actualmente en las unidades de Cuidados Intensivos y Cuidados Paliativos del Hospital Infantil Universitario Niño Jesús de Madrid.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2023 – Toda su sangre en mis manos se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Raíces culturales de la transición demográfica

Fri, 2024/03/22 - 11:59

La opinión mayoritaria es que la transición demográfica obedece, fundamentalmente, a causas económicas. Sin embargo, sin descartar esas causas, hay datos que avalan la hipótesis de que el elemento determinante de ese fenómeno puede ser de naturaleza cultural, y tenga su origen en los valores e ideas predominantes en las sociedades avanzadas y en la forma en que esos valores e ideas son transmitidos.

transición demográficaFoto: Stéphane Juban / Unsplash

La transición demográfica consiste en el descenso secuencial de las tasas de mortalidad y de las de natalidad. Tras un largo periodo –de siglos– durante el que ambas tasas se mantuvieron en valores relativamente altos y la población (cuando se daban las condiciones para ello) crecía muy lentamente, se ha pasado a una época de cambios en esas tasas que comenzó hace menos de 200 años.

Para que se produzca la transición demográfica debe reducirse, en primer lugar, la tasa de mortalidad. La mejora de las condiciones de alimentación, salud y vivienda hace que aumente la esperanza de vida, debido, fundamentalmente, a la reducción de la mortalidad infantil. Tras ese descenso en la mortalidad, y como consecuencia del mismo, la población crece de forma acelerada, porque aumenta mucho el número de niños que alcanzan la edad reproductora. Posteriormente, y tras un periodo de crecimiento poblacional fuerte, empieza a descender la tasa de natalidad, normalmente desde valores de entre seis y ocho hijos por mujer hasta niveles inferiores a dos. Una vez se ha reducido la tasa de natalidad hasta esos valores tan bajos, la población puede incluso llegar a descender.

La transición demográfica empezó a producirse en algunos países hace casi dos siglos y se está extendiendo al resto del mundo hasta alcanzar a prácticamente todos los países del planeta, con la notable excepción, hasta la fecha, de algunos africanos, principalmente. En este momento, la fecundidad ha descendido ya por debajo de los niveles necesarios para mantener la población mundial estable.

Lógicamente, la generalización de los métodos anticonceptivos, con el control que otorga a las mujeres sobre su propia reproducción, ha sido un elemento muy importante, dado que facilita que disminuyan los nacimientos.

La explicación económica

De acuerdo con la explicación económica de la transición demográfica los factores responsables del fenómeno son las mejores condiciones de vida y una amplia oferta de bienes de consumo. La primera fase, la de la reducción de la mortalidad, está claramente vinculada a las condiciones de salud y alimentación. Y la segunda, la del descenso de la natalidad, se atribuye a una decisión consciente de criar a un pequeño número de hijos o hijas, y poderles ofrecer así las mejores condiciones posibles (de salud, formación, económicas), para su posterior trayectoria vital. Además, el disfrute de los bienes de consumo a que tenemos acceso es incompatible con las necesidades que se derivan de criar una amplia prole.

Desde un punto de vista evolutivo, la transición demográfica plantea un problema evidente. En principio, de acuerdo con lo que sabemos acerca de la evolución y sus mecanismos, lo lógico sería que los individuos tratásemos de tener una descendencia lo más numerosa posible. Y de hecho, la consecución de ese objetivo reproductivo debiera verse favorecida por la abundancia de recursos propia de nuestra época. Sin embargo, ocurre lo contrario.

A la explicación del descenso de la natalidad propio de la transición demográfica basada en factores puramente económicos, relacionados con la calidad de vida y el deseo de proporcionar la misma calidad a la descendencia, se ha venido a sumar una explicación alternativa que basa su argumentación en consideraciones de índole cultural.

La cultura como argumento alternativo

Adquirir información es muy valioso y por eso tenemos mucha facilidad para hacerlo. El problema es que esa misma facilidad provoca que aumente la probabilidad de recibir ideas maladaptativas, que disminuyen la aptitud biológica (el fitness darwiniano).

La cultura minimiza el problema que conlleva el alto coste de evaluar la información. Gracias a ella, disponemos de un sistema de resolución de problemas de carácter general. La ciencia, por sí misma o a través de la tecnología, es el ejemplo más sofisticado de la capacidad de la cultura para resolver problemas diversos y de gran dificultad. Hasta tal punto es efectiva, que si existen las instituciones sociales adecuadas, intelectos individuales muy falibles –como los humanos– son capaces de revelar gradualmente los secretos más profundos del Universo. Pero a cambio pagamos un precio, y ese precio consiste en dar cobijo, en ocasiones, a variantes culturales patológicas en términos darwinianos.

La razón de que ocurra eso es que la posibilidad de difundir variantes culturales maladaptativas no se elimina fácilmente, porque evaluar una variante cultural es muy costoso. Si se eliminase fácilmente ese tipo de difusión de la información, también se perderían las ventajas que reporta, con carácter general, el contar con sistemas de transmisión cultural que se han demostrado muy útiles. Por esa razón, eso solo se hace en casos excepcionales; en la mayoría de los casos se recurre a heurísticos sencillos y rápidos.

Dos buenos ejemplos de heurísticos de gran utilidad son la conformidad y el sesgo de prestigio. El primero nos hace proclives a adoptar los comportamientos mayoritarios dentro del grupo, y el segundo, a imitar a las personas con prestigio. Estos sesgos se manifiestan con mucha claridad en los adolescentes, pero están presentes en el conjunto de la población.

Son, efectivamente, herramientas útiles, pero tienen efectos colaterales maladaptativos inevitables, pues cuando, por las razones que sea, la información o variante cultural que se transmite es maladaptativa, no es fácil que esa transmisión se elimine o limite. Además, la importancia relativa de este modo de transmisión es mayor cuanto mayor es el volumen de población, ya que son más las personas de las que se puede recibir información.

En las sociedades agrarias premodernas, el prestigio y el estatus lo daba la cuna, no el mérito, y la familia era la institución social más significativa. En esas sociedades la transmisión de información es vertical y tiende a favorecer variantes culturales que refuerzan la propia importancia de la familia, porque, al fin y al cabo, la prosperidad dependía del tamaño familiar, y una familia amplia era, a su vez, señal de éxito económico.

La formación en una sociedad compleja

Conforme los pueblos han accedido a mejores condiciones de vida, las sociedades se han hecho cada vez más complejas, y las economías, más y más dependientes del conocimiento avanzado. En esas sociedades se necesitan personas con un nivel de formación alto para ocuparse de la gestión y gobierno de entidades, tanto públicas como privadas, así como para desempeñar trabajos para los que se requieren conocimientos técnicos de alto nivel. Para formarse, esas personas necesitan dedicar un tiempo cada vez mayor, por lo que han de posponer el momento en que tendrán hijos.

Por otra parte, hay una fuerte competencia por esos puestos de trabajo cualificado, ya que quienes los ocupan tienen un mayor estatus social. Además, al posponerse la maternidad y extenderse a las mujeres las oportunidades de formación, éstas también participan de esas actividades.

Las vías de transmisión de las ideas han cambiado. La información se transmite de múltiples formas, y las vías “horizontales” –sobre todo basadas en medios de comunicación y sistemas educativos– han adquirido una importancia creciente. Cuando los modelos a imitar, en virtud del sesgo de prestigio, son profesionales de éxito, esas ideas y valores se extienden por la población, y a partir de ahí opera la conformidad, haciendo que muchas o todas las personas adopten los mismos comportamientos. El descenso en la natalidad es la consecuencia de todo ese proceso.

En definitiva, cierto grado de desarrollo económico es condición para que se pueda dar la transición demográfica, pero no está claro que sea el desencadenante, ni su factor más determinante. Un estudio realizado con 600 unidades administrativas europeas en el marco del Princeton European Fertility Project mostró un notable desajuste entre el desarrollo económico y los hitos de la transición demográfica. Esta comenzó en ciertas zonas de Francia alrededor de 1830, y sin embargo, en el Reino Unido, más desarrollado económicamente, no se produjo hasta 50 años después, a la vez que en algunas zonas de Alemania. En otras zonas de este último país, la transición se demoró hasta la segunda década del siglo XX, sin que esas diferencias tuvieran nada que ver con diferencias económicas. Igualmente, en la Bélgica francófona la transición demográfica se inició alrededor de 1870, pero no empezó hasta 1910 en la zona flamenca. Y hubo zonas de Francia, como Bretaña y Normandía, en las que el fenómeno se retrasó un siglo con respecto al resto del país. También en el que había sido el Imperio Austrohúngaro se produjeron grandes diferencias: Hungría se adelantó al resto del imperio. En todos los casos registrados, hay un elemento común: el acceso de las mujeres al mercado laboral es el factor que marca el inicio del descenso en la natalidad.

Pero hay excepciones

Para terminar, merece la pena presentar dos notables excepciones en Occidente a la tendencia general. Se trata de las dos comunidades articuladas en torno a sendas confesiones religiosas, la de los amish y la de los huteritas. Amish, en los Estados Unidos, y huteritas, en el Canadá, son los herederos de los anabaptistas que sufrieron persecución por motivos religiosos tras la reforma luterana en Europa. Los amish emigraron a los Estados Unidos en el siglo XVIII y los huteritas al Canadá en el XIX. En ambos casos mantuvieron sus tradiciones y modo de vida, basado fundamentalmente en la agricultura.

Ambas comunidades han mantenido un notable aislamiento cultural con respecto al resto de comunidades de sus países. Han rechazado el uso de los medios de comunicación propios de la era contemporánea, han renunciado a gran parte de los productos del desarrollo tecnológico, y cuentan con sistemas educativos propios para los niveles superiores. En definitiva, en estas comunidades se han preservado las vías de transmisión cultural propias de las sociedades premodernas.

Pues bien, tasas de natalidad de entre 6 y 8 hijos por mujer son la norma en estas comunidades. Durante el siglo XX los huteritas han duplicado su número cada 17 años, y los amish, que eran 5.000 a comienzo del siglo XX, han alcanzado la cifra de 150.000 a comienzos del siglo XXI. No son pobres. Unos y otros forman comunidades prósperas, que dedican sus recursos a sostener su crecimiento demográfico, para lo que necesitan extender sus posesiones de tierra. Solo el precio de esta última ha podido limitar en cierta medida su expansión, pero también han tenido la suficiente versatilidad como para dedicarse a otras actividades económicas sin perder los elementos esenciales de su modo de vida.

Fuente: Síntesis de algunas ideas tomadas del capítulo 4 (Culture is an adaptation) del libro de Peter J Richerson y Robert Boyd “Not by genes alone: How culture transformed human evolution” (The University of Chicago Press, 2006).

Nota: Our World in Data ofrece datos muy completos sobre fertilidad y un análisis detallado del posible efecto de diferentes factores sobre esta variable. En esos análisis el acceso de las mujeres a la educación recibe atención preferente, pero también se estudian las condiciones de crianza de la progenie, así como la influencia de factores culturales y otros.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Raíces culturales de la transición demográfica se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El deterioro de los lagos de la montaña cantábrica

Fri, 2024/03/22 - 11:59

Una investigación en la que participan la Universidad Complutense de Madrid (UCM), la Universidad Politécnica de Madrid (UPM), la Universidad de Alcalá y la Universidad del País Vasco ha detectado que las aguas de los lagos de montaña de la Cordillera Cantábrica han perdido calidad en las últimas décadas. Detrás de esas variaciones estarían las condiciones climáticas y acciones humanas como los cambios de uso del suelo y la actividad ganadera de las últimas décadas.

montaña

El estudio detecta un aumento de la carga de nutrientes y la pérdida de oxígeno disuelto en esos lagos, lo que conlleva una pérdida de calidad de las aguas en esos valiosos ecosistemas. “Estos resultados permiten comparar la magnitud de los cambios ambientales que se han producido durante una época histórica en relación con el actual Cambio Global, sus causas y sus consecuencias en los ecosistemas acuáticos de montaña, lo que constituye un avance científico muy significativo”, destacan los investigadores.

La investigación, publicada en Anthropocene se ha llevado a cabo mediante el análisis de biomarcadores orgánicos en los sedimentos del fondo del Lago Isoba (León), que ha permitido identificar tanto su grado de preservación como el origen de los mismos.

A partir de ahí, se han reconstruido los principales cambios ambientales que se han producido en la región durante los últimos 550 años –que abarcan la Pequeña Edad de Hielo, periodo de enfriamiento global entre los siglos XVI y XIX- en respuesta a los cambios climáticos recientes y al impacto de las actividades humanas que se han desarrollado como ganadería, cambios en el uso del suelo y en la cubierta vegetal.

Entre la información extraída, por ejemplo, se sabe que durante la Pequeña Edad del Hielo se produjo un mayor aporte de plantas terrestres y poca degradación debido a las condiciones climáticas frías, o que desde 2006 la productividad del fitoplancton y la actividad microbiana han sido significativas, así como el aumento de estanoles de origen fecal -moléculas presentes en las heces de herbívoros-.

“Desde un punto de vista más aplicado, permiten evaluar el impacto de los cambios ligados a la actividad humana en los lagos de montaña, lo que proporciona criterios para una mejor ordenación del territorio y la conservación y restauración ecológica de estos emblemáticos lagos”, comentan sobre las aplicaciones de los resultados los investigadores.

Referencia:

José E. Ortiz, Yolanda Sánchez-Palencia, Ignacio López-Cilla, César Morales-Molino, Jon Gardoki, Trinidad Torres, Mario Morellón (2024) Lipid biomarkers in high mountain lakes from the Cantabrian range (Northern Spain): Coupling the interplay between natural and anthropogenic drivers Anthropocene doi: 10.1016/j.ancene.2024.100431

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El deterioro de los lagos de la montaña cantábrica se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

¿Un visitante de un mundo oceánico?

Thu, 2024/03/21 - 11:59

Siempre ha estado muy, muy cerca, en nuestro sistema solar, y lleva en él mucho más tiempo que nosotros, al menos, desde que este se originó hace unos 4500 millones de años, así que es posible que lo «viera» todo… y estamos deseando que nos lo cuente. Su nombre es Bennu, un asteroide cuya órbita se extiende entre el interior de la terrestre y el exterior de la marciana, y es uno de los pocos cuerpos celestes de los que hemos podido traer muestras a la Tierra hasta el momento ―los otros son la Luna, así como los asteroides Itokawa y Ryugu y material de la cola del cometa 81P/Wild.

BennuAsteroide Bennu, antes 1999 RQ36. Bennu es una antigua ave mitológica egipcia, similar al ave fénix griego. El nombre lo eligió Michael Puzio, de 9 años, un niño de Carolina del Norte.
Fuente: NASA/Goddard/University of Arizona

El 24 de septiembre de 2023 aterrizó en el desierto de Utah una cápsula con los 70,3 gr que la misión de la NASA OSIRIS-Rex (Origins, Spectral Interpretation, Resource Identification, and Security – Regolith Explorer) había logrado obtener de la superficie de Bennu ―más de los 60 gr que se habían establecido como objetivo y la más abundante hasta el momento―. La sonda se lanzó el 8 de septiembre de 2016 y llegó a su destino dos años después: el 3 de diciembre de 2018. Las muestras se recogieron el 20 de octubre de 2020 y llegaron hasta nosotros tres años después. Ya hemos empezando a obtener los primeros resultados de su análisis.

La cápsula con las muestras del asteroide Bennu aterrizó en el desierto de Utah el 24 de septiembre de 2023. Se logró abrir, tras alguna dificultad, el 11 de octubre. Fuente: NASA/Keegan Barber

Pero ¿qué tiene de especial Bennu? ¿Por qué esta inversión de recursos para analizarlo e incluso traer muestras de su superficie? Son varios los motivos que expone la NASA. El primero de ellos ya lo hemos mencionado: es muy antiguo, al menos tanto como el propio sistema solar, lo que ya podría darnos muchos datos sobre la manera en la que este se formó, pero es que, además, Bennu podría contener fragmentos de materiales más antiguos. Preservado durante tantos miles de millones de años gracias al vacío del espacio, podría considerarse una cápsula del tiempo de la historia de nuestros propios orígenes… y el de la vida en general debido a su composición, rica en moléculas orgánicas e incluso agua. Además, pero no menos importante, se encuentra bastante cerca de nosotros y su máxima aproximación a nosotros tiene lugar cada seis años, lo que facilita las labores de lanzamiento. También tiene el tamaño adecuado ―es más o menos como el Empire State Building, de Nueva York― como para que su velocidad de giro sobre sí mismo no sea tan grande como para haber complicado muchísimo las labores de aterrizaje.

Momento de recolección de muestras de la misión OSIRIS-REx en la zona de aterrizaje Nightingale, en el asteroide Bennu.
Créditos: NASA/Goddard/University of Arizona

Por si todo esto no fuera suficiente, aún hay más: Bennu podría tener algunas claves para averiguar cuál sería nuestra mejor estrategia de protección en el caso de que algún asteroide se aproximara demasiado a la Tierra, ya que se espera que en 2135 se acerque a nosotros a una distancia menor que la de la Luna. ¡¿Cómo?! ¿Hay peligro de colisión entonces? ¡Para nada! Pero esa cercanía nos permitirá calcular y estudiar su trayectoria, así como la acción del campo gravitatorio de la Tierra sobre cualquier cuerpo similar que se pueda aproximar e incluso suponer una amenaza, con mucha mayor precisión.

Las muestras de Bennu se están analizando el Laboratorio Lunar y Planetario de la Universidad de Arizona y el director del proyecto, Dante Lauretta, ya ha empezado a dar algunas pistas, aunque aún no se ha publicado ningún resultado. Lo que han encontrado son ciertos tipos de minerales compatibles con la presencia de agua y otros similares a los detectados en los géiseres de Encélado, uno de los satélites de Saturno, que, pensamos, oculta un vasto océano bajo su capa superficial de hielo. Así que, ¿es posible que Bennu venga de un lugar similar? Esa es, según Lauretta, la hipótesis con la que trabajan en este momento. No ha dado mucha información más, pero se espera que se publiquen muchos más detalles en algunas semanas que, según comenta el investigador son «muy interesantes».

Géiseres de Encélado fotografiados por la sonda Cassini en el año 2009. Fuente: NASA/JPL-Caltech/SSI/CICLOPS/Kevin M. Gill

En cualquier caso, puede que lo más bello de este tipo de misiones sea cómo nuestras ensoñaciones sobre otros mundos parecen hacerse realidad. En esta ocasión, nuestro visitante de las estrellas no es más que un pedazo de roca a la deriva, pero que, tal vez, venga de un mundo que hemos imaginado muchas veces: El mundo azul, de Jack Vance; Cachalot, de Alan Dean Foster; Terramar, de Ursula K. Le Guin; Hydros, de Robert Silverberg; El mundo de Roche, de Robert L. Forward; Solaris, de Stanislaw Lem, y tantos, tantos otros.

Fuente: Pixabay / NWimages by Sabrina Eickhoff

Estaremos muy atentos al mensaje que traiga consigo este pequeño asteroide.

Bibliografía

Howgego, Joshua (10 de febrero de 2024). Bennu may be from an ocean world, New Scientist.

NASA Science, OSIRIS-Rex.

Méndez Chazarra, Nahúm (8 de agosto de 2022). Meteoritos interestelares, muestreando otros sistemas planetarios, Cuaderno de Cultura Científica.

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo ¿Un visitante de un mundo oceánico? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El árbol de Fibonacci

Wed, 2024/03/20 - 11:59

En esta entrada del Cuaderno de Cultura Científica recuperamos un tema clásico de la sección Matemoción, la conocida sucesión de Fibonacci. En concreto, vamos a mostrar que se puede construir un árbol relacionado con la sucesión de números en la que cada término es igual a la suma de los dos términos anteriores, siendo los dos primeros 1 y 1, esto es, la sucesión de Fibonacci:

De los conejos al árbol de Fibonacci

La sucesión de Fibonacci fue introducida, al menos en Europa (en la entrada El origen poético de los números de Fibonacci puede leerse cómo surgió el conocimiento de esta sucesión en la India, en relación con la poesía en sánscrito), por el matemático italiano Leonardo de Pisa (1170-1241), a quien se le conocía como Fibonacci, esto es, hijo de Bonaccio, en su libro Liber Abaci / El libro del ábaco (1202), como solución a uno de los problemas de ingenio que se planteaban en el mismo.

Recordemos, una vez más, el problema en cuestión:

Consideremos una familia de conejos con la característica de que tardan un mes en ser fértiles. Cuando han alcanzado la fertilidad, cada pareja se aparea teniendo al mes siguiente (cada hembra) una pareja de crías (un macho y una hembra) que de nuevo tardarán en ser fértiles un mes y entonces se aparearán. ¿Cuántas parejas de conejos habría al cabo de un tiempo dado, por ejemplo, un año?

La respuesta a este problema se puede obtener estudiando qué es lo que ocurre durante los primeros meses, como se muestra en la siguiente imagen, e intentando deducir la respuesta general. En la parte de arriba se cuenta el paso del tiempo (cuántos meses van pasando, al finalizar cada mes) y en la parte de abajo la cantidad de parejas de conejos (asumiendo que no se muere ninguna y se reproducen como describe el problema, se aparean cada mes y tienen crías cada mes, cuando son fértiles claro). Imaginemos que partimos (0 arriba) de una pareja (1 abajo), como tarda un mes en ser fértil, al finalizar ese primer mes (1 arriba) sigue habiendo una pareja de conejos (1 abajo). Al finalizar el segundo mes (2 arriba) la pareja original habrá tenido su primera pareja de crías (un macho y una hembra, como reza el problema), luego hay 2 parejas de conejos (2 abajo). Al finalizar el siguiente mes, el tercero (3), estarán la pareja original, una nueva pareja de crías de la misma y la pareja de crías que había nacido el mes anterior, pero que aún son jóvenes para tener crías y no lo harán hasta el mes siguiente, luego 3 parejas de conejos.

Cantidad de parejas de conejos durante los cinco primeros meses

 

Aunque el esquema es bastante claro, veamos qué ocurre al finalizar el cuarto mes. Como estamos asumiendo que las parejas de conejos no se mueren, seguirán las tres parejas que estaban el mes anterior (3), más las nuevas parejas de crías que nazcan ese mes, pero para saber cuántas son es necesario conocer cuántas son fértiles, que lo son la pareja original y la primera pareja de crías que tuvieron, es decir, las 2 parejas que estaban dos meses antes (2), en conclusión, 3 + 2 = 5 parejas de conejos. Otro tanto ocurre al término del quinto mes, que estarán 8 parejas de conejos, las del mes anterior (5), más las nuevas parejas de crías, cuya cantidad es igual a las parejas de conejos de dos meses antes (3), 8 = 5 + 3.

Está claro, por el razonamiento anterior, que la solución del problema de los conejos de Fibonacci es una sucesión de números en la que cada término Fn es la suma de los dos anteriores Fn – 1 + Fn – 2, siendo los dos primeros términos F1 = F2 = 1. Por lo tanto, al cabo de un año, doce meses, como pregunta el problema, la solución será F12, es decir, 144, si miramos a los primeros términos de la sucesión más arriba.

El matemático polaco Hugo Steinhaus (1887-1972), en su famoso libro de divulgación de las matemáticas Mathematical Snapshots / Instantáneas matemáticas (1938), introduce la sucesión de Fibonacci con la propiedad de que cada término es la suma de los dos anteriores y lo relaciona, a posteriori, con un problema sobre el crecimiento de las ramas de un árbol. En concreto, Steinhaus escribe

Si un árbol produce una nueva rama después de un año, y siempre descansa durante un año, produciendo otra nueva rama sólo en el año siguiente, y si la misma ley se aplica a cada rama, entonces, en el primer año deberíamos tener sólo el brote principal, en el segundo – dos ramas, en el tercero – tres, luego 5, 8, 13, etc…

Ilustración del libro Mathematical Snapshots / Instantáneas matemáticas (1938), del matemático polaco Hugo Steinhaus, sobre la relación de los números de Fibonacci con las ramas de un árbol

A este árbol que describe Steinhaus le podríamos denominar árbol de Fibonacci (biológico). Aunque volveremos al final de la entrada sobre el árbol de Fibonacci biológico, vamos a introducir, a continuación, el árbol de Fibonacci desde el punto de vista de la teoría de grafos.

Un árbol definido de forma recursiva

Antes de definir el concepto de árbol de Fibonacci, desde el punto de vista de la teoría de grafos, recordemos algunos conceptos sencillos de la misma.

Grafo. Un grafo está formado por un conjunto de puntos, llamados vértices, y un conjunto de aristas, cada una de las cuales une dos vértices (aunque los grafos pueden tener bucles, aristas que unen un vértice consigo mismo, en este contexto no nos interesa esta posibilidad). Salvo que se diga lo contrario un grafo tiene un número finito de vértices y aristas.

Grado de un vértice. Se llama grado de un vértice al número de aristas que inciden en el mismo (si hubiese un bucle, esa arista se contaría como dos).

Camino. Un camino es una sucesión de vértices y aristas, que se inicia en un vértice y se termina en otro.

Camino simple y ciclo. Un camino en el que no se repite ningún vértice se llama camino simple, y si es cerrado, se dice que es un ciclo.

Grafo conexo. Un grafo en el que cada par de vértices está conectado, al menos, por un camino simple, se dice que es conexo.

Árbol. Un grafo en el que cualesquiera dos vértices están conectados exactamente por un camino es un árbol. Equivalentemente, es un grafo conexo que no posee ciclos.

Un par de ejemplos, de un grafo, que no es árbol ya que contiene un ciclo, y de un árbol

 

Árbol con raíz. Si en un árbol se considera que uno de los vértices es especial, y se le denomina raíz, se dice que es un árbol con raíz, además, ese vértice (raíz) se suele considerar un punto inicial y las aristas se suelen considerar dirigidas alejándose de la raíz.

Ejemplo de árbol (binario) con raíz

 

Ahora ya contamos con las definiciones pertinentes para definir el árbol de Fibonacci. Se definen, de forma recursiva, los árboles (con raíz) de Fibonacci, como los árboles Tn, tales que:

A. T1 y T2 son dos árboles con raíz que consisten solo en la raíz, es decir, un vértice;

B. Para n mayor que 2, Tn es el árbol con raíz que tiene a Tn – 1 como subárbol a izquierda y Tn – 2 como subárbol a derecha, es decir, se construye con una raíz, de la que salen dos aristas, una de ellas (la de la izquierda) va a la raíz del árbol Tn – 1, y se continua con el mismo, mientras que en la otra (la de la derecha) se coloca el árbol Tn – 2.

Veamos el proceso recursivo de construcción, que se muestra en la siguiente imagen para los primeros pasos, n = 1, 2, 3, 4, 5.

Árboles (con raíz) de Fibonacci T1, T2, T3, T4 y T5

 

Veamos cómo se construiría ahora el árbol de Fibonacci T6. Como describe el proceso de construcción, se empieza con un vértice arriba (la raíz), del que salen dos aristas. En la de la izquierda se coloca el árbol T5, mientras que en la de la derecha el árbol T4, obteniendo así el árbol T6, que se muestra en la siguiente imagen.

Ahora, veamos la relación de estos árboles con la sucesión de Fibonacci. La principal es que si contamos los vértices que están en el extremo opuesto a la raíz de cada árbol de Fibonacci, es decir, los vértices finales del árbol con raíz (los que tienen grado 1), obtendremos los números de la sucesión de Fibonacci (la misma cantidad que si miramos las aristas finales). Si nos fijamos en las anteriores imágenes los vértices finales son 1, 1, 2, 3, 5 y 8. Es lógico que nos salgan los números de Fibonacci Fn, puesto que, por la construcción de cada árbol, a partir de los dos anteriores, los vértices finales del árbol Tn son igual a la unión de los vértices finales de Tn – 1 y Tn – 2, luego contando esos vértices, tenemos la relación Fn = Fn – 1 + Fn – 2, y empezamos con un solo vértice, las raíces, en los dos primeros pasos.

¿Está este árbol relacionado con el problema de los conejos de Fibonacci? La respuesta, como no podía ser de otra manera, es afirmativa. Si consideramos el esquema de la solución del problema planteado por Leonardo de Pisa (observemos la imagen de arriba), podemos construir para cada paso, es decir, para cada nuevo mes, un árbol (en el sentido de grafo), que consiste en considerar como vértices las parejas de conejos en el esquema y como aristas la unión de cada pareja de un cierto mes con ella misma en el mes siguiente y su nueva pareja de crías, si la han tenido, si no nada más, es decir, igual que las fechas del esquema.

Si comparamos los dos grafos, para un paso cualquiera, por ejemplo, n = 6, el árbol de Fibonacci y el árbol que acabamos de asociar a la solución experimental del problema de los conejos del Liber Abaci, observaremos que son iguales (en la siguiente imagen hemos volteado el árbol de Fibonacci, cambiando derecha e izquierda, para facilitar la comparación), salvo que en el árbol de la solución del problema aparecen un vértice y una arista iniciales (que se corresponde con el punto inicial, el mes 0).

Más aún, si colocamos el árbol asociado con la resolución del problema con el vértice inicial (raíz) abajo, observaremos que es esencialmente el árbol (biológico) de Fibonacci.

¿Cuántos vértices y aristas tiene el árbol de Fibonacci?

Ya hemos comentado que la cantidad de vértices, respectivamente, aristas, finales del árbol de Fibonacci Tn es el correspondiente número de Fibonacci Fn, pero contemos más elementos de ese grafo. Por ejemplo, ¿cuántos vértices tiene el árbol de Fibonacci? ¿cuántos son interiores y exteriores? ¿cuántas aristas tiene?.

Si denotamos por v(Tn) el número de vértices del árbol Tn, entonces, por el proceso de construcción del árbol de Fibonacci Tn, que está formado por la nueva raíz junto con los árboles Tn – 1 y Tn – 2,es claro que

Si calculamos ahora los vértices para los primeros casos, n = 1, 2, 3, 4, 5, 6 (arriba podemos ver las imágenes de estos árboles de Fibonacci), tenemos que v(T1) = 1, v(T2) = 1, v(T3) = 3, v(T4) = 5, v(T5) = 9 y v(T6) = 15. Si los comparamos con los números de Fibonacci (F1 = 1, F2 = 1, F3 = 2, F4 = 3, F5 = 5, F6 = 8), podemos realizar la siguiente hipótesis:

Vamos a demostrar la anterior fórmula por inducción. En primer lugar, se cumple para los primeros casos, como acabamos de comprobar. En segundo lugar, vamos a asumir que se cumple para los árboles Tk, con k menor o igual que n – 1, y vamos a demostrarlo para el árbol Tn:

Por lo tanto, ya tenemos una fórmula general para el número de vértices del árbol de Fibonacci Tn, y su relación con el correspondiente número de Fibonacci Fn.

Los vértices del árbol Tn se pueden dividir en dos tipos, los exteriores (cuyo grado es 1, que son los que se llaman “hojas” del árbol, como grafo) y los interiores (cuyo grado es mayor que 1, llamados “nudos”, salvo la raíz, que tiene ya nombre asignado), v(Tn) = ve(Tn) + vi(Tn). Como sabemos que ve(Tn) = Fn y v(Tn) = 2 Fn – 1, entonces sabemos también la cantidad de vértices interiores, vi(Tn) = Fn – 1.

Respecto al número de aristas del árbol Tn, que podemos denotar e(Tn), es fácil darse cuenta de que es igual al número de vértices del árbol menos 1, es decir, e(Tn) = v(Tn) – 1. Por lo tanto, e(Tn) = 2Fn – 2.

Retorno al árbol de Fibonacci biológico

Si consideramos el árbol de Fibonacci biológico, por ejemplo, como el árbol (grafo) asociado al problema de los conejos (véase la imagen siguiente, en la cual hemos disminuido el tamaño de los vértices y pintado vértices y aristas de marrón) observaremos que la propia construcción del árbol no nos proporciona un grosor para las ramas, que podrían considerarse, de hecho, todas del mismo grosor. En este último apartado vamos a ver cómo darle grosor a las mismas, utilizando la sucesión de Fibonacci, para crear un árbol de Fibonacci “más realista”, en el sentido de que, en cierta medida, las ramas más jóvenes son más delgadas que las ramas más viejas.

árbol

Para darle grosor a las ramas vamos a considerar que las ramas más jóvenes, las que se corresponden con aristas exteriores, las aristas que terminan en vértices exteriores (que sabemos que hay tantas ramas exteriores como el número de Fibonacci correspondiente, es decir, el árbol Tn tiene Fn ramas exteriores), tienen el grosor básico (de 1 unidad). A partir de ahí, hacia la raíz, cada rama tendrá un grosor que es igual a la suma de los grosores de las ramas más jóvenes, que surgen de la misma. En la siguiente imagen vemos cómo sería para el árbol de Fibonacci de cinco años, es decir, T6. Así, si dos ramas jóvenes (de grosor 1) vienen de una misma rama, esta tiene grosor 1 + 1 = 2; cuando dos ramas de grosores 1 y 2, respectivamente, vienen de una misma rama, esta tiene grosor 1 + 2 = 3; si dos ramas de grosores 2 y 3, respectivamente, vienen de una misma rama, esta tiene grosor 2 + 3 = 5; o si cada una de las dos ramas que vienen de una misma rama tienen grosores 3 y 5, la rama tiene grosor 8, como en la imagen.

Árbol de Fibonacci T6, luego que tienen una edad de 5 años, con ramas de grosores igual a los primeros números de Fibonacci 1, 2, 3, 5 y 8

Como podemos observar todas las ramas tienen grosores iguales a números de Fibonacci, de hecho, los grosores de las ramas del árbol de Fibonacci Tn son alguno de los números de Fibonacci, de F2 (= 1) a Fn. Por otra parte, en cada nudo en el que se juntan dos ramas, estas tienen como grosores números de Fibonacci consecutivos, Fk y Fk + 1, para k entre 2 y n – 2. Además, como hemos comentado, hay tantas ramas exteriores como el número de Fibonacci correspondiente, las cuales tienen grosor 1, pero según vamos hacia abajo, hacia la raíz, en el árbol, lo que ocurre es que, al llegar al tronco inicial, el grosor es igual a ese número de Fibonacci. Es decir, el árbol de Fibonacci Tn tiene Fn ramas exteriores, de grosor 1, y su tronco tiene grosor Fn.

Por lo tanto, si tuviésemos el árbol de Fibonacci de 16 años, es decir, el árbol T17, tendríamos que posee F17 = 1.597 ramas jóvenes, de grosor 1, mientras que el tronco principal tendría un grosor igual a 1.597.

Diálogo artístico con Fibonacci

La artista brasileña Janaina Mello Landini (1974) tiene unas series de obras que se enmarcan bajo el título ciclotramas y que consisten en instalaciones de estructuras arborescentes construidas con hilos y cuerdas que se entrelazan.

árbolInstalación Ciclotrama 156 – palindrome (2019), de la artista brasileña Janaina Mello Landini, realizada con cuerda de algodón verde hecha a mano sobre lino, de tamaño 138cm x 138cm. Imagen de la página web de la artista Janaina Mello Landini

Dos obras de la serie Ciclotrama Diálogos, en concreto, Ciclotrama 177 – Fibonacci (2020) y Ciclotrama 193 – Fibonacci (2020), que serían “diálogos con el matemático Fibonacci”, consisten en dos árboles de Fibonacci con 16 y 17 años, respectivamente.

Fijemos nuestra atención en la hermosa instalación Ciclotrama 177 – Fibonacci, que consiste en el árbol de Fibonacci T17, luego con una edad de 16 años. Como se puede observar en las siguientes imágenes, el hilo básico establece el grosor unidad (1) y sabemos que hay F17 = 1.597 ramas jóvenes, de grosor 1. Cuando dos ramas jóvenes se juntan, sus hilos se entrelazan formando una trenza de dos hilos, que es la rama de la que salen las dos jóvenes. En general, cuando se junten dos ramas con Fk y Fk + 1 hilos (para un cierto k entre 2 y 15), los Fk + 2 = Fk + Fk + 1 hilos en conjunto formarán la trenza de la rama de la que salen las otras dos. Y el tronco de esta instalación consiste en una trenza de 1.597 hilos.

Instalación Ciclotrama 177 – Fibonacci (2020), de la artista brasileña Janaina Mello Landini, realizada con hilos de algodón y rotulador acrílico sobre lienzo, de tamaño 170cm x 170cm. Imagen de la instalación y dos detalles de la misma, de la página web de la artista Janaina Mello Landini

Estas dos obras de la artista Janaina Mello Landini son artísticas y hermosas realizaciones de los árboles de Fibonacci (biológicos, con grosor de Fibonacci).

Bibliografía

1.- Raúl Ibáñez, Cayley, el origen del álgebra moderna, Genios de las Matemáticas, RBA, 2017.

2.- Hugo Steinhaus, Mathematical Snapshots, Dover, 1999.

3.- Ralph Grimaldi, Fibonacci and Catalan Numbers, Wiley, 2012.

4.- R. Ibáñez, Las matemáticas como herramienta de creación artística, Libros de la Catarata – FESPM, 2023.

5.- Página web de la artista Janaina Mello Landini

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El árbol de Fibonacci se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Así en la Tierra como en el cielo: la fluidodinámica de SN 1987A

Tue, 2024/03/19 - 11:59
1987ASN 1987A. Fuente: Webb Space Telecope / NASA, ESA, A. Angelich (NRAO, AUI, NSF)

Hace unos 20.000 años, vista desde la Tierra, una estrella masiva en una de las galaxias satélite de la Vía Láctea expulsó un anillo de gas y polvo que luego se expandió hacia el espacio interestelar. Miles de años después, la estrella explotó. Cuando fue detectada por los terráqueos en 1987 la denominaron supernova (SN) 1987A. Como el flash de una cámara en una habitación oscura, SN 1987A iluminó su entorno, revelando el anillo de gas y polvo que la estrella había expulsado milenios antes.

Las imágenes de esa estructura mostraban que el material del anillo no se repartía uniformemente, sino que se agrupaba en parches discretos, algo que para lo que la comunidad astrofísica no tenía una explicación convincente.

1987AEstelas de condensación de un Boeing 747. Fuente: Wikimedia Commons

Ahora Michael Wadas y sus colegas de la Universidad de Michigan en Ann Arbor, han presentado una posible solución al problema basada en un fenómeno muy conocido en la Tierra. Proponen que los grumos se formaron a causa del mismo fenómeno fluidodinámico que hace que las estelas de condensación que deja un avión se rompan en pedazos.

1987AEfectos de la inestabilidad de Crow en una estela de condensación. Fuente: Wikimedia Commons

El fenómeno en cuestión se comoce como inestabilidad de Crow y se desencadena por la interacción de dos vórtices que giran en sentido contrario. Wadas y sus colegas sugieren que el anillo de material expulsado por la progenitora de SN 1987A comenzó como un par de vórtices; imagina dos anillos de humo en expansión, uno encima del otro, que giran en direcciones opuestas.

1987AFuente: Wadas et al (2024)

Los investigadores proponen que pequeñas ondas en los dos toroides crecieron a medida que los anillos se expandían, lo que finalmente habría provocado que las estructuras se tocaran en múltiples puntos. A lo largo del anillo, en lugares entre los puntos de contacto, un vórtice más pequeño «se desprendió», convirtiéndose en el núcleo de uno de los grumos del anillo. En simulaciones, los investigadores produjeron anillos con un número de grumos similar al que aparece en el anillo alrededor de SN 1987A.

Referencias:

Michael J. Wadas, William J. White, Heath J. LeFevre, Carolyn C. Kuranz, Aaron Towne, and Eric Johnsen (2024) Hydrodynamic Mechanism for Clumping along the Equatorial Rings of SN1987A and Other Stars Phys. Rev. Lett. doi: 10.1103/PhysRevLett.132.111201

Marric Stephens (2024) A Supernova Remnant Shaped by Vortices Physics 17, s31

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Así en la Tierra como en el cielo: la fluidodinámica de SN 1987A se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La cuenca de Eridania y la complejidad de Marte

Mon, 2024/03/18 - 11:59

Creemos saber mucho sobre la geología marciana porque, al fin y al cabo, es uno de los lugares de nuestro Sistema Solar que más veces hemos visitado, tanto su órbita como su superficie. Pero si consideramos que la historia geológica de un planeta es como un libro, todavía nos faltan muchas páginas, incluso capítulos, por escribir.

Y si reconocemos nuestras limitaciones en este aspecto, muy probablemente la única manera de resolverlas será a través de misiones que, en su superficie, nos permitan estudiar su geología en detalle y tomar muestras que nos ayuden a extraer la mayor información posible en los laboratorios terrestres. Una empresa ambiciosa, sin duda, pero necesaria para seguir ampliando nuestro conocimiento y respondiendo a cuestiones como, por ejemplo, ¿por qué somos planetas tan diferentes?

De las cosas que más nos llama la atención del resto de planetas interiores es, si los comparamos con la Tierra, la ausencia de una tectónica de placas como la que tenemos aquí. Esto no quiere decir que estos otros cuerpos no hayan tenido procesos en los cuales su corteza -o partes de esta- hayan podido sufrir procesos de reciclaje importantes y que hayan tenido su repercusión en la geología que vemos hoy en día.

EridaniaMapa topográfico de la cuenca de Eridania. Los colores representan la profundidad de las aguas en lo que se piensa que fue un sistema de lagos -o mares, según se vea- que pudieron albergar nueve veces la cantidad de agua de los Grandes Lagos norteamericanos. Imagen cortesía de la NASA.

Uno de los aspectos en los que se puede ver reflejada esta dinámica es a través del vulcanismo, ya que el reciclaje de los materiales de la corteza puede crear un rango de composiciones más variadas en los magmas que llegan a la superficie que si los magmas procediesen directamente de una fuente más primitiva.

Precisamente es en este punto donde llegan las novedades. Un nuevo artículo publicado en Nature Astronomy por Michalski et al. (2024) afirma que debemos cambiar la visión de un Marte donde la composición de las lavas era predominantemente basáltica por otro donde hay una mayor variabilidad composicional gracias a un sistema de reciclaje de su litosfera no horizontal como el de la tectónica de placas, sino vertical y que detallaremos más adelante.

En este nuevo artículo los autores se han centrado en la cuenca de Eridania, un lugar, por cierto, muy interesante para la búsqueda de vida pretérita en el planeta a causa de la presencia de antiguos lagos y actividad hidrotermal que, precisamente, podría haber estado relacionada con estos episodios de actividad volcánica. Pues bien, aquí se han descrito 63 volcanes -afirman que podría haber bastantes más- cuya forma y estructura nada tiene que ver con los magmas basálticos. Y es que en nuestro planeta la química de las lavas condiciona de manera fundamental la explosividad y el tipo de edificios volcánicos que se construyen, por lo que no es descabellado pensar que en Marte ocurra lo mismo.

EridaniaFuncionamiento de un sistema hidrotermal en la cuenca de Eridania, muy interesante desde la perspectiva astrobiológica. Imagen cortesía de la NASA.

Precisamente esta cuenca podría haber sido uno de los puntos donde en Marte pudo darse fenómenos de reciclaje de la corteza que permitieran el ascenso de magmas con composiciones diferentes, pero, ¿Cómo se reciclaría la corteza en este planeta sin que haya una tectónica de placas? Pues sería a través de procesos como la delaminación litosférica.

La litosfera es la capa más externa de los planetas rocosos, formada por la corteza y por la parte superior del manto. A grandes rasgos, por su comportamiento podemos considerarla como rígida y, en la Tierra, es la capa que está dividida en las distintas placas litosféricas o tectónicas que conocemos.

Pues la delaminación litosférica consiste en una serie de movimientos en los cuales parte de la litosfera se vuelve inestable -en el sentido gravitatorio- y se separa de la propia litosfera. Habitualmente esto puede ocurrir cuando esta parte inferior de la litosfera es más densa que la parte superior del manto y, por lo tanto, tiene esa facilidad para separarse y “hundirse” o bien por el ascenso de materiales calientes a través del manto y que sustituyen a parte de la litosfera.

Estos procesos de delaminación litosférica -y que en nuestro planeta siguen ocurriendo- probablemente serían los primeros sistemas de reciclaje de la corteza que existieron en la Tierra -antes de la tectónica de placas- y, probablemente, los que hayan existido también en planetas como Mercurio o Venus.

Detalle de la cuenca de Eridania, donde se aprecian unos materiales de tonos claros muy fracturados y que probablemente estén compuestos por minerales del grupo de las arcillas. Cortesía de NASA/JPL-Caltech/UArizona.

En este proceso en el que se introducen materiales de la corteza hacia el manto estos se pueden acabar mezclando y provocando la evolución en las composiciones de los materiales del manto que posteriormente podrían llegar a la superficie a través de los volcanes, como parece que aquí ha ocurrido, y dando lugar a lavas con una composición diferente a la basáltica.

¿Qué interés puede tener este descubrimiento? Pues tenemos que pensar que en nuestro planeta quedan muy pocas rocas que nos remonten a los “primeros años”, por lo que este hallazgo en Marte podría poner a disposición de la ciencia rocas que proceden de un sistema de reciclaje de la corteza previo a la tectónica de placas, lo que a su vez nos podría ayudar a conocer mejor la dinámica no solo de nuestro planeta, sino también Venus y Mercurio.

Desde el punto de vista de la astrobiología, como comentábamos anteriormente, también es muy interesante, ya que esta cuenca albergaba lagos salpicados por la actividad hidrotermal que podrían ser análogos de los lugares donde se originó la vida en la Tierra y, por lo tanto, candidatos a buscar pistas sobre un posible origen de la vida en Marte.

Referencia:

Michalski, J.R., Deanne Rogers, A., Edwards, C.S. et al. (2024) Diverse volcanism and crustal recycling on early Mars. Nat Astron doi: 10.1038/s41550-023-02191-7

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo La cuenca de Eridania y la complejidad de Marte se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Manipulación sonora, una cuestión evolutiva

Sun, 2024/03/17 - 11:59

José Manuel González Gamarro

La música es un concepto que se aborda en la inmensa mayoría de las investigaciones desde una perspectiva antropocéntrica, esto es, situando a los humanos en el centro del significado, el valor, el conocimiento y la acción. Sin embargo, existen otras orientaciones donde los animales no humanos, o todos los animales, humanos y no humanos, son el centro de las investigaciones en cuanto a la música o la musicalidad. Es lo que se conoce, sobre todo en el mundo anglosajón, como biomusicología. Ya en 1928, Henry Beston afirmaba en The Outermost House que necesitamos un concepto más sabio y más místico de los animales puesto que «no son hermanos, no son subordinados; son otras naciones, atrapadas con nosotros en la red de la vida y el tiempo».

Hablar de música o musicalidad en ciertas especies es controvertido por la dificultad de etiquetar algunas sucesiones de sonidos o ruidos como música. Esta polémica tampoco escapa al ser humano, puesto que hay muchas obras de renombrados compositores que el público en general podría no calificar como música. Sin irnos a ejemplos demasiado radicales, una muestra de esta difícil clasificación como música podría ser la conocida obra del compositor húngaro György Ligeti Artikulation, aunque la intención de este texto no sea polemizar con el límite de ciertos conceptos.

Foto: Dimitry B / Unsplash

 

284 especies con manipulación sonora

Volviendo al reino animal no humano, hay muchas especies que emiten sonidos con diversos fines, los cuales algunos se clasifican como cantos, llamadas, vocalizaciones, etc., dependiendo de la especie y las características sonoras de lo que se emite. Cuando se habla de música animal o música en la naturaleza, en lo primero que se piensa es en los pájaros, puesto que los sonidos que emiten se acercan bastante a la orientación antropocéntrica del concepto. En cualquier caso, producen sonidos y algunas especies usan deliberadamente algún tipo de objeto, estructura o instrumento para manipular este sonido y que eso le proporcione algún tipo de ventaja. De hecho, se conocen 284 especies que usan algún tipo de herramienta de manipulación sonora.1 Hay animales que pueden manipular el sonido, ya sea en frecuencia (hercios) o intensidad, con una intención bien definida. Conocer varios ejemplos nos da una visión más general de este fenómeno.

Uno de ellos es el caso de los grillos de árbol, que usan las hojas como membrana de un altavoz, haciendo un agujero en el centro2. Modifican el tamaño del agujero según su propio tamaño para amplificar el sonido. Los investigadores descubrieron que con el agujero en el centro la señal se amplifica hasta 4 veces más que si el grillo canta en el borde de la hoja. A la hora de aparearse, es esencial llegar al mayor público posible. Siguiendo con los grillos, el conocido como grillo topo también reajusta de alguna manera el lugar desde donde emite su sonido3. El macho construye su madriguera en forma de cuerno y modifica su estructura (tamaño y forma) para adecuarla a las frecuencias para atraer a las hembras. Si lo pensamos por un momento, este grillo es un lutier, puesto que la construcción de instrumentos musicales funciona de la misma manera, hacer objetos resonantes donde priman más unas frecuencias que otras. Su modus operandi es el ensayo y error, es decir, que mientras va construyendo la madriguera emite chirridos para ir adecuando el lugar. Gracias a esto consigue una señal más fuerte y con más intensidad en las frecuencias bajas, lo que atrae a más hembras, con la consiguiente ventaja evolutiva. Otros tipos de grillos, como el grillo subterráneo, seleccionan el sitio donde “cantan” aunque no lo construyen. Se suelen colocar cerca de muros o escaleras para amplificar su señal y también eligen la posición de su cuerpo para que la amplificación sea óptima.4

Dejando a un lado los grillos, si dirigimos la mirada (o el oído más bien) a los anfibios, podemos hallar también casos de manipulación sonora. Hay ranas de árbol que realizan algo parecido a los grillos, modifican el lugar de su llamada en función de su resonancia buscando una mayor amplificación.5 Hay otras, como las ranas que habitan en los agujeros de los árboles, que modifican su llamada en función de las condiciones del agujero donde se encuentran6. Estos animales ajustan su sonido en función del volumen y forma del espacio en el que están. En la selva tropical es habitual que los agujeros de los árboles se llenen de agua, lo que cambia su frecuencia de resonancia. Las ranas adaptan su sonido a estas circunstancias para producir una señal más fuerte, y todo esto sin disputas con el técnico ni ecualizadores, la envidia de cualquier músico.

Buscar la amplificación sonora también atañe a los murciélagos, en concreto el murciélago de ventosas buchiblanco, que elige cavidades de descanso que se asemejan a un cuerno acústico.7 Este animal es bastante ingenioso porque elige el lugar para que se amplifiquen tanto los sonidos salientes como los entrantes. En el mundo subacuático también existe una búsqueda de la modificación sonora, por extraño que pueda parecer, como es el caso de un pequeño pez conocido como gobio de arena. Emiten señales debajo de piedras, conchas, etc., y cubren estos objetos de arena para, como todo parece indicar, amplificar la llamada para las hembras.8

Como no podía ser de otra manera, en animales más cercanos a los humanos, como son los orangutanes de Borneo también se da una manipulación sonora con claros objetivos que puedan suponer una ventaja evolutiva. Producen una especie de beso-chirrido que usan ante una amenaza.9 La particularidad de este sonido es que lo hacen con hojas en la boca, de manera análoga a como usan el kazoo o el mirlitón los humanos. El sonido también lo producen sin hojas, pero con las hojas en la boca ganan en intensidad con una gama mayor de frecuencias bajas. Esto implica que se puede usar para persuadir amenazas, ya que frecuencias más graves con mayor intensidad pueden simular que el animal emisor es de mayor tamaño.

La importancia de la amplificación Foto: alvaro ortiz / Unsplash

Como se puede comprobar con estos breves ejemplos, el poder manipular el sonido, sobre todo en intensidad, es una cualidad que puede influir en la evolución. La importancia de la amplificación tampoco escapa a los humanos ni a la evolución de la propia música. Por un lado, es crucial para la construcción de instrumentos musicales, pero, por otro lado, también existe una correlación positiva entre las propiedades resonadoras de cuevas, como por ejemplo en Francia, y el número de pinturas y signos prehistóricos. Esto puede sugerir un interés por la calidad del sonido y las propiedades resonadoras en los humanos prehistóricos.10 De hecho, si nos vamos más atrás en el tiempo, parece ser que nuestros ancestros, cuando el entorno ecológico cambió de una densa selva a bosques abiertos y praderas, tuvieron que desarrollar sonidos más parecidos a las consonantes para abarcar más distancia, en combinación con otras llamadas parecidas a las vocales, lo que pudo influir en el surgimiento y evolución del lenguaje.11

Esta búsqueda de amplificación que se da en el mundo natural, esta evolución, parece permear en la evolución cultural de la música. Solo hay que fijarse en las sorprendentes propiedades de amplificación de algunos teatros griegos y romanos, aunque esto no se circunscriba únicamente a la música. La evolución de la música occidental pasa por una conquista de mayores auditorios y escenarios, hasta tal punto que a día de hoy los conciertos de música actual llevan una fuerte amplificación y se convierten en auténticos fenómenos de masas. Las ventajas de la conquista de la modificación de la amplitud y la frecuencia de los sonidos que parece darse en el mundo natural ha seguido extendiéndose en la evolución musical, acaparando cada vez más público en un mismo recinto o espacio.

Quizás por esto, entre otras muchas razones, a día de hoy se construyen más guitarras eléctricas que clavicordios. Otra consecuencia podría ser que el lector o lectora de este texto sepa cómo es el primer instrumento, pero haya tenido que realizar una breve búsqueda para saber cómo es el segundo. En cualquier caso, el paralelismo o la analogía entre el mundo natural y cultural, también en cuestiones evolutivas, parece estar subyacente en relación con el sonido y, por consiguiente, con la música.

Referencias:

1 Bentley-Condit, V., & Smith. (2010). Animal tool use: current definitions and an updated comprehensive catalog. Behaviour, 147(2), 185-32A. https://doi.org/10.1163/000579509X12512865686555

2 Mhatre, N., Malkin, R., Deb, R., Balakrishnan, R., & Robert, D. (2017). Tree crickets optimize the acoustics of baffles to exaggerate their mate-attraction signal. Elife, 6, e32763. https://doi.org/10.7554/eLife.32763

3 Bennet-Clark, H. C. (1987). The tuned singing burrow of mole crickets. Journal of Experimental Biology, 128(1), 383-409.

4 Erregger, B., & Schmidt, A. K. (2018). Anthropogenic calling sites boost the sound amplitude of advertisement calls produced by a tropical cricket. Animal Behaviour, 142, 31-38. https://doi.org/10.1016/j.anbehav.2018.05.021

5 Tan, W. H., Tsai, C. G., Lin, C., & Lin, Y. K. (2014). Urban canyon effect: storm drains enhance call characteristics of the Mientien tree frog. Journal of Zoology, 294(2), 77-84. https://doi.org/10.1111/jzo.12154

6 Lardner, B., & bin Lakim, M. (2002). Tree-hole frogs exploit resonance effects. Nature, 420(6915), 475-475. https://doi.org/10.1038/420475a

7 Chaverri, G., & Gillam, E. H. (2013). Sound amplification by means of a horn-like roosting structure in Spix’s disc-winged bat. Proceedings of the Royal Society B: Biological Sciences, 280(1772), 20132362. https://doi.org/10.1098/rspb.2013.2362

8 Lugli, M. (2013). Sand pile above the nest amplifies the sound emitted by the male sand goby. Environmental biology of fishes, 96, 1003-1012. https://doi.org/10.1007/s10641-012-0097-z

9 Wieczorkowska, A. A., Ras, Z. W., Zhang, X., & Lewis, R. (2007, April). Multi-way hierarchic classification of musical instrument sounds. In 2007 International Conference on Multimedia and Ubiquitous Engineering (MUE’07) (pp. 897-902). IEEE. https://doi.org/10.1109/MUE.2007.159

10 Reznikoff, I. (2008). Sound resonance in prehistoric times: A study of Paleolithic painted caves and rocks. Journal of the Acoustical Society of America, 123(5), 3603.

11 Gannon, C., Hill, R. A., & Lameira, A. R. (2023). Open plains are not a level playing field for hominid consonant-like versus vowel-like calls. Scientific Reports, 13(1), 21138. https://doi.org/10.1038/s41598-023-48165-7

Sobre el autor: José Manuel González Gamarro es profesor de guitarra e investigador para la Asociación para el Estudio de la Guitarra del Real Conservatorio Superior de Música “Victoria Eugenia” de Granada.

El artículo Manipulación sonora, una cuestión evolutiva se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Naukas 2023 – Las matemáticas del glioma

Sat, 2024/03/16 - 11:59

El gran evento de divulgación organizado por Naukas y la Cátedra de Cultura Científica volvió a Bilbao para celebrar su decimotercera edición en el gran Palacio Euskalduna los pasados 15 y 16 de septiembre de 2023.

 

El uso de las matemáticas en la investigación del cáncer y su tratamiento mediante modelos es fascinante y no de los campos con más proyección en ciencias de la salud, junto con la inteligencia artificial. En esta charla, Elisabete Alberdi ofrece una introducción a como se construye y usa un modelo matemático para un tipo de cáncer, el glioma. Advertimos que esta es una charla de esas en las que hay que estar concentrado, seguir el hilo, tener paciencia porque parece que no pasa nada y, de repente, todo cobra sentido. Si te gustan las matemáticas, la vas a disfrutar.

Elisabete Alberdi es licenciada y doctora en Matemáticas. Es profesora en la Escuela de Ingeniería de Bilbao (UPV/EHU), departamento de Matemática Aplicada.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas 2023 – Las matemáticas del glioma se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Retos medioambientales del sector agropecuario de Europa

Fri, 2024/03/15 - 11:59

Alimentar a una población mundial en rápido crecimiento todavía es un reto. La producción de alimentos con métodos intensivos sigue contaminando el aire, el agua y el suelo, contribuye a la pérdida de biodiversidad y al cambio climático, y consume excesivos recursos naturales, mientras que, paralelamente, una parte importante de los alimentos se desperdicia. La agricultura europea y mundial afronta retos nunca vistos y la adaptación a los cambios en ciernes requiere la ayuda de la ciencia, la tecnología y su transferencia al sector productor.

Los agricultores y ganaderos hacen su trabajo de producir alimentos, pero a medida que aumentan las exigencias medioambientales y se endurece la competencia, la actividad se convierte en un reto cada vez mayor por lo que requerirá más apoyo de las instituciones en aspectos relacionados con la transferencia, el asesoramiento y la financiación. El Pacto Verde Europeo pone a la agricultura y la alimentación entre sus prioridades, pero ¿cuáles son los principales desafíos?

retosFoto: Karsten Würth / UnsplashMetas más ambiciosas

La necesidad de cumplir con los compromisos internacionales adquiridos tras el Acuerdo de París, llevó a la Unión Europea a desarrollar en 2018 un reglamento que regulaba la contabilidad de gases de efecto invernadero (GEI) del sector LULUCF (uso de la tierra, cambio de uso de la tierra y sector forestal), de manera que las emisiones del sector agropecuario y forestal (contabilizadas con signo positivo) no debían exceder las reducciones o secuestro (contabilizadas con signo negativo) del conjunto de las tierras LULUCF en los dos subperiodos de compromiso establecidos (2021-2025 y 2026-2030). Sin embargo, en 2022, el Parlamento Europeo y el Consejo modificaron este Reglamento cambiando el enfoque de equilibrar las emisiones y absorciones en el sector LULUCF al de aumentar las absorciones. De este modo, se marcan metas más ambiciosas, estableciendo un objetivo de eliminación neta para toda la Unión de -310 Mt CO2eq para 2030 (a España le corresponderían -43.635 kt CO2eq). Dicha modificación del Reglamento entró en vigor el 11 de mayo de 2023.

Dado que los sectores agropecuario y forestal pueden ser tanto emisores como mitigadores de gases de efecto invernadero, este nuevo reto exigirá a la Unión una mayor efectividad y contundencia en las actividades de eliminación del carbono en dichos sectores. La UE aún no ha detallado las metodologías adaptadas para su certificación, que se prevé se realice este año 2024. Lo que se dispone a fecha de hoy es de una Revisión de las Metodologías de Certificación para agricultura del carbono (van Baren et al., 2023).

El Pacto Verde Europeo trata de adecuar la imposición de los productos energéticos y de la electricidad a las políticas en materia de energía, medio ambiente y clima. Con este fin aboga por la revisión de la directiva sobre fiscalidad de la energía racionalizando el uso de las exenciones y reducciones fiscales por los Estados miembros. En este contexto se enmarcan la eliminación del subsidio al diésel o la introducción de un impuesto a los vehículos agrícolas, así como la pretendida eliminación gradual de la subvención del gasóleo agrícola. No obstante, vista la movilización del sector, el Ministro de Agricultura, Pesca y Alimentación ha confirmado que el Gobierno español mantendrá esta legislatura (2023-2027) la exención del impuesto especial de hidrocarburos para el gasóleo profesional de uso agrícola.

Un descontento justificado

El descontento del sector con los acuerdos de libre comercio tiene bases fundadas, ya que las importaciones de terceros países no pertenecientes a la UE, con políticas menos estrictas, no cumplen las normas de producción europeas en aspectos como bienestar animal, uso de pesticidas, cambio climático, etc. En este contexto, los mercados globalizados competitivos se convierten en escenarios injustos, puesto que su cumplimiento no se puede exigir de la misma manera a países terceros extracomunitarios por las posibles reclamaciones ante la Organización Mundial del Comercio.

Para atajar este tipo de problemas, en lo que a cambio climático se refiere, se está poniendo en marcha de manera gradual y dialogada con terceros países, el Mecanismo de Ajuste en Frontera por Emisiones de Carbono (Carbon Border Adjustment Mechanism, CBAM). Este mecanismo se aplicará inicialmente solo a un número seleccionado de bienes que se comercian en el mercado regulado/obligatorio de derechos de emisión de carbono de la UE con alto riesgo de fuga de carbono (hierro y acero, cemento, fertilizantes, aluminio y producción de electricidad). Los importadores empezarán a pagar el ajuste financiero en 2026. Su aplicación al sector agropecuario es compleja, requiere de más análisis y no parece factible su implementación a corto plazo.

Concentración o desaparición de explotaciones

A nivel europeo, se observa una dualidad en el sector agropecuario, por un lado, aquellas explotaciones más dinámicas que tienden a la concentración constituyéndose en unidades más grandes y productivas, y, por otro, aquellas que tienen más complicado el superar su atomización, afrontar los mayores costes de producción y, al mismo tiempo, cumplir con las normas ambientales y con la burocracia de la nueva Política Agraria Común.

Las pequeñas y medianas explotaciones son las que tienen más complicado ser competitivas y viables, y corren el riesgo de quedar marginadas. Son, por tanto, las que más necesitan la transferencia de conocimientos/tecnología, el asesoramiento y la financiación adecuadas para adaptarse a la transición. Téngase en cuenta que, desde 2005, la UE ha perdido alrededor de un tercio de sus explotaciones agrícolas y que la proporción de personas empleadas en la agricultura cayó del 6,4 % del empleo total de la UE en 2005 al 4,2 % en 2020.

Además, está el problema del relevo generacional. En 2020, solo uno de cada diez agricultores tenía menos de 40 años. En este contexto es importante que los jóvenes se incorporen al sector para asegurar la producción sostenible de alimentos. En la práctica, esto significa abordar los retos del acceso a la tierra y a la financiación, la educación y la formación.

Sobre la autora: Inmaculada Astorkiza es investigadora en Economía de Recursos Naturales y Medio Ambiente en la Facultad de Economía y Empresa de la UPV/EHU

Una versión de este texto apareció originalmente en campusa.

El artículo Retos medioambientales del sector agropecuario de Europa se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La Geología de Son Goku

Thu, 2024/03/14 - 11:59

Dragon Ball, Bola de Dragón, As Bolas Máxicas, Dragoi Bola, Bola de Drac… da igual el idioma en el que lo escriba, porque todo el mundo sabe a lo que me estoy refiriendo. Aunque solo sea de ver recientemente en los telediarios o las redes sociales noticias sobre el fallecimiento del autor de esta obra, Akira Toriyama. Y como yo soy una de los millones de personas que han crecido disfrutando de la versión animada de este título, quiero hacerle mi pequeño homenaje al gran mangaka descubriendo la Geología que se oculta detrás de Dragon Ball.

El primer opening, es decir, la primera canción de apertura de los capítulos que podemos disfrutar en Dragon Ball Z, titulada Cha-la Head Cha-la (que se podría traducir como “no hay problema”), es una gran compilación de spoilers. Pero no solo de lo que nos deparará la serie, también de la Geología que caracteriza a la Tierra del Universo 7. Sobre todo, si nos ponemos la versión original japonesa de dicho opening y prestamos atención a la letra que acompaña a las imágenes. Así que voy a usarlo como hilo conductor.

Dragon BallA) Mapa del mundo de Dragon Ball. Diseño de jack123noob, tomado de www.deviantart.com. B) Reconstrucción del posible futuro supercontinente Amasia. Imagen de la Universidad Curtin (Australia), tomada de www.bbc.com

La letra dice “volemos atravesando las nubes para poder ver todo el panorama”. Pero, ¿qué aspecto tendría la Tierra de Dragon Ball vista desde el cielo? Pues se trataría de un único supercontinente, con una disposición preferente este-oeste y bordeado por varias islas de diversos tamaños, tanto al norte como al sur. Pasando al mundo real, en la historia geológica de nuestro planeta se han generado varios supercontinentes, o grandes masas continentales, debido a un ciclo sin fin provocado por el movimiento de las placas tectónicas: cada 500 millones de años, las placas convergen formando un supercontinente, que luego acaba rompiéndose por un proceso llamado rift, y vuelta a empezar. El último supercontinente se llama Pangea y empezó a fragmentarse hace unos 250 Millones de años. Pero Pangea tenía una disposición preferente norte-sur, con una forma que recuerda a una letra C mayúscula. El dibujo representado por Toriyama se asemeja más a una de las reconstrucciones hipotéticas del futuro supercontinente que se debería formar dentro de unos 250 Millones de años, Amasia.

La existencia de una tectónica de placas activa en la Tierra ficticia de Dragon Ball también queda evidenciada por la existencia de eventos naturales como volcanes o terremotos. Pero la canción del opening dice “la tierra al ser golpeada se enfada, provocando que estalle un volcán”. Esto indica que algunos de estos procesos, en realidad, no son tan naturales como podemos imaginar. En concreto, la cantidad de energía que son capaces de liberar sobre el terreno los Guerreros Z durante sus peleas son equivalentes a la enorme energía generada por los movimientos tectónicos, provocando la misma respuesta en el planeta: erupciones volcánicas, terremotos y tsunamis de grandes dimensiones.

Dragon BallFotograma del anime Dragon Ball Z donde Pikkoro destruye la Luna. Imagen propiedad de Toei Animation (Japón).

Otro spoiler bastante gordo que nos hace el opening es la escena en la que Pikkoro destruye la Luna para controlar a Son Gohan tras convertirse en Oozaru durante su entrenamiento. Y, después de este evento, parece que el planeta sigue como sin nada tras perder su satélite natural, hasta que Kami sama lo reconstruye más adelante (cosa que ya tuvo que hacer previamente en la serie, después de que Muten Roshi también lo destruyese durante el torneo de artes marciales). Pero, en la vida real, la desaparición de la Luna tendría consecuencias catastróficas para la Tierra. La atracción gravitatoria que ejerce nuestro satélite equilibra el giro de la Tierra sobre su propio eje, controla el ciclo de las mareas, influye en la circulación oceánica y el desplazamiento de las masas de aire atmosféricas y determina la duración del día y la noche. Si perdiésemos esta influencia, directamente se acabaría la vida sobre nuestro planeta tal y como la conocemos hoy en día. Y aquí no tenemos las bolas de dragón para solucionar ese problema.

Dragon BallFotograma del anime Dragon Ball Z donde aparece Goku junto a un grupo de animales, entre los que se encuentran dos especies de dinosaurios (una pareja de triceratópsidos a la derecha de la imagen y una pareja de una especie basada en Tyrannosaurus rex a la izquierda) y una especie de reptil volador extinto. Imagen propiedad de Toei Animation (Japón).

Para terminar este repaso nos vamos a la parte final el opening, que exclama “quisiera encontrar un dinosaurio para entrenarlo”. Y es que, en el mundo fantástico de Dragon Ball, coexisten una gran amalgama de criaturas habitando el planeta Tierra, incluidos animales prehistóricos. Es común ver la aparición de reptiles continentales, o dinosaurios, a lo largo de muchos episodios del anime, algunos basados en fósiles reales, como diversas especies de triceratópsidos o el Tyrannosaurus rex, y otros surgidos de la mente de Toriyama, junto a reptiles voladores o tigres dientes de sable. Aunque la presencia de dinosaurios en la Tierra de Dragon Ball es bastante curiosa, no solo porque en la vida real estos reptiles se extinguieron hace unos 66 Millones de años, sino porque en este mundo fantástico, en principio, también habrían corrido la misma suerte. O, al menos, el Dios de la Destrucción Beerus comenta en Dragon Ball Super que eliminó a todos los dinosaurios de la Tierra hace millones de años porque le faltaron al respeto.

Sin duda, Dragon Ball es uno de los shonen nekketsu más famosos de la historia del manga y el anime, de esos que nunca pasan de moda y cuya acción engancha a jóvenes y mayores. Pero, entre pelea y pelea, también tiene su parte didáctica. Ahora, si volvéis a ver la serie o leer el manga, mientras aprendéis el nombre en japonés de diferentes alimentos o prendas de vestir, seguro que también repasaréis un poco de Geología.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo La Geología de Son Goku se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Caroline Herschel, Mary Somerville, Jessica Mink y el planeta Urano

Wed, 2024/03/13 - 11:59

El 13 de marzo de 1781, el astrónomo William Herschel (1738-1822) descubrió el planeta Urano. Aunque en principio pensó que se trataba de un cometa, se confirmó posteriormente que era el séptimo planeta del Sistema Solar.

Urano (23 de enero de 1986, imagen tomada por la sonda Voyager 2 de la NASA). Fuente: Wikimedia Commons.

 

Herschel lo observó a través de un telescopio situado en el jardín de su casa en Bath, Inglaterra. De hecho, Urano fue el primer planeta descubierto con un telescopio. Como suele suceder en algunas ocasiones, parece que este hallazgo fue fruto de la buena suerte que le llevó a mirar en la dirección adecuada en el momento preciso.

Caroline Herschel (1750-1848)

En este acontecimiento, como prácticamente todos los relacionados con los logros del astrónomo, no se suele citar a su hermana Caroline que durante décadas ayudó a William en sus observaciones astronómicas y en la construcción de diferentes instrumentos de observación.

Aunque en algunos foros citan a ambos hermanos como descubridores del planeta, la propia Caroline se pensaba como una simple ayudante que no merecía ninguna atención:

I am nothing, I have done nothing; all I am, all I know, I owe to my brother. I am only the tool which he shaped to his use—a well-trained puppy-dog would have done as much. [No soy nada, no he hecho nada; todo lo que soy, todo lo que sé, se lo debo a mi hermano. Sólo soy la herramienta que él moldeó para su uso; un perrito bien adiestrado habría hecho lo mismo].

Probablemente, en aquel momento, nadie opinaba que la labor de Caroline fue esencial para que su hermano destacara como astrónomo. Por suerte, hoy en día, su trabajo es ampliamente reconocido.

Mary Somerville (1780-1872)

La matemática y astrónoma Mary Somerville frecuentaba el observatorio astronómico familiar de los Herschel. Fue amiga y colaboradora del matemático y astrónomo John Herschel (1792-1871), hijo de William.

En 1852, John propuso los nombres de los cuatro satélites conocidos entonces de Urano: Titania y Oberón (descubiertos por William Herschel en 1787), Ariel y Umbriel (descubiertos en 1851 por el astrónomo aficionado William Lassell). El otro satélite principal del planeta (de los veintiocho conocidos de Urano), Miranda, fue descubierto por el astrónomo Gerard Kuiper (1905-1973) en 1948.

Mary Somerville también estudió el planeta Urano. En 1842, en la sexta edición de su libro On the Connection of the Physical Sciences incluyó su análisis de las perturbaciones de la órbita de este planeta. A través de sus cálculos, ella intuía la presencia de un hipotético planeta que alteraba a Urano; esta observación llevó al astrónomo John Couch Adams (1819-1892) a buscar y descubrir el planeta Neptuno en 1846, usando únicamente cálculos matemáticos. En Francia, un matemático, Urbain Le Verrier (1811-1877), de manera independiente, anunció la situación de este planeta a la Academia Francesa de Ciencias. Era el 31 de agosto de 1846, dos días antes de que Adams informara de sus deducciones al Real Observatorio de Greenwich. Los cálculos matemáticos de Le Verrier fueron más precisos que los del británico. El matemático francés comunicó al astrónomo alemán Johann Gottfried Galle (1812-1910) sus previsiones sobre la posición del planeta, y Galle lo localizó en septiembre de 1846, comprobando la exactitud de los cálculos de Le Verrier.

Volviendo a Mary Somerville, fue mentora de Ada Byron (1815-1852). Además de transmitirle el apego por las matemáticas, Somerville puso en contacto a su pupila con el ingeniero Charles Babbage (1791-1871). Pero esa es otra historia

Jessica Mink (1951)

Urano es un planeta gélido y ventoso. Es un gigante de hielo que gira en un ángulo de casi 90 grados con respecto al plano de su órbita. Además de sus veintiocho lunas, está rodeado por trece anillos tenues: 1986U2R/ζ, 6, 5, 4, α, β, η, γ, δ, λ, ε, ν y μ.

Los anillos y las lunas de Urano. Fuente: Wikimedia Commons.

 

En 1789, William Herschel ya sospechaba la existencia de un anillo en Urano, aunque ningún otro astrónomo confirmó esta conjetura.

El descubrimiento definitivo de estos anillos tuvo lugar de manera casual el 10 de marzo de 1977 por medio del Observatorio Aerotransportado Kuiper. Los astrónomos James L. Elliot (1943-2011), Edward W. Dunham y Jessica Mink (1951) planeaban usar la ocultación de la estrella SAO 158687 por Urano para estudiar la atmósfera del planeta. Al analizar sus observaciones, descubrieron que la estrella desaparecía brevemente de la vista cinco veces antes y después de ser eclipsada por el planeta. Así, dedujeron que Urano debía presentar un sistema de anillos estrechos.

Jessica Mink es desarrolladora de software, archivista de datos y astrónoma posicional. En el artículo The Rings of Uranus publicado en Nature en 1977 consta con otro nombre. Ella misma explica el motivo en su página personal.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Caroline Herschel, Mary Somerville, Jessica Mink y el planeta Urano se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Nuevos rayos X revelan un universo tan grumoso como predice la cosmología

Tue, 2024/03/12 - 11:59

Al mapear las estructuras más grandes del universo, los cosmólogos han descubierto que una anomalía cósmica parece estar desapareciendo.

Un artículo de Liz Kruesi. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

estructurasEl telescopio de rayos X eRosita detectó miles de cúmulos de galaxias en una vasta franja del cosmos, coloreados en esta imagen según su distancia desde la ubicación del telescopio en el centro. La luz de los cúmulos más lejanos se emitió hace 9 mil millones de años. Fuente: MPE, A. Liu for the eROSITA Consortium

 

Cúmulos de cientos o miles de galaxias se encuentran en las intersecciones de filamentos gigantes de materia que se entrecruzan y que forman el tapiz del cosmos. A medida que la gravedad atrae todo lo que hay en cada cúmulo de galaxias hacia su centro, el gas que llena el espacio entre las galaxias se comprime, lo que hace que se caliente y brille en rayos X.

El telescopio de rayos X eRosita, lanzado al espacio en 2019, pasó más de dos años recopilando rayos de luz de alta energía de todo el cielo. Los datos han permitido a los científicos mapear las ubicaciones y tamaños de miles de cúmulos de galaxias, dos tercios de ellos desconocidos hasta ahora. En una serie de artículos publicados en línea el 14 de febrero que aparecerán en la revista Astronomy & Astrophysics, los científicos usan su catálogo inicial de cúmulos para analizar varias de las grandes cuestiones de la cosmología.

Los resultados incluyen nuevas estimaciones de la heterogeneidad del cosmos –una característica muy discutida últimamente, ya que otras mediciones recientes han descubierto que es inesperadamente homogéneo- y de las masas de esas partículas fantasmales llamadas neutrinos y de una propiedad clave de la energía oscura, la misteriosa energía repulsiva que está acelerando la expansión del universo.

El modelo imperante del universo para los cosmólogos identifica la energía oscura como la energía del espacio mismo y la vincula al 70% del contenido del universo. Otra cuarta parte del universo es materia oscura invisible y el 5% es materia ordinaria y radiación. Todo ello evoluciona bajo la fuerza de la gravedad. Pero algunas observaciones de la última década desafían este “modelo estándar” de la cosmología, planteando la posibilidad de que al modelo le falten ingredientes o efectos que podrían dar paso a una comprensión más profunda.

Las observaciones de eRosita, por el contrario, refuerzan el cuadro existente en todos los aspectos. «Es una confirmación notable del modelo estándar», afirma Dragan Huterer, cosmólogo de la Universidad de Michigan que no ha participado en el trabajo.

Radiografiando el cosmos

Después del Big Bang, las sutiles variaciones de densidad en el universo recién nacido se volvieron gradualmente más pronunciadas a medida que las partículas de materia se pegaban unas a otras. Los grupos más densos atrajeron más material y se hicieron más grandes. Hoy en día, los cúmulos de galaxias son las estructuras unidas gravitacionalmente más grandes del cosmos. Determinar sus tamaños y distribución permite a los cosmólogos probar su modelo de cómo evolucionó el universo.

Para encontrar cúmulos el equipo de eRosita entrenó un algoritmo informático para buscar fuentes de rayos X «realmente esponjosas» en lugar de objetos puntuales, explica Esra Bulbul del Instituto Max Planck de Física Extraterrestre en Garching, Alemania, quien dirigió las observaciones de cúmulos de eRosita. Redujeron la lista de candidatos a una “muestra extremadamente pura”, continúa, de 5.259 cúmulos de galaxias, a partir de casi 1 millón de fuentes de rayos X detectadas por el telescopio.

Luego tuvieron que determinar lo pesados que eran son estos cúmulos. Los objetos masivos curvan la estructura del espacio-tiempo, cambiando la dirección de la luz que pasa y haciendo que la fuente de luz parezca distorsionada, un fenómeno llamado lente gravitacional. Los científicos de eRosita pudieron calcular las masas de algunos de sus 5.259 cúmulos basándose en el efecto lente sobre galaxias más distantes situadas detrás de ellos. Aunque solo un tercio de sus cúmulos tenían galaxias de fondo conocidas y alineadas de esta manera, los científicos descubrieron que la masa del cúmulo se correlacionaba fuertemente con el brillo de sus rayos X. Debido a esta fuerte correlación, podrían utilizar el brillo para estimar las masas de los cúmulos restantes.

Luego introdujeron la información de la masa en simulaciones por ordenador del cosmos en evolución para inferir los valores de los parámetros cósmicos.

Midiendo la grumosidad

Un número de interés es el “factor de grumosidad” del universo, S8. Un valor S8 de cero representaría una vasta nada cósmica, similar a una llanura sin ninguna roca a la vista. Un valor S8 más cercano a 1 corresponde a montañas escarpadas que se ciernen sobre valles profundos. Los científicos han estimado el S8 basándose en mediciones del fondo cósmico de microondas (FCM), una luz antigua procedente del universo primitivo. Al extrapolar las variaciones de densidad iniciales del cosmos, los investigadores esperan que el valor actual de S8 sea 0,83.

Pero estudios recientes que analizan las galaxias actuales han medido valores entre un 8% y un 10% más bajos, lo que implica que el universo es inesperadamente homogéneo. Esa discrepancia ha intrigado a los cosmólogos, señalando potencialmente grietas en el modelo cosmológico estándar.

estructurasEl catálogo de cúmulos de galaxias de eRosita está representado aquí en un mapa del medio cielo. Los colores indican la distancia de los cúmulos y los tamaños de los círculos indican el brillo aparente de los rayos X de cada fuente. Fuente: MPE, J. Sanders for the eROSITA Consortium

El equipo de eRosita, sin embargo, no encontró esta discrepancia. «Nuestro resultado estuvo básicamente en línea con la predicción del FCM desde el principio», afirma Vittorio Ghirardini, quien dirigió el análisis. Él y sus colegas calcularon un S8 de 0,85.

Algunos miembros del equipo se sintieron decepcionados, dice Ghirardini, ya que apuntar a los ingredientes que faltan era una perspectiva más emocionante que coincidir con la teoría conocida.

El valor de S8, que es un poco más alto que la estimación del FCM, probablemente desencadenará más análisis por parte de otros equipos, comenta Gerrit Schellenberger, un astrofísico que estudia los cúmulos de galaxias en el Centro Harvard-Smithsonian de Astrofísica. «Creo que probablemente no es el último artículo que hemos visto sobre ese tema».

Pesando neutrinos

En el universo primitivo se formaron neutrinos abundantemente, casi tantos como fotones (partículas de luz), explica Marilena Loverde, cosmóloga de la Universidad de Washington. Pero los físicos saben que los neutrinos, a diferencia de los fotones, deben tener masas diminutas debido a cómo oscilan entre tres tipos. Las partículas no adquieren masa mediante el mismo mecanismo que otras partículas elementales, por lo que su masa es un misterio muy estudiado. Y la primera pregunta es qué masa tienen en realidad.

Los cosmólogos pueden estimar la masa de los neutrinos estudiando sus efectos sobre la estructura del cosmos. Los neutrinos se mueven casi a la velocidad de la luz y atraviesan otra materia en lugar de quedarse pegados a ella. De modo que su presencia en el cosmos ha atenuado su grumosidad. «Cuanto más masa se le pone a los neutrinos, más masa es homogénea a esas [grandes] escalas», afirma Loverde.

Combinando sus mediciones de cúmulos de galaxias con mediciones de FCM, el equipo de eRosita estimó que la suma de las masas de los tres tipos de neutrinos no supera los 0,11 electronvoltios (eV), o menos de una millonésima parte de la masa de un electrón. Otros experimentos con neutrinos han establecido un límite inferior, mostrando que las tres masas de neutrinos deben sumar al menos 0,06 eV (para un posible ordenamiento de los tres valores de masa) o 0,1 eV (para el ordenamiento inverso). A medida que la distancia entre los límites superior e inferior se reduce, los científicos se acercan más a determinar el valor de la masa del neutrino. «En realidad, estamos a punto de lograr un gran avance», indica Bulbul. En publicaciones de datos posteriores, el equipo de eRosita podría bajar el límite superior lo suficiente como para descartar los modelos de masa de neutrinos de orden inverso.

Es necesario ser precavido. Cualquier otra partícula rápida y ligera que pueda existir (como los axiones, partículas hipotéticas propuestas como candidatas a la materia oscura) tendría los mismos efectos en la formación de estructuras. E introducirían errores en la medición de la masa de los neutrinos.

Siguiendo la energía oscura

Las mediciones de los cúmulos de galaxias pueden revelar no solo cómo crecieron las estructuras, sino también cómo su crecimiento fue dificultado por la energía oscura: la fina capa de energía repulsiva que impregna el espacio, acelerando la expansión del espacio y separando así la materia.

Si la energía oscura es la energía del espacio mismo, como supone el modelo estándar de la cosmología, entonces tendrá una densidad constante en todo el espacio y el tiempo (por eso a veces se la denomina constante cosmológica). Pero si su densidad disminuye con el tiempo, entonces es algo completamente distinto. «Ésa es la pregunta más importante que plantea la cosmología», afirma Sebastian Grandis, miembro del equipo eRosita de la Universidad de Innsbruck, en Austria.

A partir de su mapa de miles de cúmulos, los investigadores descubrieron que la energía oscura coincide con el perfil de una constante cosmológica, aunque su medición tiene una incertidumbre del 10%, por lo que sigue siendo posible una densidad de energía oscura que varíe ligeramente.

Originalmente, eRosita, que se encuentra a bordo de una nave espacial rusa, debía realizar ocho estudios del cielo completo, pero en febrero de 2022, semanas después de que el telescopio comenzara su quinto estudio, Rusia invadió Ucrania. En respuesta, la parte alemana de la colaboración, que opera y dirige eRosita, puso el telescopio en modo seguro, cesando todas las observaciones científicas.

Estos artículos iniciales se basan únicamente en los datos de los primeros seis meses. El grupo alemán espera encontrar aproximadamente cuatro veces más cúmulos de galaxias en el año y medio adicional de observaciones, lo que permitirá identificar todos estos parámetros cosmológicos con mayor precisión. «La cosmología de cúmulos podría ser la sonda cosmológica más sensible además del FCM», apunta Anja von der Linden, astrofísica de la Universidad Stony Brook.

Sus resultados iniciales demuestran la potencia de una fuente de información relativamente sin explotar. “Somos una especie de chico nuevo en el barrio”, comenta Grandis.

 

El artículo original, Fresh X-Rays Reveal a Universe as Clumpy as Cosmology Predicts, se publicó el 4 de marzo de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Nuevos rayos X revelan un universo tan grumoso como predice la cosmología se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El veneno más tóxico

Mon, 2024/03/11 - 11:59
venenoFoto: JJ Jordan / Unsplash

¿Cuál es el veneno más letal? ¿Hay alguno que no deje huella? El envenenamiento ha sido un arma peligrosa utilizada a lo largo de los siglos para eliminar a enemigos políticos, rivales amorosos, y a veces, incluso a seres queridos. Desde las intrigas en las cortes medievales hasta el asesinato del ex agente ruso Alexander Litvinenko, son muchos los venenos empleados para perpetrar crímenes de manera eficaz y sigilosa. La fascinación por las sustancias tóxicas se extiende también a la ficción: Romeo y Julieta, Hamlet, e incluso la manzana de Blancanieves. A continuación, examinamos algunos de los venenos más peligrosos e indagamos en su dosis letal y su análisis toxicológico.

Crímenes por envenenamiento

Los crímenes por envenenamiento han dejado una marca oscura a lo largo de la historia. La evolución de los venenos es también la crónica de luchas de poder entre las sombras y asesinatos anónimos. En la antigua Roma, el veneno era una herramienta comúnmente utilizada para eliminar rivales políticos. Sócrates fue condenado a muerte con cicuta, un veneno mortal, y Cleopatra, la legendaria reina egipcia, se suicidó con veneno de áspid.

Siglos más tarde, en la Europa del siglo XIX, el envenenamiento pasó a ser una táctica popular en las cortes reales, donde se usaban venenos como arsénico y cianuro para eliminar competidores por el poder. Por ejemplo, se cree que el rey Carlos VI de Francia fue envenenado por su hermano y que Napoleón Bonaparte murió por consumir arsénico.

En tiempos más modernos, también ha sido utilizado en asesinatos políticos y asuntos de espionaje. Por ejemplo, en 2006 fue notorio el envenenamiento con polonio-210 del ex agente ruso Alexander Litvinenko, presuntamente por orden del gobierno de su país. Además, no debemos olvidar su uso como arma militar: desde el gas mostaza usado durante la Primera Guerra Mundial hasta agentes neurotóxicos como el Tabún o el Sarín.

venenoLa Mort de Socrate / La muerte de Sócrates (1787), por Jacques-Louis David. Fuente: Google Arts & Culture / Wikimedia CommonsLas sustancias más tóxicas

Determinar las sustancias más tóxicas y sus dosis letales exactas puede ser complejo, ya que la toxicidad de una sustancia puede variar dependiendo de factores como la vía de exposición, la duración de la exposición, la edad y la salud del individuo, entre otros. La Agencia para Sustancias Tóxicas y el Registro de Enfermedades (ASTDR) elabora cada dos años un listado en el que prioriza las sustancias según su frecuencia, toxicidad y potencial de exposición humana.

En toxicología, se denomina dosis letal media (DL50) a la cantidad de una sustancia necesaria para matar a la mitad de una población después de un tiempo determinado. La toxina botulínica, que es la sustancia más tóxica conocida, tiene un valor de DL50 de 1 ng/kg, mientras que el agua, la sustancia menos tóxica, de más de 90 g/kg. Entre las sustancias con una baja DL50 y elevado riesgo de toxicidad encontramos cuatro de los venenos más conocidos: mercurio, arsénico, cianuro y polonio-210.

venenoEscala de veneno en función del logaritmo decimal negativo de los valores de la DL50 estandarizados en kg por kg de peso corporal. Fuente: Wikimedia Commons

 

El arsénico es uno de los venenos más usados en homicidios debido a sus propiedades organolépticas (no tiene sabor, pero presenta un ligero aroma a ajo) y sus efectos son similares a los de una enfermedad gastrointestinal. Además, es fácil de adquirir, ya que está presente de forma natural en el agua. El grado de toxicidad varía según el derivado del arsénico: la arsina es el compuesto más tóxico, letal de forma instantánea a dosis de 250 ppm; le sigue el arsénico trivalente, cuya dosis letal es inferior a 5 mg/kg; por último, el arsénico pentavalente requiere dosis de entre 5 y 50 mg/kg para ser mortal.

La intoxicación por mercurio depende del estado de oxidación: el mercurio inorgánico, como el mercurio metálico y el cloruro de mercurio, es altamente reactivo y puede causar daños en la piel; el metilmercurio, que penetra en el cuerpo humano por el consumo de peces y mariscos contaminados, es bioacumulable y puede provocar daño neurológico, especialmente en el desarrollo fetal y en niños pequeños.

La toxicidad de una sustancia puede variar dependiendo de factores como la vía de exposición, la duración, la edad y la salud del individuo”

A nivel celular, el cianuro es un tóxico que produce inhibición enzimática de numerosos sistemas. Por ejemplo, el cianuro de potasio es un potente inhibidor de la respiración celular, y el cianuro de hidrógeno, un gas incoloro con leve olor amargo, fue la sustancia que se usó en las cámaras de gas. El polonio-210, en cambio, es uno de los compuestos radiactivos más letales que se conocen por ingestión, dado que las partículas alfa que emite dañan el ADN y bastan algunos miligramos para causar la muerte en unas semanas.

La huella del crimen

¿Qué rastro dejan los venenos en el cuerpo del delito? Más allá de lo que las series policiacas nos han hecho creer, lo cierto es que el avance de las técnicas de análisis actuales permiten la detección de muchas de estas sustancias. El mercurio, por ejemplo, puede ser detectado en muestras biológicas como la sangre, la orina o el cabello mediante la espectrometría de masas. Aunque tiene una vida media corta en la sangre (3 días), una concentración en orina superior a 500 µg/L se relaciona con temblores y trastornos del sistema nervioso central.

El cianuro, que produce efectos tóxicos a niveles de 0.05 miligramos de cianuro por decilitro de sangre (mg/dL), también puede ser identificado a través de análisis toxicológicos que buscan sus metabolitos en muestras biológicas. Del mismo modo, el arsénico puede ser detectado y cuantificado utilizando métodos analíticos como la cromatografía de gases y la espectrometría de masas. Además, para concentraciones por encima de 3 μg por decilitro en sangre y/o 200 μg por litro de orina, se observarán también alteraciones en el electrocardiograma, el hemograma y pruebas de las funciones hepática y renal.

El arsénico es uno de los venenos más usados en homicidios debido a sus propiedades organolépticas (no tiene sabor, pero presenta un ligero aroma a ajo)”

En cuanto al polonio-210, su detección puede requerir técnicas de espectrometría gamma para identificar su presencia en muestras biológicas o ambientales. Su tiempo de vida media biológico es de 50 días, ya que a la desintegración radiactiva hay que sumarle la cantidad del elemento que se pierde por excreción en heces y orina. En resumen, si estás pensando en recurrir al envenenamiento para quitarte de en medio a ese jefe que te amarga a diario, quizá te disuada tener en cuenta que las posibilidades de ser descubierto son significativamente altas gracias a las novedosas técnicas de detección toxicológica.

Referencias:

Organización Mundial de la Salud (2017) El mercurio y la salud
Lumitos / Química.es (2024) Categoría Toxicología
Agencia para Sustancias Tóxicas y el Registro de Enfermedades (2016) Resumen de Salud Pública: Cianuro (Cyanide)
López Nicolás, J.M. (2018) Querido Paracelso: el veneno no solo reside en la dosis Cuaderno de Cultura Científica

Sobre la autora: Raquel Gómez Molina es química especialista en laboratorio clínico y comunicación científica

El artículo El veneno más tóxico se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Memoria y creatividad

Sun, 2024/03/10 - 11:59

La memoria no tiene buena prensa; me refiero a la memoria con minúscula, o sea, a la capacidad para recordar ideas, informaciones, situaciones, experiencias, lecturas, etc. Por eso, el calificativo “memorístico”, en realidad, más que calificar, descalifica.

Ya cuando era estudiante a caballo entre COU y los primeros cursos universitarios la organización estudiantil en la que militaba se oponía, al menos de palabra, a la enseñanza memorística. Reivindicaba en su lugar una formación que nos enseñase a pensar. Es curioso cómo, con apenas 17 o 18 años de edad, éramos capaces de decir y defender asertos que hoy no sería capaz ni de enunciar. Es más, ahora ni tan siquiera sabría explicar qué se entiende por pensar en ese contexto, y quizás en ningún otro.

Ha pasado casi medio siglo y la mala prensa de lo memorístico perdura. Aunque ahora sus adversarias son otras y la tecnología nos ha brindado nuevos motivos, reales o ficticios, para menospreciarla. Se pretende devaluar hoy la capacidad memorística porque ese es un rasgo que, supuestamente, ha perdido toda utilidad. En ese argumento está implícita la idea de que antes hacía falta buena memoria para poder recordar muchas cosas, ya que no había dispositivos que permitieran acceder con facilidad al conocimiento acumulado. Pero ahora, con las enormes facilidades de almacenamiento de información y de acceso a ella –volúmenes gigantes al alcance de uno o dos clics–, se supone que ya no es preciso que utilicemos el cerebro propio como almacén.

Hoy se valora la creatividad. En nuestro mundo y, sobre todo, en el mundo hacia el que parecemos dirigirnos –se nos dice– la creatividad es fundamental, pues solo personas creativas son capaces de idear las nuevas soluciones, los nuevos productos, las nuevas obras artísticas o culturales, o de generar el nuevo conocimiento que servirá para alimentar la actividad económica que permita crear riqueza y bienestar.

creatividadJohn von Neumann, una de las mentes científicas más creativas del siglo XX, poseía una memoria portentosa.

La creatividad se considera hoy uno de los rasgos cognitivos más valiosos, si no el más valioso. Y se insiste en la idea de que hay que estimularla o cultivarla. Tal es así que en el ciclo 2022 de PISA (OCDE) se ha incluido la competencia “creatividad” para ser evaluada como competencia innovadora en estudiantes de 15 años. Sin embargo, no parece que en su cultivo o estímulo juegue la memoria papel alguno. Nada se dice de ella en el artículo cuya lectura me permitió saber de la inclusión en las pruebas PISA de la creatividad como competencia innovadora. Deduzco que ello no obedece al olvido de la autora ni a la casualidad. Sencillamente no se la ha dado ninguna importancia.

No sé si en otros campos ocurre algo parecido pero, al menos en el terreno científico, la capacidad memorística es un ingrediente muy valioso de la creatividad. Las nuevas ideas surgen en muchas ocasiones de las relaciones espontáneas, y a veces fugaces, que establece nuestra mente entre piezas de conocimiento o informaciones diferentes y, a veces, sin relación aparente entre sí.

Las nuevas ideas no surgen porque uno vaya en su búsqueda de forma activa y consciente como cuando acudimos a un buscador en la internet. Si así fuera, casi cualquiera podría dar con ellas. Si supiésemos en qué van a consistir, sabríamos en qué archivo, qué documento, qué base de datos deberíamos buscar las piezas de información, los pedazos de conocimiento con los que construir la novedad.

No, la internet o cualquier otro repositorio de información o conocimiento no son sustitutos adecuados de la memoria si de lo que se trata es de crear. Conozco a centenares de personas en el mundo de la ciencia, de la literatura, de las artes plásticas, de la ingeniería y de la empresa. De entre todas esas personas unas son más creativas que otras. Las más creativas tienen una memoria envidiable.

En ciencia muchas ideas nuevas surgen cuando, dando vueltas a elementos aparentemente inconexos, encontramos o establecemos de repente una relación inesperada donde nadie antes lo había hecho. Es posible que eso ocurra mientras leemos un artículo o un libro, pero entonces el conocimiento codificado en forma impresa no suele ser suficiente, ha de cruzarse en su camino algún pasaje que habíamos leído en otra ocasión, o un fragmento de conversación que tuvimos hace un mes con un colega. O, incluso, puede surgir al contemplar una obra de arte o leer una novela. Es del todo azaroso el modo en que surge la idea nueva. En ocasiones lo hace durante el sueño o en estado de duermevela. Pero rara vez surge de confrontar dos o más elementos a los que accedemos directamente en el soporte en que se encuentran almacenados. Sospecho que en campos del saber otros que las ciencias naturales ocurre algo parecido.

Para que esa chispa, ese momento “eureka”, ese “¡ahá!”, ese “¡qué curioso!” o “¡qué raro!” se produzca, hemos debido confrontar alguna observación o idea con elementos almacenados en la memoria. Por eso, estoy convencido de que es necesario cultivar la memoria para promover la creatividad. Es una de sus mejores amigas.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU. Una versión anterior de este texto apareció en Lecturas y Conjeturas (Substack).

El artículo Memoria y creatividad se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Naukas Bilbao 2023 – Experimentos con humanos e IAs

Sat, 2024/03/09 - 11:59

El gran evento de divulgación organizado por Naukas y la Cátedra de Cultura Científica volvió a Bilbao para celebrar su decimotercera edición en el gran Palacio Euskalduna los pasados 15 y 16 de septiembre de 2023.

 

 

Una de las preguntas más inquietantes que pueden hacerse y que pocas veces verás por ahí es: ¿Puede la inteligencia artificial (las IAs) influir en las decisiones humanas? La respuesta, en caso de ser positiva, tiene implicaciones éticas y sociológicas terribles. Los resultados experimentales de su equipo de investigación de la Universidad de Deusto que narra Helena Matute en esta charla son, como mínimo, inquietantes.

Helena Matute es catedrática de Psicología Experimental de la Universidad de Deusto y directora del Laboratorio de Psicología Experimental. Ha sido investigadora visitante en distintas universidades del mundo como la de Gante en Bélgica, las de Sídney y Queensland en Australia o Minnesota en Estados Unidos. Miembro asesor del consejo científico de FECYT, Matute es presidenta de la Sociedad Española de Psicología Experimental y académica de número de Jakiunde – Academia de las Ciencias, las Artes y las Letras del País Vasco. Tiene el premio Prisma y el premio DIPC-Jot Down de divulgación científica.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2023 – Experimentos con humanos e IAs se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Pages