Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 7 mins 17 segs

Rocas no sedimentarias en la base de un paleolago marciano

Vie, 2022/01/07 - 11:59
Cráter Jezero. Imagen: USGS / Wikimedia Commons

Casi 300 días después de la llegada a Marte del rover Perseverance, el equipo multidisciplinar de investigación de la misión Mars2020, al que pertenece el grupo de Excelencia IBeA (Ikerkuntza eta Berrikuntza Analitikoa), del Departamento de Química Analítica de la UPV/EHU, ha comenzado a despejar algunas de las incógnitas sobre la composición de la base del cráter Jezero gracias a los datos enviados por el vehículo.

Como se recordará, el 30 de Julio de 2020 la NASA lanzó la misión Mars2020 con destino al planeta Marte, cuyo objetivo era enviar el rover Perseverance al cráter Jezero, con el fin de iniciar la exploración de terrenos que podrían albergar restos de moléculas orgánicas relacionadas con el metabolismo de microorganismos. El vehículo amartizó con éxito el 18 de febrero de 2021 y, tras los primeros días de comprobación de los distintos elementos del rover, así como del correcto funcionamiento de los distintos instrumentos, a mediados de abril se iniciaron los días de trabajo dedicados a la investigación científica.

“Los datos obtenidos por el instrumento SuperCam desde su amartizaje son muy abundantes y de gran interés”, señala Juan Manuel Madariaga, investigador principal del Grupo IBeA. La información enviada por el rover Perseverance ha sorprendido al Equipo de Ciencia de SuperCam, compuesto por más de 100 científicos de USA, Francia, Canada, España, Alemania y Dinamarca y que está trabajando sobre los datos que reciben cada día, para hacer un diagnóstico preliminar de las muestras analizadas, así como sobre los datos históricos agrupados por tipología de muestras (rocas, pátinas o costras, suelos, etc.) y emplazamientos que el rover visita durante su trayecto hacia las paredes del cráter Jezero, donde se llegará a mediados del año 2023 y donde finalizará la misión nominal de Mars2020.

SuperCam es un instrumento que combina varias técnicas espectroscópicas: espectroscopia LIBS para la detección y cuantificación de elementos químicos (hay más de 44.000 datos sobre 1450 puntos de análisis situados en rocas, suelos y costras) en muestras situadas entre 1,5 y 8 metros de distancia; espectroscopia Visible-Infrarroja (VISIR) para la detección de enlaces químicos entre elementos, tanto en muestras cercanas al rover como en muestras a más de 100 metros (hay más de 1500 espectros VISIR tomados sobre más de 250 muestras); espectroscopia Raman para la identificación de fases minerales (se han tomado más de 100 espectros en un número seleccionado de esas muestras); finalmente Imagen Optica de Alta Resolución para situar el contexto donde se hacen las medidas espectroscópicas.

Rocas no sedimentarias en la base de un paleolago de 3300 millones de años de antigüedad

En estos primeros meses de la misión el equipo de investigación de SuperCam ha analizado muestras de la base del cráter, un terreno plano que contiene diferentes tipos de rocas enterradas en el suelo/sedimento que quedó tras la desecación del agua que llenó el cráter, a modo de lago de unos 50 km de diámetro. Es decir, se han estado analizando restos de la base de un paleolago de entre 3300 a 3000 millones de años de antigüedad.

Según se desprende de los datos enviados por el Perseverance, en la base del paleolago no existen estructuras sedimentarias, sino que las rocas dispersas han sido transportadas hasta su actual emplazamiento no por corrientes acuosas sino por fenómenos de transporte de lava procedente de diferentes erupciones volcánicas, que han sufrido posteriores procesos de erosión. Hasta la fecha se han identificado tres tipos de rocas volcánicas, unas con abundancia de feldespatos (alrededor del 50%) seguidos de piroxenos y ausencia de olivinos (tres familias de minerales de las rocas volcánicas), otra con más piroxenos que feldespatos y un poco de olivino, y el tercer grupo de rocas volcánicas con abundancia similar de olivinos y piroxenos y menor cantidad de feldespatos. Para todos los casos, alrededor de un 5% de las fases minerales son óxidos de hierro y titanio.

Casi todas las fases minerales detectadas en las muestras analizadas han dado señales positivas de la existencia de agua y/o hidroxilos en las mismas, lo que indica la existencia de eventos de alteración promovidos por la presencia de agua en contacto con los materiales geológicos. Sin embargo, estos procesos de alteración de las rocas volcánicas no han llegado hasta la formación de arcillas, tal como se conocen en la Tierra, sino que se han parado en estados previos de alteración. Y este descubrimiento no esperado va a impulsar un conjunto de estudios de laboratorio para entender cómo se pudo pasar de las fases minerales originales, tras eventos de volcanismo, a las primeras fases de alteración detectadas sin que se lleguen a formar filosilicatos (los minerales que componen las arcillas).

Por otro lado, el grupo de Ciencia de SuperCam ha descubierto la presencia de sales precipitadas en el interior de las rocas analizadas. Estas observaciones se han realizado tras taladrar la superficie de las rocas donde se han tomado muestras que almacena el rover para que puedan ser traídas a la Tierra en la futura Misión de Retorno de Muestras de Marte. Estas sales contienen al menos sulfatos de calcio y magnesio, perclorato de sodio y fosfatos de calcio, no descartándose la presencia de otros sulfatos, percloratos y fosfatos, ni tampoco cloruros de sodio y potasio.

El tercer descubrimiento importante en los suelos de la base del paleolago es que no son como los suelos investigados en otros lugares de Marte, sino que están compactados por sales que han precipitado en su superficie, uniendo los distintos granos de los compuestos silicatados que forman los suelos habituales de Marte. De nuevo, entender cómo se han podido formar las costras en la superficie de los suelos va a requerir un conjunto de ensayos de laboratorio que se deberán realizar en el corto-medio plazo.

El grupo de investigación IBeA de la UPV/EHU participará, así mismo, en estos futuros ensayos de laboratorio, así como en la interpretación de los distintos datos espectroscópicos, ya que la misión le ha encomendado liderar los estudios que puedan conducir a explicar la formación de los distintos percloratos en el interior de las rocas volcánicas y en los suelos endurecidos con costras de sales.

El Centro de Investigación Martina Casiano de la UPV/EHU, alberga el nuevo Centro de Operaciones de Marte

Leioa 22-12-2021 El grupo de investigación IBeA participa en la recogida de datos de la misión espacial ‘Mars 2020’ desde el edificio Martina Casiano en el Parque científico de la Universidad del País Vasco. Foto: Fernando Gómez / UPV/EHU

Miembros del Grupo de Excelencia IBeA (kerkuntza eta Berrikuntza Analitikoa), del Departamento de Química Analítica de la UPV/EHU, pertenecen al Grupo de Ciencia del Instrumento SuperCam y de la propia misión Mars2020. Desde el momento del amartizaje hasta hoy día, IBeA ha participado en Operaciones del Instrumento, tanto en la fase de bajada de datos desde el rover como en la fase de subida de órdenes de trabajo para la siguiente tanda de análisis. Inicialmente, estas operaciones se realizaron en el Centro de Operaciones de Toulouse (Francia), donde se construyeron partes del instrumento SuperCam, pero a partir de mediados de junio las tareas de operaciones se realizan en el Centro de Operaciones de Marte, instalado en la Plataforma Tecnológica Martina Casiano del Parque Científico del Campus de Bizkaia (UPV/EHU). La dedicación de cada miembro de IBeA a las operaciones del instrumento SuperCam han sido de unas dos jornadas al mes, jornadas que empiezan a media tarde y acaban en la madrugada del día siguiente.

Este Centro de Operaciones de Marte de la UPV/EHU tiene tres salas, una para la gestión de las operaciones de bajada de datos desde el rover, otra para las operaciones de subida de órdenes de trabajo, y una tercera para la difusión de imágenes, videos y resultados de las labores de investigación que realizan los miembros de IBeA a la sociedad. El miércoles 22 de diciembre coincidió que miembros de IBeA tenían asignada la responsabilidad de la gestión de recepción de datos de los análisis realizados por SuperCam el día anterior, así como la responsabilidad de enviar las órdenes de trabajo de los siguientes tres días (del 23 al 25 de diciembre) al rover Perseverance. Los trabajos empezaron a las 17.45 del miércoles y finalizaron alrededor de la 1 de la madrugada del jueves 23.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Rocas no sedimentarias en la base de un paleolago marciano se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Oh, blancos acantilados

Jue, 2022/01/06 - 11:59
Acantilados blancos de Dover. Foto: Immanuel Giel / Wikimedia Commons.

En muchas escenas de famosas películas y series de televisión hemos visto a los protagonistas cruzando el Canal de la Mancha enmarcados en una bucólica y típica estampa inglesa, los acantilados blancos de Dover. Pero, ¿por qué son blancos?

La respuesta a esta pregunta debemos buscarla en el origen de estos materiales. Las rocas que afloran en el litoral de Dover y otras zonas del sureste inglés, como las costas de Sussex, están formadas por los restos de los caparazones de unos microorganismos llamados cocolitofóridos. Los cocolitofóridos son unas algas unicelulares que viven en el agua marina formando parte del fitoplancton, cuya principal característica es que están recubiertas por un caparazón construido de carbonato cálcico (CaCO3) y compuesto por una serie de placas con forma de pequeños discos que se van ensamblando unas con otras hasta generar una especie de envoltura esférica que protege la célula del organismo. Cuando este muere, las placas del caparazón generalmente se separan y acaban acumulándose en el fondo oceánico. Y, puesto que son capaces de vivir en ambientes marinos profundos, es frecuente que en ese fondo encontremos el depósito de un barro carbonatado muy puro procedente casi exclusivamente de la acumulación de las partes de los caparazones de los cocolitofóridos.

Fotografía de microscopio electrónico de barrido de un cocolitofórido. La barra de escala representa 0,001 mm. Imagen de Ina Benner / EUMETSAT

Con el paso del tiempo geológico y el enterramiento continuado de ese barro generado a partir de la acumulación de placas de caparazones de cocolitofóridos, acaba formándose una roca sedimentaria. Y puesto que el carbonato cálcico tiene un color blanquecino, la roca resultante también adquirirá una coloración blanca muy llamativa. Así que, tras aflorar en superficie, estas rocas resaltarán sobre el paisaje que las rodea gracias a esa blancura tan significativa, lo que las llevará a convertirse en un atractivo turístico seña de identidad de algunas zonas, como es el caso del litoral suroriental inglés.

En inglés, esta roca se denomina chalk. Pero aquí la conocemos con el nombre de creta, que procede del latín y significa tiza. Con esto ya nos estamos haciendo una idea de uno de los usos más comunes que se le han dado a esta roca a lo largo de la historia. Y es que esta roca, al estar compuesta prácticamente al completo por carbonato cálcico, tiene una dureza relativamente baja, es decir, es fácil romperla y machacarla, dando un fino polvo de color blanco. Por eso, antiguamente, pequeños fragmentos de esta roca se utilizaban para pintar, marcar o escribir figuras, números o palabras de color blanco sobre superficies de colores más oscuros. Ya fuera un sastre tomando medidas sobre una prenda de ropa, ya fuera un docente dando la lección a su alumnado ayudándose de una pizarra. Y aunque hoy en día se emplean otros componentes para la manufactura de estos materiales de apoyo, seguimos denominándolos tiza como un recuerdo de la roca original de la que surgió esta brillante idea. Seguro que en muchos museos educativos que conserven pizarras centenarias que no se hayan limpiado a conciencia podemos encontrar preservadas para la posteridad pequeñas placas carbonatadas procedentes del caparazón de cocolitofóridos fósiles.

Pero aún nos queda hablar de otra particularidad de esta roca y es que da nombre a un Periodo geológico, el Cretácico. Este Periodo, que abarca el tiempo comprendido entre hace 145 y 66 millones de años, fue definido a comienzos del siglo XIX por un geólogo belga, que lo denominó Cretácico debido a la abundancia de la roca creta que afloraba en los alrededores de París. Por supuesto, los blancos acantilados de Dover se formaron durante este Periodo, concretamente hace unos 100 millones de años, por la acumulación de caparazones de cocolitofóridos en el fondo de un mar de aguas cálidas y cristalinas con unos 300 o 400 metros de profundidad. Y debido a esa baja dureza que tiene esta roca, hoy en día estos materiales están siendo erosionados con bastante rapidez por el embate de las olas sobre el acantilado.

Este es un claro ejemplo de cómo nuestro patrimonio geológico, en este caso una roca con una coloración particular y llamativa, puede llegar a convertirse en un emblema característico de una región y de toda una sociedad. Seguro que, la próxima vez que veamos una escena de película o serie rodada junto a estos acantilados, nos imaginaremos a esos minúsculos organismos marinos que han dado lugar a esas rocas posando como los protagonistas que son de una maravillosa historia de millones de años.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Oh, blancos acantilados se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Nicole-Reine Lepaute, la minuciosa e incansable astrónoma calculadora

Mié, 2022/01/05 - 11:59

 

«Madame Lepaute fue la negación viva de esta opinión, a menudo fundada, que niega a las mujeres la capacidad de reconciliar la ciencia y el encanto, el estudio y las cualidades domésticas. Era tan buena ama de casa como excelente geómetra, y era aún más diligente en ayudar que en realizar un cálculo.»

Pierre Larousse, Grand dictionnaire universel du XIXe siècle, 1866-1877.

Las líneas que abren este escrito, no exentas de misoginia, forman parte de la reseña que Larousse dedicó a Nicole-Reine Lepaute en su famoso diccionario. Cien años antes, en vida, tampoco fue reconocida como merecía.

Nicole-Reine Lepaute. Fuente: Wikimedia Commons.

 

Nicole-Reine nació el 5 de enero de 1723 en el Palacio de Luxemburgo de París donde residía su familia: era la sexta de nueve hijos. Su padre, Jean Étable, trabajaba al servicio de la Reina de España Louise Élisabeth d’Orléans (1709-1742).

En verano de 1749 se casó con Jean-André Lepaute (1720-1789), un relojero real en el Palacio de Luxemburgo, conocido en Europa por su gran labor como maestro artesano, diseñador, fabricante y reparador de relojes. Nicole-Reine ayudaba a su marido en su trabajo y, a través de él, conoció al astrónomo Joseph-Jérôme de Lalande (1732-1802).

En 1753, la Académie des Sciences encargó a Lalande el estudio del reloj de Lepaute, provisto de un mecanismo de escape de un nuevo tipo. Animado por el astrónomo, Lepaute comenzó a diseñar y construir péndulos astronómicos. Nicole-Reine realizó los cálculos de las tablas de oscilaciones del péndulo para el Traité d’Horlogerie contenant tout ce qui est nécessaire pour bien connoître et pour régler les pendules et les montres de su marido.

Tabla del Traité d’Horlogerie. Fuente: Archive.org

 

En 1757, un año antes del esperado regreso del cometa Halley (según la predicción realizada por Edmund Halley (1656-1742)), Lalande propuso a Alexis Clairaut (1713-1765) aplicar su solución (aproximada) del problema de los tres cuerpos para comprobar (o corregir, en su caso) la fecha prevista por Halley. Clairaut estableció los modelos de cómputo y Lalande (ayudado por Nicole-Reine Lepaute) se encargó de los numerosos cálculos que se precisaban: se trataba principalmente de medir el efecto que ejercían los planetas Júpiter y Saturno sobre la trayectoria del cometa y, por lo tanto, sobre la fecha prevista de su regreso. Lalande escribía en 1803:

«Durante más de seis meses, nosotros [Nicole Reine Lepaute y yo] calculamos desde la mañana hasta la noche, algunas veces incluso durante las comidas. […] La ayuda de Madame Lepaute fue tal que, sin ella, nunca hubiera podido emprender la enorme labor, en la que era necesario calcular la distancia de cada uno de los dos planetas, Júpiter y Saturno, al cometa, por separado, para cada grado sucesivo, durante 150 años.»

En noviembre de 1758, Clairaut anunció el regreso del cometa Halley para el 13 de abril de 1759, con un mes como margen de error. La predicción fue un gran éxito: el cometa pasó su perihelio el 13 de marzo de 1759.

Clairaut publicó en 1760 su Théorie du mouvement des comètes sin mencionar a Nicole-Reine Lepaute entre las personas calculadoras que habían contribuido a esta obra. Se dice que quería evitar los celos de una amante, intentando no ofenderla al alabar los méritos de otra mujer. Este hecho minó su larga amistad con Lalande y, de hecho, no volvieron a colaborar en investigaciones astronómicas.

En 1759, la Académie des Sciences solicitó a Lalande que se encargara de las efemérides astronómicas que publicaban bajo el nombre de La connaissance des temps; este anuario era muy utilizado por astrónomos y marinos y sirvió, por ejemplo, para calcular el tránsito de Venus de 1761 y de 1769. El astrónomo contrató a personas calculadoras, y eligió a Nicole-Reine Lepaute como su ayudante en esta tarea. El cartógrafo y astrónomo Cassini de Thury (1714-1784), rival y muy crítico con Lalande, calificó este equipo como «manufactura de astronomía», añadiendo además que «está dirigida en segundo lugar por una académica de no sé qué academia». Este desafortunado comentario ignoraba, por supuesto, que dos años más tarde Lepaute iba a ser admitida en la Académie de Béziers por sus trabajos en tablas astronómicas.

Ciertamente Lalande reclutaba para sus cálculos a numerosos astrónomos amateurs, algunos de ellos eran mujeres. De hecho, en su publicación Astronomie des dames (1785), Lalande defendía que la astronomía no debía ser un reducto masculino, mencionando a algunas mujeres astrónomas y comentando sus aportaciones:

«La bella Hipatia escribió varios tratados: profesaba la astronomía en Alejandría cuando fue asesinada por el clero, fue en 415. Maria Cunitz, hija de un médico de Silesia, publicó en 1650 unas tablas astronómicas. Marie-Claire Eimmart Muller, hija y esposa de astrónomos conocidos, también fue astrónoma. Jeanne Dumée presentó en 1680 unas entrevistas sobre el sistema de Copérnico. La esposa de Hevelius realizaba observaciones junto a él. Las hermanas de Manfredi calculaban las efemérides de Bolonia; las tres hermanas de Kirch calcularon durante mucho tiempo las efemérides de Berlín; su esposa, nacida Winkelmann, presentó en 1712 una obra de astronomía. La Marquesa de Châtelet ha proporcionado una traducción de Newton. La condesa de Puzynina ha fundado un observatorio en Polonia […]. Madame Lepaute, fallecida en 1788, ha calculado durante más de diez años efemérides de la Academia, y la viuda de Edwards trabaja en Inglaterra en el “Nautical almanac”. Madame du Piery ha realizado numerosos cálculos de eclipses para comprender mejor el movimiento de la Luna; fue la primera que ejerció la astronomía en París. Miss Caroline Herschel trabaja con su hermano. Ya ha descubierto cinco cometas. La Señora Duquesa de Gotha ha realizado gran cantidad de cálculos, pero no desea ser citada. Mi sobrina, Le Français de Lalande, ayuda a su marido en sus observaciones y obtiene conclusiones de ellas mediante cálculos; ha reducido diez mil estrellas, ha preparado trescientas páginas de tablas horarias para la marina, un trabajo inmenso para su edad y sexo. Están en mi “Abrégé de Navigation.»

Joseph-Jérôme Le Français de Lalande, Astronomie des dames.

En 1774 Lalande comenzó a ocuparse de la publicación Éphémérides des mouvements célestes dirigiendo el tomo 7 (publicado en 1774 y dedicado a los años 1775 a 1784) y el tomo 8 (publicado en 1783 y correspondiente a los años 1785 a 1792). En el prefacio de ambos escritos reconoció el trabajo de Lepaute:

«Los cálculos de Saturno han sido realizados por Madame le Paute, quien, desde hace muchos años, se dedica con éxito al cálculo astronómico.»

Tomo 7

«Madame le Paute, quien, desde más de 20 años, se dedica a la astronomía, ha realizado ella sola los cálculos del Sol, de la Luna y de los planetas.»

Tomo 8

Página de las Efemérides de 1775. Fuente: Wikimedia Commons.

 

Nicole-Reine Lepaute investigó también el eclipse anular del 1 de abril de 1764 para el que trazó un mapa de visibilidad mostrando la progresión de cuarto de hora en cuarto de hora para toda Europa. Este trabajo fue publicado con su propio nombre en La connaissance des temps bajo el título de Explication de la carte qui représente le passage de l’ombre de la lune au travers de Europe dans l’eclipse du soleil centrale et annulaire. Sus cálculos necesitaron la preparación de una tabla de ángulos paralácticos (ángulo de desplazamiento de un objeto causado por un cambio en la posición del observador), cuya versión extendida fue publicada por el gobierno francés.

Nicole-Reine Lepaute no tuvo hijos, pero acogió en 1768 a uno de los sobrinos de su marido, Joseph Lepaute Dagelet (1751-1788), al que enseñó astronomía y que se convirtió en profesor de matemáticas de la École militaire en 1777, antes de ser elegido astrónomo adjunto en la Académie royale des sciences en 1785. Lalande consideraba la tutorización de su sobrino como una contribución de Lepaute a la astronomía.

Los últimos siete años de su vida los dedicó a cuidar de su marido, gravemente enfermo. Su propia salud se vio afectada, perdiendo la vista paulatinamente. Nicole-Reine falleció pocos meses antes que Jean-André Lepaute, el 6 de diciembre de 1788.

El asteroide 7720 (Lepaute) y un cráter de la Luna le rinden un merecido homenaje.

Referencias

 

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Nicole-Reine Lepaute, la minuciosa e incansable astrónoma calculadora se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Gilbert Lewis: átomos cúbicos y algo más

Mar, 2022/01/04 - 11:59
Los átomos cúbicos de Lewis en sus notas de 1902. Fuente: Wikimedia Commons

Una vez que los físicos que estudiaban la estructura del átomo comenzaron a darse cuenta de que los electrones que rodeaban el núcleo tenían una disposición especial, los químicos comenzaron a investigar cómo estas teorías se correspondían con la química conocida de los elementos y su capacidad para formar enlaces. Gilbert Newton Lewis (1875-1946) fue clave en el desarrollo de una teoría del enlace basada en el número de electrones de la capa más externa de electrones del átomo, la capa de “valencia”. En 1902, mientras estaba tratando de explicar el concepto de valencia a sus estudiantes, representó los átomos como constituidos por una serie de cubos concéntricos con electrones en cada vértice.

Este “átomo cúbico” explicaba los ocho grupos de la tabla periódica y representaba su idea de que los enlaces químicos se formaban por una transferencia electrónica para completar el conjunto de ocho electrones más externos (un “octeto”). La teoría de Lewis del enlace químico continuó evolucionando y, en 1916, publicó su artículo fundamental [*] en el que sugería que el enlace químico era un par de electrones compartidos por dos átomos. (El investigador de la General Electric Irving Langmuir elaboraría esta idea e introduciría el término enlace covalente). Para los casos en los que no se compartían los electrones, Lewis redefinió en 1923 el concepto de ácido como cualquier átomo o molécula con un octeto incompleto que era, por tanto, capaz de aceptar electrones de otro átomo; las bases eran, por consiguiente, donantes de electrones.

La contribución de Lewis también fue importante en el desarrollo de la termodinámica y en la aplicación de sus leyes a sistemas químicos reales. A finales del siglo XIX, cuando comenzó a trabajar, la ley de conservación de la energía y otras relaciones termodinámicas existían como ecuaciones aisladas. Lewis se basó en el trabajo de otro pionero de la termodinámica, Josiah Willard Gibbs (Universidad de Yale), cuyas contribuciones se estaban conociendo muy lentamente. El trabajo de ambos fue fundamental para poder predecir si una reacción avanzaría hasta casi consumir todos los reactivos, si alcanzaría un equilibrio o si no tendría lugar en absoluto, y también para determinar si una mezcla de sustancias podría ser separada por destilación.

En 1931 uno de los estudiantes de Lewis, Harold Urey, detectó espectroscópicamente el deuterio. Lewis fue el primero en sintetizar óxido de deuterio (agua pesada) en 1933 y en estudiar su influencia en la supervivencia y crecimiento de formas de vida en agua pesada. Su interés en el deuterio le llevó a realizar experimentos junto a su ayudante Glenn T. Seaborg en el ciclotrón que había construido Ernest O. Lawrence en Berkeley. Urey y Seaborg recibirían sendos premios Nobel, en 1934 y 1951, respectivamente.

Lewis fue educado en su casa hasta que cumplió los 14 años. Su educación posterior fue más convencional, culminando con un doctorado por la Universidad de Harvard que le dirigió Theodore Richards. Posteriormente haría la peregrinación a Alemania de los químicos y físicos que querían estar a la vanguardia de la investigación a finales del XIX y primeras décadas del XX, trabajando con Walter Nernst (U. Gotinga) y Wilhelm Ostwald (U. Leipzig). Ocupó varias posiciones académicas, las más notables en el Instituto de Tecnología de Massachusetts (EE.UU.) y en la Universidad de California en Berkeley (EE.UU.), donde amplió los programas de química e ingeniería química.

Referencia:

[*] Lewis, G. (1916). The Atom and the Molecule Journal of the American Chemical Society, 38 (4), 762-785 doi: 10.1021/ja02261a002

 

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este texto se publicó en Experientia Docet el 8 de febrero de 2011.

El artículo Gilbert Lewis: átomos cúbicos y algo más se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Los invasores: Las algas Caulerpa

Lun, 2022/01/03 - 11:59

Un alga colonizadora [Caulerpa taxiflora] se aprovecha de un desorden provocado por la acción humana de una manera inesperada y brutal”.

Thomas Belsher, IFREMER, 2000.

En todas las costas del planeta, la invasión de algas tiene un papel importante en la estructura de las comunidades. En el Mediterráneo se considera que hay unas 100 especies invasoras de macroalgas. Alexandre Meinesz y otros 21 expertos, liderados desde la Universidad de Niza-Sophia Antipolis, relatan la invasión de un alga en el Mediterráneo occidental. Es la especie Caulerpa taxifolia, un alga verde tropical con una distribución habitual en la costa americana de Brasil al Caribe, en el Golfo de Guinea en África y en los océanos Índico y Pacífico.

Espécimen de Caulerpa taxifolia expuesto en el Museo Nacional de la Naturaleza y la Ciencia de Tokio (Japón). Fuente: Wikimedia Commons.

En el Mediterráneo occidental se la detectó por vez primera en 1984, a pocos metros del Museo Oceanográfico de Mónaco y, se supone, fue vertida al mar por accidente durante la limpieza de sus acuarios. Procedía de una cepa del Zoo Wilhelm de Stuttgart, en Alemania, que desde 1980 se utilizaba como alga decorativa en sus acuarios. Llegó a Mónaco desde los acuarios de París y Niza que la habían recibido de Stuttgart.

Fuente: Wikimedia Commons

Seis años más tarde, en 1990, se detectó en Francia, 6 kilómetros al este de Mónaco. A finales de 2000 había 76 colonias en Francia y Mónaco.

En España se observó por primera vez en Mallorca en 1992 y, a finales de 2000, había cuatro colonias en la isla.

El mismo año, en 1992, se encontró en Italia en el puerto de Imperia, 40 kilómetros al este de Mónaco. Para el 2000 estaba en cinco regiones: Liguria, Toscana, Elba, Sicilia y Calabria.

Caulerpa taxifolia se encontró por primera vez en Croacia en 1994, en la isla Hvar. Al año siguiente, en 1995, fue descubierta en la isla Krk.

A finales del 2000, seis países estaban afectados por la invasión de Caulerpa taxifolia en el Mediterráneo: España, Francia, Mónaco, Italia, Croacia y Túnez. En total, son 103 áreas independientes de invasión en 191 kilómetros de costa. Coloniza desde el nivel del mar hasta los 30 metros de profundidad. Y, en esas fechas del 2000, hace dos décadas, había colonizado 5000 hectáreas y parecía seguir en expansión. Había pasado de ocupar 1 metro cuadrado en 1984 a 3000 hectáreas en 1996 y, para 2000, llegar a las 5000 hectáreas.

Mancha de Caulerpa taxifolia. Foto: Rachel Woodfield / Wikimedia Commons

Según el Catálogo Español de Especies Exóticas Invasoras, en 2013, Caulerpa taxifolia es una especie que se ha extendido por el Mediterráneo en pequeñas manchas pero, rápidamente, llega a ocupar grandes extensiones de costa en varios países. Está incluida en la lista de las 100 peores especies invasoras del planeta.

Con estudios de ADN, el grupo de O. Jousson, de la Universidad de Ginebra, ha analizado muestras de Caulerpa del Mediterráneo y de varios acuarios públicos, incluyendo el de Mónaco, tomadas en 24 lugares. Los resultados confirman que provienen de la misma cepa que está disponible en los comercios que surten a los acuarios públicos y domésticos desde la década de los setenta. Todos los datos confirman que la especie invasora es Caulerpa taxifolia. Fue por el comercio de material para acuarios como se difundió por las costas del planeta.

Para reducir los riesgos de nuevas invasiones, en 2001, era ilegal importar o poseer Caulerpa en Francia, Australia, Estados Unidos y España. En España, por la Orden de 20 de marzo de 1996 se prohibió la extracción del alga Caulerpa taxifolia en el litoral nacional. La Orden se publicó en el BOE el 30 de marzo.

La cepa invasora se ha detectado también, en 2000, en San Diego y Los Angeles, en la costa de California. De esta zona se eliminó, entre 2000 y 2002, por la acción de agencias oficiales y de ONGs. Y al año siguiente, en 2001, se encontró el alga cerca de Sydney, en Australia. En este caso, solo 600 kilómetros al norte, hay Caulerpa taxifolia autóctona. También se eliminó cambiando el agua marina por agua dulce en el embalse en que había aparecido.

La dispersión del alga se hace por pequeños fragmentos que son arrastrados por las corrientes o en anclas y redes de los barcos. Se fijan al fondo, hasta los 30 metros de profundidad, y crecen como clones de la planta de la que proceden los fragmentos. También tiene reproducción sexual, poco conocida hasta el momento. Crece y se extiende en verano, de junio a septiembre. Lo hace donde encuentra las condiciones ambientales adecuadas para el asentamiento y la proliferación. La temperatura óptima de crecimiento va de 20ºC a 30ºC, y muere por debajo de los 7ºC y por encima de los 32ºC.

La dispersión por fragmentación la experimentaron Giulia Ceccherelli y Francesco Cinelli, de las universidades de Sassari y Pisa, en Italia, en la costa sur de la isla de Elba. En tres fechas, elegidas al azar en las cuatro estaciones del año, dispersaron 20 fragmentos de Caulerpa de 15 centímetros de longitud en los márgenes de praderas de Posidonia. Pasado un mes, contaron el número de fragmentos establecidos a 3 y a 10 metros de profundidad.

El mayor número de fragmentos establecidos se daba en verano en un periodo iniciado a finales de primavera y que terminó a principios del otoño. Fueron muy escasos los fragmentos que se fijaron en invierno. Destacaron algunos días de junio y julio en que se fijaron al sustrato entre el 60% y el 80% de los fragmentos de Caulerpa dispersados por los autores.

Sus predadores más habituales son peces, moluscos y erizos de mar. Su sistema de defensa es la producción de compuestos químicos tóxicos para otras especies. Reduce el número de especies autóctonas entre un 25% y un 55% y llega a ocupar el hábitat de algunas de ellas. Una de las más afectadas y estudiadas es Posidonia oceánica. En un solo año, afecta hasta el 45% de las praderas de esta especie. El impacto lo estudiaron Heike Molenaar y su grupo, de la Universidad de Niza-Sophia Antipolis, entre 1995 y 2005 en dos lugares de la costa mediterránea francesa: en Cap Martin y, como control en Cap Antibes.

Cada año medían la densidad del alga en cada zona de muestreo. Entre 1995 y 2000, Caulerpa taxifolia ocupó el suelo desde el 3% hasta el 95%. Pero en 2001, la extensión ocupada cayó hasta el 5% sin que se conozca la causa. Quizá temperatura del agua del marina era muy alta aquel año. Entre 2002 y 2005 creció la cobertura pero se mantuvo entre el 10% y el 22% y no llegó a la extensión de los últimos años de la década de los noventa. La densidad de Posidonia no recuperó los valores iniciales de antes de la llegada del alga, incluso después de la disminución de la Caulerpa entre 2000 y 2001.

Caulerpa cylindracea. Fuente: IMEDEA

Algunas variedades de otra especie de Caulerpa, la Caulerpa racemosa, se extendieron por el Mediterráneo oriental durante el siglo XX. La variedad cylindracea que llegó al Mediterráneo occidental venía de Perth, en Australia, aunque su distribución natural es tropical.

Invadió el Mediterráneo occidental y las Islas Canarias. Para 1991 se había encontrado en Túnez, Libia y se extendió por las costas españolas, francesas e italianas. El primer hallazgo parece que fue en Túnez, en 1985, según la revisión publicada por Yassine Sghaier y su grupo, del Centro de Actividad Regional para Áreas Especialmente Protegidas de Túnez, en el que participaron investigadores de Palma de Mallorca y de Alicante.

Tiene la variedad cylindracea un comportamiento invasor muy agresivo y, en general, imparable. Su tasa de crecimiento es cuatro veces mayor que la de Caulerpa taxifolia y, además, tiene reproducción sexual y asexual. Y puede establecerse hasta 60 metros de profundidad, aunque parece preferir los 20 metros en algunas zonas como, por ejemplo, las costas de Murcia.

En España se encontró en Baleares en 1998, en Castellón en 1999, en Alicante en 2001 y en Murcia en 2005 y se extiende hacia Andalucía.

En resumen, dos especies de algas tropicales del género Caulerpa colonizan en la actualidad las costas del Mediterráneo occidental, escriben en 2003 A. Occhipinti-Ambrogi y D. Savini, de la Universidad de Pavía, en Italia. Son Caulerpa taxifolia y Caulerpa racemosa var. cylindracea. La primera llegó desde los acuarios en 1984 y la segunda desde Australia, quizá por el Mar Rojo y el Canal de Suez o, también, por el comercio para acuarios, en la década de los ochenta del siglo XX.

Para los autores, el éxito de la colonización de las dos especies de Caulerpa se basa en su fácil diseminación, su elevado ajuste al medio ambiente del Mediterráneo y la resistencia a la contaminación en entornos muy dañados.

Sin embargo, en 2007 y según la revisión de J.M. Ruiz Fernández y sus colegas, del Instituto Español de Oceanografía en San Pedro del Pinatar, en Murcia, la invasión de Caulerpa taxiflora no ha sido el desastre que se preveía hace dos décadas. Su velocidad de dispersión se ha ralentizado o detenido, y las praderas de Posidonia no han experimentado la gran regresión que se esperaba. Ya en 2003, un estudio, dirigido por Jean Jaubert, del Observatorio Oceanológico Europeo de Mónaco, con fotografías aéreas del 44% de la costa de Francia con Caulerpa taxifolia mostró que la cobertura con el alga se había sobreestimado como diez veces y, de nuevo, se mencionan entornos con contaminación o de salida de aguas de tormenta como áreas adecuadas para la implantación del alga.

En Baleares, con taxiflora desde los noventa, no se han observado alteraciones en la distribución y abundancia de las praderas de Posidonia. Es más, en un estudio publicado en 2021 y liderado por Fabrice Houngnandan desde la Universidad de Montpellier, se concluye que la presencia de Caulerpa crece cuando el estado de conservación de las praderas de Posidonia decrece y cuando el número de barcos anclados es alto. Parece que las praderas de Posidonia deben estar dañadas para que Caulerpa taxifolia colonice el entorno y, en parte, la sustituya.

Sin embargo, Caulerpa racemosa var. cylindracea, sin recibir tanta atención mediática como “alga asesina”, parece cumplir las peores expectativas. Hay que recordar que su tasa de crecimiento es cuatro veces superior a la de Caulerpa taxiflora. Por la profundidad en la que se asienta, es más difícil de controlar y menos visible para el público en general lo que provoca, a su vez, menos atención y rechazo.

Referencias:

Catálogo Español de Especies Exóticas Invasoras. 2013. Caulerpa taxifolia. Ministerio de Agricultura, Alimentación y Medio Ambiente. Madrid. Septiembre. 8 pp.

Catálogo Español de Especies Exóticas Invasoras. 2013. Caulerpa racemosa. Ministerio de Agricultura, Alimentación y Medio Ambiente. Madrid. Septiembre. 6 pp.

Ceccherelli, G. & F. Cinelli. The role of vegetative fragmentation in dispersal of the invasive alga Caulerpa taxifolia in the Mediterranean. Marine Ecology Progress Series 182: 299-303.

Houngnandan, F. et al. 2021. The joint influence of environmental and anthropogenic factors on the invasion of two alien caulerpae in northwestern Mediterranean. Biological Invasions doi: 10.1007/s10530-021-02654-w.

Jaubert, J.M. et al. 2003. Re-evaluation of the extent of Caulerpa taxifolia development in the northern Mediterranean using airborne spectrographic sensing. Marine Ecology Progress Series 263: 75-82.

Jourdaa, F. 2000. Thomas Belsher. Organismos invasores. Mundo Científico enero: 14-15.

Jousson, O. et al. 1998. Molecular evidence for the aquarium origin of the green alga Caulerpa taxifolia introduced to the Mediterranean Sea. Marine Ecology Progress Series 172: 275-280.

Klein, J. & M. Verlaque. 2008. The Caulerpa racemose invasion: A critical review. Marine Pollution Bulletin 56: 205-225.

Meinesz, A. et al. 2001. The introduced green alga Caulerpa taxifolia continues to spread in the Mediterranean. Biological Invasions 3: 201-210.

Molenaar, H. et al. 2009. Alterations of the structure of Posidonia oceanica beds due to the introduced alga Caulerpa taxifolia. Scientia Marina 73: 329-335.

Occhipinti-Ambrogi, A. & D. Savini. 2003. Biological invasions as a component of global change in stressed marine ecosystems. Marine Pollution Bulletin 46: 542-551.

Sghaier, Y. et al. 2016. Review of alien marine macrophytes in Tunisia. Mediterranean Marine Science 17: 109-123.

Simberloff, D. 2021. Maintenance management eradication of established aquatic invaders. Hydrobiologia 848: 2399-2420.

Wikipedia.2021. Caulerpa taxifolia. 13 mayo.

 

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Los invasores: Las algas Caulerpa se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Las plantas parásitas roban agua, nutrientes… y hasta genes

Dom, 2022/01/02 - 11:59

Carlos Frey y José Luis Acebes Arranz

Cuscuta chinensi. Fuente: Vinayaraj, CC BY-SA

 

La idea general que tenemos de las plantas es que son organismos verdes anclados en el suelo y que elaboran su propio alimento mediante la fotosíntesis. Pero ¿son todas las plantas así? Entre la gran diversidad que alberga este reino, algunas se han especializado en robar el alimento a otras. Estas jetas son las plantas parásitas.

Estudios recientes concluyen que el parasitismo ha aparecido independientemente en doce ocasiones a lo largo de la historia evolutiva de las plantas. En total se han identificado 292 géneros y 4 750 especies de estas plantas. Es decir, este comportamiento no es tan raro como podría parecer, ya que lo tiene aproximadamente el 1,6 % de las especies de plantas con flores y frutos (angiospermas).

Especies reprentativas de los 12 grupos de plantas parásitas. A: Cassytha filiformis (Sudáfrica); B: Hydnora africana (Sudáfrica); C: Cynomorium coccineum (España); D: Krameria ixine (Puerto Rico); E: Rafflesia pricei (Malasia); F: Pilostyles thurberi (EEUU); G: Cytinus ruber (Francia); H: Amyema artensis (Papúa Nueva Guinea); I: Mitrastemon yamamotoi (Japon); J: Pholisma culiacanum (México); K: Cuscuta rostrata (EEUU); L: Harveya purpurea (Sudáfrica). Nickrent, D. L., 2020. Parasitic angiosperms: How often and how many? Taxon, 69(1), 5-27.

No todos los ladrones son de la misma condición

No todas las plantas parásitas roban de la misma manera. Algunas son “parásitas facultativas”. Son capaces de vivir autónomamente, pero parasitan a otras si se les brinda la ocasión.

Otras muchas son “parásitas obligadas”. Su forma de vida consiste exclusivamente en robar.

Dentro de las parásitas obligadas podemos reconocer dos tipos. Las “hemiparasitas” solo roban de la planta parasitada (hospedadora) la savia bruta, que les aporta agua y sales minerales (los nutrientes), mientras que fabrican su propio alimento (los fotoasimilados) mediante la fotosíntesis. Un ejemplo es el conocido muérdago (Viscum album).

Por el contrario, las “holoparásitas” o parásitas completas roban de la parasitada tanto la savia bruta como la elaborada, de las cuales reciben agua/nutrientes y fotoasimilados respectivamente. Entre ellas cabe citar las cuscutas (Cuscuta sp.) y los jopos (Orobanche sp.).

Pequeña planta de muérdago (Viscum album) creciendo sobre una rama leñosa. Nótese la coloración verde que indica actividad fotosintetizadora. Fuente: Salicyna – CC BY-SA 4.0

Curiosamente, hay algunas plantas que son capaces de robar a hongos: reciben el nombre de micoheterótrofas y parasitan hongos micorrícicos que están asociados a otras plantas. Tienen aspectos impresionantes, como el de la planta fantasma.

Monotropa uniflora. Planta micoheterótrofa también conocida como planta fantasma, pipa fantasma o pipa india. Nótese la coloración blanca (y rosada) en contraposición al verde mostrado por una planta fotosintética. Fuente: Magellan nh – CC BY 3.0¿Pueden las plantas parásitas ‘robar’ genes?

Las plantas parásitas cuentan con un órgano especializado para ejercer el robo. Se trata del haustorio, que penetra los tejidos de las plantas parasitadas hasta que se conecta a su sistema vascular.

Haustorio leñoso. Corte longitudinal de la conexión haustorial entre muérdago (parásito) y manzano (hospedador). Fuente: Schurdl – CC BY-SA 4.0Haustorio herbáceo. Corte transversal microscópico del haustorio de Cuscuta campestris (parásita) avanzando hacia los tejidos vasculares del tallo de la planta de soja (hospedadora).

En las plantas holoparásitas se ha visto que, además de agua, nutrientes y fotoasimilados, otras muchas sustancias pasan por el haustorio hacia la planta asaltante y, curiosamente, entre esas sustancias se encuentran ácidos nucleicos como son pequeños ARN o ARN mensajeros móviles.

Sorprendentemente, se ha demostrado que existe transferencia de genes, es decir, genes de la planta parasitada que se integran en el genoma de células de la planta asaltante. Esto representa un caso sobresaliente de transferencia genética horizontal.

La transferencia genética horizontal consiste en el traspaso de material genético entre organismos (diferenciándose así de la transmisión genética vertical que tiene lugar a través de la descendencia). Esta transferencia normalmente se asocia a bacterias y otros microorganismos, aunque está ampliamente demostrada en plantas y se considera que ha sido un factor de gran importancia en el proceso evolutivo. Desde hace unos años se van conociendo más y más casos de transferencia genética desde plantas hospedadoras a plantas parásitas.

En las células de las plantas, además del genoma nuclear (que incluye la mayoría de los genes), aparece un genoma mitocondrial y otro plastidial (el de los cloroplastos). La gran mayoría de los eventos de transferencia genética horizontal en plantas parásitas han involucrado al genoma mitocondrial, pero también se han descrito otros asociados a los genomas nuclear y plastidial.

Esta transferencia está facilitada por el íntimo contacto que se produce en los haustorios entre células de la planta parásita y la parasitada, ya que las membranas plasmáticas entre unas y otras se conectan gracias a la formación de plasmodesmos (a modo de túneles entre células). En cuanto a los mecanismos descritos se distinguen varios:

  • Captura directa de ADN.
  • Fusión mitocondrial, nuclear o plastidial.
  • Intermediarios de ARN mensajero.
  • Transposones.
Tipos y mecanismos de transferencia genética horizontal (TGH) entre plantas parásitas y hospedadoras.

¿Y los genes ‘robados’ funcionan?

Aunque muchos de los genes robados que se incorporan al genoma en los eventos de transferencia genética horizontal no desempeñan función conocida en la planta parásita, algunos de ellos sí se expresan, son funcionales y contribuyen a la buena salud de la salteadora. Por citar un par de ejemplos:

La escoba de Egipto (Phelipanche aegyptiaca), emparentada con los jopos, ha importado genes de defensa que se expresan. Se sospecha que contribuyen a la atenuación del sistema inmune de la planta hospedadora.

En las cuscutas, la mayoría de los eventos de transferencia genética horizontal se expresan y 18 de ellos coinciden de manera independiente con eventos encontrados en la familia de los jopos (Orobanchaceae). Esto sugiere una posible retención convergente. ¿Son capaces las plantas parásitas de quedarse con los genes más interesantes?

En conclusión, los datos disponibles muestran que la transferencia de genes ha sido un fenómeno muy importante en la evolución de las plantas parásitas. Estas atípicas plantas no solo han conseguido robar agua, nutrientes y fotoasimilados a otras plantas, sino que también han logrado robar genes útiles para ellas. Ilustran como nadie el famoso refrán español: “Fruto del árbol ajeno, sale de balde y sabe bueno”.The Conversation

Sobre los autores: Carlos Frey está realizando su doctorado en fisiología vegetal y José Luis Acebes Arranz es catedrático de fisiología vegetal, ambos en la Universidad de León

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Las plantas parásitas roban agua, nutrientes… y hasta genes se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: Manu Arregi – Una historia muy oscura

Sáb, 2022/01/01 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

¿Usó Vermeer tecnologías ópticas para realizar sus obras maestras? Manu Arregi nos presenta las pruebas que parecen indicar que sí.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Manu Arregi – Una historia muy oscura se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Un 2021 de ciencia

Vie, 2021/12/31 - 11:59
Foto: engin akyurt / Unsplash

2021 ha sido año de exploración marciana. El 18 de febrero aterrizó en el planeta rojo Perseverance, un vehículo que había sido lanzado por la NASA el 30 de julio de 2020. Y por si poner un cochecito lleno de instrumentos científicos en la superficie de Marte y hacer que se desplace por su superficie fuese hazaña pequeña, el 19 de abril la NASA hizo volar un pequeño helicóptero, de nombre Ingenuity. Que sepamos, es la primera vez que un artilugio semejante sobrevuela ese planeta o cualquier otro distinto del nuestro. Y desde entonces, a comienzos de este mes de diciembre lo había hecho ya en diecisiete ocasiones.

Esos no son los únicos hitos de la exploración espacial de este año, porque el pasado día 25 fue lanzado al espacio, a bordo del cohete Ariane 5, el telescopio James Webb. Será el sustituto del Hubble y, si todo funciona como es de esperar, será capaz de obtener imágenes mejores y de objetos astronómicos más lejanos aún que su predecesor. El telescopio ha sido lanzado por un consorcio formado por las agencias espaciales estadounidense, europea y canadiense.

En 2021 la inteligencia artificial ha seguido haciendo de las suyas, para bien y para mal. Me han impresionado dos grandes logros. Uno ha sido el descubrimiento, gracias a su potencial, de 301 nuevos planetas fuera del Sistema Solar. Y el otro su aplicación para decodificar con éxito actividad neurológica encefálica de macacos, registrada mediante ultrasonidos, y anticipar así los movimientos que se proponían hacer. Corresponden a áreas muy diferentes, y se suman a hallazgos tan asombrosos como la capacidad para determinar la estructura y forma de las proteínas a partir de su secuencia de aminoácidos, que se había conseguido en 2020. La cara negativa es la constatación, en reiteradas ocasiones, de que la inteligencia artificial dota a sus productos de sesgos indeseables. Son el reflejo de prejuicios y estereotipos negativos para con quienes forman parte de ciertos grupos de población, y deben, por ello neutralizarse, para que no perjudiquen a las personas pertenecientes a esos grupos cuando se aplican en la esfera social y económica.

Las vacunas de la Covid-19 no han sido las únicas por las que debemos congratularnos este año. En 2021 se ha constatado que, un año después de su administración, la de la malaria ha mostrado una eficacia del 75% en una muestra de cuatrocientas cincuenta niños y niñas. No es una muestra muy grande, pero es un resultado prometedor. No olvidemos que el paludismo mata cada año a cuatrocientas mil personas. Hasta ahora, el protozoo de la malaria se ha mostrado esquivo en extremo a la acción de las vacunas. Cualquier avance en la prevención de esta enfermedad se traducirá en más salud y, como consecuencia, en menos pobreza y más bienestar general.

En España la vulcanología ha adquirido este año una relevancia enorme, acorde con la magnitud de las erupciones de Cumbre Vieja y con los estragos que han causado en la isla de La Palma. Los ríos de lava nos han recordado que la geología importa y que es una disciplina imprescindible para entender el mundo en el que vivimos y para relacionarnos de forma más inteligente con nuestro planeta.

Y luego está la Covid-19, con sus vacunas, variantes, olas y demás. Pero de eso ya hablan otros más y mejor que un servidor. Hagámonos a la idea: antes o después, a todos nos alcanzará el SARS-Cov-2. De lo que se trata es de que lo haga lo más tarde posible y que, cuando eso ocurra, nos encuentre lo más protegidos posible.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Un 2021 de ciencia se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Interpretar el arcoíris para clasificar las estrellas

Jue, 2021/12/30 - 11:59
Los muchos cientos de líneas de absorción del espectro solar. Fuente: NoirLab

La luz de las estrellas contiene información esencial sobre su estructura química. Pero esa información permaneció oculta, como un mensaje encerrado dentro de una botella, durante decenas de siglos. El prisma de Newton, capaz de destejer el arcoíris interno de la luz, fue solo la primera pieza de un puzzle que más tarde nos permitiría interpretar todos esos mensajes.

En el siglo XIX, gracias al avance de la ciencia y la tecnología, las herramientas ópticas se fueron haciendo cada vez más precisas. Después de que William H. Wollaston descubriese las primeras líneas oscuras ocultas en la luz del Sol (los espectros de absorción), Joseph von Fraunhofer perfeccionó su técnica y dedicó años a clasificarlas con precisión. Este físico alemán fue el pionero en utilizar una red de difracción para obtener el espectro de la luz. Se trata de una rejilla, de ranuras diminutas, que consigue difractar la luz y hacer que los rayos de distinta longitud de onda (de distinto color) se separen entre sí. También fue el primero en utilizar este dispositivo para medir las longitudes de onda asociadas a las misteriosas líneas oscuras del arcoíris. Por ello, hoy se considera a Fraunhofer el padre de la espectroscopía. Su nombre estará escrito para siempre en el espectro de la luz del Sol.

Durante el siglo XIX, los astrofísicos fueron abriendo poco a poco los mensajes de la luz procedente de las estrellas. Gracias a estos espectros, la ciencia contó con una gran cantidad de datos nuevos, medidos con una precisión cada vez mayor. Sin embargo, para poder darle sentido a todos esos números, aún era necesario analizarlos e interpretarlos, construir un modelo con ellos. ¿Qué nos podían contar aquellas líneas oscuras sobre sus estrellas de origen?

Los primeros intentos de clasificación estelar basados en estos espectros tuvieron lugar entre 1860 y 1870. En esta época destaca la labor de Angelo Secchi, un astrónomo italiano que dirigía el observatorio de la Pontificia Universidad Gregoriana. Secchi propuso una clasificación basada en cuatro tipos de estrellas, en función de su color y de algunos de sus componentes químicos. Las estrellas de tipo 1 eran blancas o azuladas, sus espectros se caracterizaban unas líneas muy marcadas propias del hidrógeno, e incluían estrellas como Vega o Sirio. Su tono se iba apagando, pasando por las estrellas de luz predominantemente amarilla (tipo 2), naranja (tipo 3) o roja (tipo 4). Aunque este sistema de clasificación ya no se utiliza en la actualidad, Secchi fue uno de los pioneros en basar sus estudios astronómicos en la espectrografía. También fue uno de los más prolíficos: el italiano llegó a clasificar los espectros de más de 4.000 estrellas basándose en su propio sistema1.

Al otro lado del Atlántico, otro físico llamado Edward Charles Pickering, profesor en el Instituto de Tecnología de Massachusetts (el famoso MIT), estaba también convencido de que la nueva astronomía no debía limitarse a medir velocidades y posiciones relativas de las estrellas: su espectro, su brillo y su color serían las claves que nos permitirían entender el universo, la base de la nueva astrofísica. Pero para conseguir este ambicioso objetivo, necesitaba dos ingredientes fundamentales. Para empezar, necesitaba más datos. Por suerte, Pickering contaba con dos grandes telescopios que podrían proporcionárselos: el “Gran Refractor” de Cambridge, construido en 1847, que fotografiaba el cielo desde el hemisferio norte, y el telescopio Bruce de Arequipa, de 1896, situado en el hemisferio sur.

Pero sobre todo, el proyecto de Pickering requería un análisis pormenorizado de todos esos datos. Necesitaba contratar cabezas pensantes, mano de obra cualificada capaz de analizar toda esa nueva información. Fue así como se formó un equipo sin precedentes de computadoras humanas, que aún hoy conocemos con el desafortunado nombre de “el harén de Pickering”.

Referencia:

1R. O. Gray, C. J. Corbally. Stellar Spectral Classification. 2009.

&nbsp
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Interpretar el arcoíris para clasificar las estrellas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Conocían los romanos el triángulo fractal de Sierpinski?

Mié, 2021/12/29 - 11:59

Como escribí en mi anterior entrada del Cuaderno de Cultura Científica, titulada Geometría en los pavimentos romanos cosmatescos, observando el hermoso pavimento de la Basílica de Santa María en Cosmedin en Roma, en la cual se encuentra la Boca de la Verdad, me llevé algunas sorpresas.

Fotograma de la película Vacaciones en Roma (1953) de William Wyler, interpretada por Gregory Peck y Audrey Hepburn, en la que vemos a sus protagonistas frente a la Boca de la Verdad

 

Una de esas sorpresas, además de las mencionadas en mi anterior entrada, fue que en parte de ese pavimento de estilo cosmatesco pude observar el triángulo fractal de Sierpinski, o, para ser más preciso, una estructura geométrica que me recordaba claramente al triángulo de Sierpinski. En concreto, en este pavimento, que os muestro en la siguiente imagen, observé que la mitad de las baldosas triangulares del mosaico estaban formadas por un triángulo equilátero dividido en cuatro triángulos equiláteros, de los cuales el central estaba dotado de color, mientras que los otros tres apoyados en los vértices, estaban divididos de nuevo en cuatro triángulos equiláteros, con color solamente los pequeños triángulos centrales.

Parte del pavimento de la Basílica de Santa María en Cosmedin (Roma), con mosaicos formados por lo que nos recuerda a triángulos fractales de Sierpinski. Fotografía de Marian Espinosa

 

Aunque la mayor sorpresa en mi viaje a Roma, en relación con esta estructura geométrica, me la encontré en el suelo de la Basílica de Santa María en Trastevere (siglo XII). Al entrar en el interior de esta basílica romana uno descubre tanta belleza geométrica que no sabe a dónde mirar. Entre todas las bellezas del pavimento, también de estilo cosmatesco, se encontraba esta que os muestro a continuación y que es una versión más compleja aún del triángulo fractal de Sierpinski “romano”.

Triángulo fractal de Sierpinski en el pavimento de la Basílica de Santa María en Trastevere (Roma). Fotografía de Francesco de Comité para MAA Found Math

 

Pero expliquemos qué es eso del triángulo fractal de Sierpinski. Este objeto fractal (véase la entrada Fractus, arte y matemáticas para saber qué es un fractal) debe su nombre al matemático polaco Waclaw Franciszek Sierpinski (1882-1969). Este gran matemático del siglo XX, que escribió más de 700 artículos de investigación y 50 libros (entre ellos: Números cardinales y ordinales (1958), Introducción a la topología general (1934), Topología general (1952), Triángulos pitagóricos (1952) o Teoría elemental de números (1914 y 1959)), trabajó en teoría de conjuntos –con contribuciones al axioma de elección y la hipótesis del continuo-, teoría de números, teoría de funciones, topología y lógica matemática. Su nombre se ha asociado a algunos objetos matemáticos, como los fractales denominados curva de Sierpinski, triángulo de Sierpinski y alfombra de Sierpinski, o a los conocidos como números de Sierpinski.

Fotografía de 1928 de Waclaw Sierpinski. Imagen del Archivo Estatal de Polonia – Archiwa państwowe

 

El triángulo de Sierpinski es un objeto fractal introducido por el matemático Wraclaw Sierpinski en 1916. Satisface algunas de las propiedades características de los fractales: es autosemejante (es decir, al hacer zoom sobre el objeto, se observa que partes más pequeñas del objeto son exactamente, o aproximadamente, iguales a todo el objeto), se puede construir mediante un algoritmo recursivo (en este caso, a partir de un triángulo equilátero), tiene área cero (si se calcula el área del objeto en cada paso de su construcción cada vez es más pequeña y su límite es cero) y tiene dimensión no entera, de hecho, irracional (1,58496…), aunque esto necesitaría de una explicación más larga que ahora no abordaremos.

La construcción es la siguiente. En el primer paso se considera un triángulo equilátero (en negro en la siguiente imagen). En el segundo paso se divide el triángulo inicial en cuatro triángulos equiláteros más pequeños de la siguiente forma. Se considera los puntos medios de los tres lados del triángulo y se unen mediante segmentos rectos, esto nos genera un triángulo central, que se elimina (por eso queda blanco en la imagen), y tres triángulos equiláteros que tocan los vértices del triángulo inicial (que se mantienen negros). En el tercer paso se realiza la misma operación para cada uno de los tres pequeños triángulos (negros) que se han mantenido, es decir, se eliminan los tres pequeños triángulos equiláteros centrales (blancos) y se mantienen los otros nueve triángulos (negros). De esta forma se continua en cada paso, dividiendo cada triángulo equilátero negro, en cuatro triángulos más pequeños y eliminando el central (blanco) y dejando los exteriores (negros), como se muestra en la siguiente imagen. El triángulo de Sierpinski es el objeto fractal que se obtiene al continuar este proceso de forma infinita.

Los cinco primeros pasos del proceso de construcción del triángulo fractal de Sierpinski

 

La construcción de este fractal de Sierpinski se puede explicar de otra manera. Como antes, partimos en el primer paso de un triángulo equilátero (negro). En el segundo paso se realizan tres copias, de la mitad de altura y la mitad de anchura, del anterior triangulo y se pegan de manera que cada uno de esos tres nuevos triángulos toque a los otros dos por uno de sus vértices, como se observa en la imagen. En el tercer paso se realizaría una operación similar, pero para el objeto geométrico obtenido en el segundo paso. Y así se continua de forma infinita. Esta construcción nos da una idea de la autosemejanza de este fractal.

El triángulo fractal de Sierpinski tras nueve pasos

 

Como podemos observar, la imagen del pavimento de Santa María en Cosmedin se corresponde con el tercer paso de esta construcción fractal, mientras que el pavimento de Santa María en Trastevere se corresponde con el objeto geométrico tras cinco pasos. Claramente los artesanos romanos que construyeron estos maravillosos pavimentos de estilo cosmatesco, alrededor del siglo XII, no sabían qué era un fractal, pero sí eran capaces de realizar hermosas construcciones geométricas como esta.

La construcción del triángulo fractal de Sierpinski se puede realizar con cualquier otro tipo de triángulo, no necesariamente equilátero. De hecho, en la Basílica de Santa María en Cosmedin también nos encontramos la realización, hasta el tercer paso, para triángulos rectángulos isósceles (véase la siguiente imagen).

Parte del pavimento de la Basílica de Santa María en Cosmedin (Roma), con mosaicos formados por lo que nos recuerda a triángulos fractales de Sierpinski, realizados con triángulos rectángulos isósceles. Fotografía de Marian Espinosa

 

El triángulo de Sierpinski, que nos lo podemos encontrar en diferentes contextos, como el grafo asociado al rompecabezas de la torre de Hanoi (como puede verse en el libro Del ajedrez a los grafos, RBA, 2015) o los patrones geométricos del triángulo de Pascal (véase la entrada de Marta Macho Triangulando: Pascal versus Sierpinsaki, la novela El diablo de los números, de Hans Magnus Enzensberger, publicado en Siruela en 1997, o el libro La gran familia de los números, Catarata, 2021), aparece también asociado al conocido como “juego del caos”, al que vamos a dedicar la última parte de esta entrada.

Para jugar al juego del caos se necesita una hoja de papel, un lápiz, una regla y un dado, para una versión manual del mismo. Lo primero que debemos hacer es pintar tres puntos A, B, C que forman un triángulo equilátero, es decir, cada punto está a la misma distancia de los otros dos (aunque el juego funciona para cualquier tipo de triángulo).

Se empieza pintando un punto cualquiera P(0) dentro del triángulo formado por los puntos A, B y C (que hemos pintado de rojo en la imagen siguiente).

A continuación, vamos a lanzar el dado y pintaremos el siguiente punto P(1) en el triángulo en función del resultado:

i) si sale 1 o 2, entonces P(1) será el punto medio entre el punto inicial P(0) y A;

ii) si sale 3 o 4, entonces P(1) será el punto medio entre el punto inicial P(0) y B;

iii) si sale 5 o 6, entonces P(1) será el punto medio entre el punto inicial P(0) y C.

La regla se utiliza para determinar el punto medio entre los dos puntos correspondientes, en cualquiera de las tres circunstancias anteriores. Obtenido el punto P(1), tomamos este punto y calculamos el punto P(2) utilizando el mismo algoritmo anterior, pero considerando P(1) en lugar de P(0). De esta forma, se irán obteniendo los diferentes puntos P(3), P(4), etc. Es decir, obtenidos n puntos mediante este algoritmo, desde P(0) hasta P(n – 1), se calcula el punto P(n) de la misma forma a partir del punto P(n – 1). Esto es,

i) si sale 1 o 2, entonces P(n) será el punto medio entre el punto inicial P(n – 1) y A;

ii) si sale 3 o 4, entonces P(n) será el punto medio entre el punto inicial P(n – 1) y B;

iii) si sale 5 o 6, entonces P(n) será el punto medio entre el punto inicial P(n – 1) y C.

En la siguiente imagen hemos pintado los cinco primeros puntos descritos con este algoritmo, empezando en el punto rojo (que es el punto inicial P(0)), después de sacar con el dado 6, 1, 5, 4 y 1.

Lo sorprendente de este juego es que según se van representando cada vez más puntos mediante ese algoritmo, independientemente de cual sea el punto inicial, empieza a surgir el triángulo de Sierpinski.

Veamos una sucesión de imágenes –obtenidas con un simulador del juego del caos realizado con Geogebra, diseñado por slik y que podéis ver aquí – que nos ofrecen los diferentes resultados del juego del caos para un determinado punto inicial, tras 100, 500, 1.000, 2.000 y 5.000 pasos.

Este algoritmo fue introducido por el matemático británico Michael Barnsley en su libro Fractals Everywhere (1988) y no solo sirve para triángulos y la mitad de a distancia, sino para polígonos de n lados y una fracción de distancia r. Por ejemplo, para n = 5, sobre un pentágono, y para una fracción de distancia de r = 3/8 se obtiene el siguiente objeto fractal, tras 10.000 pasos.

Mientras que si tomamos una fracción de distancia de r = 1/2 el resultado, tras 15.000 pasos es el siguiente conjunto.

O para n = 6, sobre un hexágono, con una fracción de distancia de r = 3/8 se obtiene el siguiente resultado tras 10.000 pasos.

Y en esta última imagen obtenemos un nuevo fractal clásico, el copo de nieve de Koch (véase la entrada Fractus, arte y matemáticas), justo como la frontera interior del mismo.

Imagen de la sexta iteración del copo de nieve de Koch. Imagen de Mcgill a través de Wikimedia Commons

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo ¿Conocían los romanos el triángulo fractal de Sierpinski? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Fritz London: cuando la química se hizo cuántica pero no se lo contaron a Pauling

Mar, 2021/12/28 - 11:59
Fritz London

La concesión de la prestigiosa beca Guggenheim en 1926 le dio la oportunidad a Linus Pauling de visitar Europa y trabajar con Bohr en Copenhague, con Sommerfeld en Múnich, y con Schrödinger en Zúrich. Fue en Suiza donde coincidió con Fritz London, un joven filósofo cuyo interés en la mecánica cuántica le había llevado a realizar estudios postdoctorales con Sommerfeld. Pauling también discutiría extensamente de mecánica cuántica con Walter Heitler, que estaba haciendo su doctorado con Herzfeld pero en estrecho contacto con Sommerfeld. Es comprensible la estupefacción de Pauling al enterarse al año siguiente de que Heitler y London eran los autores del primer tratamiento mecanocuántico de un sistema químico: ninguno de los dos le había dicho nada de su trabajo en común. Años más tarde el propio Pauling describiría el acontecimiento como “la mayor contribución a la concepción química de valencia” desde la introducción por Lewis de la idea de par compartido en 1916.

Heitler, Pauling, Ava Pauling, London. Múnich, 1927. La mirada entre Heitler y London podría interpretarse como un «si este supiera».

Fritz London nació en 1900 en Breslavia (Breslau en alemán, Wrocław en polaco) en el seno de una próspera y cultivada familia germano-judía. Su padre era profesor de matemáticas en Breslavia (después lo sería en Bonn) y su madre era la hija de un fabricante de tejidos. London recibiría una educación clásica en Bonn lo que alimentaría su interés por la filosofía. Estudió esta disciplina en Bonn, Frankfurt y Múnich. Con sólo 21 años recibió un doctorado (summa cum laude) por la universidad de Múnich tras presentar una tesis espectacular: sin supervisión alguna, había elaborado toda una presentación de la teoría del conocimiento basada en el lenguaje simbólico y los métodos desarrollados por Peano, Russell y Whitehead. Presentó este trabajo como tesis de doctorado solo después de que Pfänder, que lo había recibido para comentarios, le animase a ello.

Las querencias filosóficas son detectables en todo el trabajo de London, caracterizado por una búsqueda constante de los principios generales y la exploración concienzuda de las bases lógicas de los temas elegidos. Nunca fue un mero calculista. Así, por ejemplo, en 1939 publicó con Ernst Bauer una breve monografía (en francés) sobre la teoría de la medida en mecánica cuántica.

Durante los tres años posteriores a la presentación de su tesis, London escribiría dos artículos filosóficos más y se ganaría la vida como profesor de instituto en varios lugares de Alemania. Pero sus intereses iban concretándose y en 1925 toma la decisión de volver a Múnich para trabajar en física teórica con Sommerfeld. Tras este período trabajaría con Ewald en Stuttgart y en Zúrich y en Berlín con Schrödinger.

En 1933 la persecución nazi llevó al judío London a abandonar Alemania. Pasaría dos años en Oxford y otros dos en París en el Institut Henri Poincaré. Finalmente, en 1939, aceptó el puesto de profesor de química teórica (el equivalente hoy sería química física) en la universidad Duke en Estados Unidos, donde permanecería hasta su muerte.

Entre 1925 y 1934 los intereses de London se centraron en la espectroscopía y en la nueva mecánica cuántica, especialmente aplicadas al estudio y caracterización del enlace químico. En 1927, como vimos, Heitler y London produjeron su tratamiento mecanocuántico de la molécula de hidrógeno.

Su problema era calcular la energía de la molécula de hidrógeno en la que dos electrones se mantienen unidos a dos protones. Si los núcleos estuviesen muy alejados la energía del sistema sería esencialmente la de dos átomos de hidrógeno separados, y sólo habría que considerar la interacción entre un electrón y un protón. Pero cuando los núcleos están próximos hay que considerar cuatro interacciones. Usando teoremas matemáticos que lord Rayleigh había desarrollado para estimar la energía mínima de una campana, Heitler y London pudieron ignorar el espinoso problema de la distribución efectiva de los electrones. La demostración de Heisenberg de que los electrones son indistinguibles (resonancia) les permitió hacer más simplificaciones.

Con todas estas aproximaciones consiguieron una expresión lo suficientemente simple de la ecuación de Schrödinger que la hacía manejable para obtener la ecuación de onda del hidrógeno. La solución arrojaba valores de la energía de enlace increíblemente próximos a los obtenidos experimentalmente a partir de estudios espectroscópicos.

Cuando hoy día lees un libro de texto que trate del enlace químico solo encontrarás, si acaso, el nombre de Pauling. Incluso en muchos textos de química física el desarrollo de Heitler y London aparece anónimamente. No solo eso, en algunas historias de la química la teoría del enlace parece una creatio ex nihilo de Pauling. Sabemos que no fue así y quizás, también, intuyamos por qué Heitler y London decidiesen, como años más tarde harían Watson y Crick, no anticipar nada de su trabajo a Pauling.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este texto se publicó en Experientia Docet el 7 de abril de 2013.

El artículo Fritz London: cuando la química se hizo cuántica pero no se lo contaron a Pauling se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Kelvin, padre de la termodinámica: cuando la religión inspira a la ciencia

Lun, 2021/12/27 - 11:59

Javier Sánchez Cañizares

William Thomson, baron Kelvin fotografiado por T R Annan. Fuente: Wikimedia Commons / Wellcome Collection, CC BY-SA

 

El 17 de diciembre se cumplen 114 años del fallecimiento de William Thomson, también conocido como barón Kelvin, uno de los físicos más reconocidos del siglo XIX por su aportación a la termodinámica. Su título nobiliario da nombre a la unidad de temperatura medida a partir del cero absoluto. Kelvin fue un elder (dirigente laico en la Iglesia de Escocia) de la Iglesia de St. Columba en Largs durante muchos años, y un cristiano devoto a lo largo de toda su vida. Al igual que otros muchos científicos antes y después que él, no veía conflicto alguno entre la ciencia y sus creencias.

Sus biógrafos coinciden en afirmar que buscaba soluciones a los problemas dentro del curso normal de la naturaleza. Al mismo tiempo, entendía las leyes de la naturaleza como la obra de una inteligencia creativa, de modo que la fe informaba y apoyaba su trabajo científico. Cuanto más profundizaba en su investigación, más próximo se sentía al teísmo.

Curiosamente, la nueva disciplina que fundó junto a otros físicos le llevó a entrar en polémica con la contemporánea teoría de la evolución mediante selección natural, sobre la que albergaba serias dudas. El problema residía en que la teoría de la evolución prestaba poca atención al enorme lapso de tiempo necesario para que la vida evolucione, mediante pequeños cambios, hasta alanzar la complejidad que hoy conocemos. Se aceptaba implícitamente una edad de la Tierra indefinida, según la visión geológica uniformista, que permitiría a los cambios aleatorios y a la selección natural realizar pacientemente su trabajo.

Pero las cosas no eran tan sencillas para Kelvin quien, precisamente gracias a los avances termodinámicos, comenzó a realizar estimaciones cada vez más precisas sobre el tiempo que nuestro planeta lleva existiendo. Los números del barón no cuadraban y la Tierra sería demasiado joven para que la estrategia de ensayo y error de la evolución pudiera producir una biosfera tan variada como la que observamos. Estos argumentos causaron dolores de cabeza al propio Darwin.

No obstante, el descubrimiento de la radiactividad, a finales del siglo XIX, abrió la posibilidad a una fuente de energía desconocida por Kelvin, que hacía irrelevantes sus cálculos sobre la antigüedad real de la Tierra y permitió al darwinismo respirar tranquilo. Sí. Había suficiente tiempo para la evolución.

La termodinámica entra en escena

¿Hay una influencia de la religión en la ciencia de este controvertido físico? Esta influencia es más sutil y duradera que lo que revelan sus opiniones filosóficas sobre la selección natural o su lucha por dotar a la evolución de un marco compatible con la física.

Debemos situar su inspiración religiosa en un nivel más profundo: el de su concepción termodinámica del universo. Quizás el momento donde más explícitamente aparece dicha inspiración sea su discurso de 1889, donde Kelvin rechaza la idea de un universo perfecto que evoluciona de acuerdo con ciclos atemporales y afirma que la dinámica de la naturaleza va más allá de regularidades perfectas, citando la Biblia (“los cielos desaparecerán estrepitosamente, los elementos se disolverán abrasados”) como apoyo a la flecha temporal del universo.

El nuevo paradigma termodinámico, marcado por el desarrollo de la segunda ley (la entropía del universo siempre tiende a aumentar) y moldeado de forma esencial por Kelvin, depende crucialmente del concepto de “proceso irreversible”. El científico pensaba que solo Dios era el creador eterno, siendo imposible que los seres humanos pudieran crear o destruir por sí mismos; pero en la decadencia orgánica y en la resistencia al movimiento llegó a concebir la “irreversibilidad” o “disipación” como una característica central y universal de los sistemas físicos: las montañas se erosionan y los animales mueren. La entropía del universo crece hasta que se alcance su “muerte térmica” y resulte imposible extraer de él energía en forma de trabajo.

El historiador Peter Bowler señala las semejanzas entre el pensamiento de Kelvin y el de su hermano James a este respecto:

“Ambos hermanos vieron sus investigaciones de la naturaleza como un medio de entender la creación divina. La motivación subyacente a su trabajo en termodinámica fue tanto práctica como religiosa. La cosmovisión de los hermanos se centró en la fuente de energía que impulsaba todos los procesos naturales. La fuente principal de energía era Dios, quien había creado la energía necesaria al principio, y las leyes de la naturaleza que había instituido conducían a una inevitable disminución en la cantidad de energía que quedaba disponible para el trabajo útil en los procesos naturales”.

Si la idea dominante en la ciencia del siglo XVIII había sido la del equilibrio, con las fuerzas de la naturaleza trabajando continuamente para restablecerlo, la termodinámica mostraba una direccionalidad siempre presente en la naturaleza. En definitiva, la tensión entre la idea de un Creador y un mundo creado que decae de forma irreversible llegó a inspirar a Kelvin algo muy concreto sobre el funcionamiento del universo: su comprensión complementaria de las dos primeras leyes de la termodinámica.The Conversation

Sobre el autor: Javier Sánchez Cañizares es doctor en Física por la Universidad Autónoma de Madrid y doctor en Teología por la Universidad Pontificia de la Santa Cruz. Actualmente es director del Grupo “Ciencia, Razón y Fe” (CRYF) e investigador del Grupo “Mente-Cerebro” del Instituto Cultura y Sociedad (ICS) de la Universidad de Navarra. 

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Kelvin, padre de la termodinámica: cuando la religión inspira a la ciencia se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El séptimo ángel

Dom, 2021/12/26 - 11:59

Tocó el séptimo Ángel… Entonces sonaron en el cielo fuertes voces que decían: «Ha llegado el reinado sobre el mundo de nuestro Señor y de su Cristo; y reinará por los siglos de los siglos.» Y los veinticuatro Ancianos que estaban sentados en sus tronos delante de Dios, se postraron rostro en tierra y adoraron a Dios diciendo: «Te damos gracias, Señor Dios Todopoderoso, «Aquel que es y que era» porque has asumido tu inmenso poder para establecer tu reinado.

Juan de Patmos (siglo I e.c.) Apocalipsis 11: 15-17.

Foto: Rene BöhmerUnsplash

¿Es concebible que la función que representan hoy las divinidades en nuestras sociedades pueda ser ejercida por alguna otra entidad? Si hay algo que pueda suplantar ese papel, creo que ese “algo” es la Inteligencia Artificial.

No es tarea fácil definir “inteligencia artificial”, por la sencilla razón de que no lo es definir “inteligencia”. Nos conformaremos, por tanto, con considerar que inteligencia artificial es aquel artefacto -material o virtual- que despliega capacidades y destrezas tales que sería considerado inteligente si las desplegara una persona. Ahora bien, si pensamos que la inteligencia artificial podría llegar a sustituir a Dios en nuestras mentes, su capacidad debería ser muy superior a la humana. Y sería bajo ese supuesto que podría convertirse en una amenaza para la humanidad. La amenaza sería mayor, incluso, si se desalinease de los valores y prioridades de los seres humanos.

No hay acuerdo entre los expertos acerca de la probabilidad de que un riesgo tal pueda llegar a materializarse, pero hay figuras muy relevantes en ese campo que así lo creen. Aunque también es cierto que se trata de algo cuya eventualidad no se considera verosímil en unos pocos años, aunque sí en unas décadas. En otras palabras: queda mucho tiempo por delante para que tal cosa ocurra.

Según los especialistas, el riesgo empezaría a convertirse en una amenaza muy cierta en el momento en que se combinasen el llamado “aprendizaje profundo” con el aprendizaje por refuerzo -mediante recompensa o castigo-, lo que podría resultar de la utilización de lo que se denomina una “función de recompensa”.

Las posibilidades de que una Inteligencia Artificial llegase a representar un riesgo existencial aumentarían si la “función de recompensa” no incluyese valores ampliamente compartidos por los seres humanos, y si sus creadores los sustituyesen por valores acordes a sus propios intereses. Bajo esas condiciones, un sistema suficientemente inteligente podría resistirse a aceptar reformular en algún momento su función de recompensa, por lo que operaría de acuerdo con los intereses que hubiesen especificado sus creadores.

Por otro lado, para poder adquirir el control y desvincularse del que pudieren ejercer sobre él seres humanos, el sistema no necesitaría actuar en el mundo físico; le bastaría con hacerlo en el virtual, mediante textos, sonidos e imágenes. Y progresaría de modo similar a como lo ha hecho la capacidad humana, adquiriendo volúmenes crecientes de recursos. Estamos muy lejos -eso dicen- de una situación tal, pero no es tan difícil imaginar cómo operaría esa Inteligencia Artificial, si pensamos en los vídeos en los que se nos presenta la imagen de una persona conocida por todo el mundo haciendo afirmaciones absurdas, pero haciéndolas con su propia voz. O si pensamos en la facilidad con la que bulos e informaciones tendenciosas se expanden y reciben total credibilidad por parte de amplios sectores de población.

La Inteligencia Artificial no tendría por qué acabar físicamente con la humanidad, pero sí podría reducirla a un estado de postración tal que perdiera todas sus posibilidades de optar por diferentes futuros. Toby Ord atribuye a este riesgo una probabilidad de una entre diez de materializarse en los próximos cien años.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El séptimo ángel se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: Juan Ignacio Pérez Iglesias – Calor animal

Sáb, 2021/12/25 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

Los bebés humanos no tienen capacidad para tiritar, por lo que no pueden generar calor cuando tienen frío. ¿Cómo se las arreglan? La respuesta a esta pregunta y otras soluciones sorprendentes que se encuentran en el reino animal las aborda Juan Ignacio Pérez Iglesias en esta charla. Algunos de los temas tratados aparecen en su sección Animalia de este Cuaderno.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Juan Ignacio Pérez Iglesias – Calor animal se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Cuál es la huella ecológica del turismo espacial?

Vie, 2021/12/24 - 11:59

Jorge Hernández Bernal

Las actividades espaciales irrumpen cada vez con más frecuencia en la actualidad. Sería fácil pensar que lo que ocurra en el espacio no nos afecta. Pero la realidad es que sí lo hace, y cada vez de formas menos sutiles.

La noticia de actualidad estos días es la competición entre Jeff Bezos y Richard Branson, dos multimillonarios que están detrás de sendas compañías de turismo espacial.

Blue Origin, de Jeff Bezos, había previsto lanzar su vuelo inaugural este 20 de julio. En respuesta, Virgin Galactic, de Richard Branson, programó su propio vuelo para el día 11. Adelantándose por pocos días.

Ambos vuelos han estado rodeados de un amplio despliegue mediático. Y es que estos vuelos han sido, ni más ni menos, enormes maniobras de marketing. El objetivo es llamar la atención.

Vuelo espacial de Virgin Galactic.Vuelo espacial de Blue Origin.

El turismo espacial llega con la promesa de “democratizar el espacio”. Pero esta frase, repetida como un mantra, a menudo se pronuncia vacía de contenido. Ya no porque el turismo espacial siga estando sólo al alcance de una minoría, sino también por el impacto ecológico que puede llegar a derivarse de la generalización de estas actividades.

La población general va haciéndose a la idea de usar menos aviones y más trenes; y comer menos carne. Esos son solo parte de los cambios que tendremos que hacer si queremos una transición ecológica justa. Mientras tanto, el turismo espacial emerge como una actividad poco accesible y muy contaminante.

Alcanzar el espacio es, en primer lugar, muy costoso energéticamente. El hecho es que la energía no nos sobra. Los combustibles fósiles están en la raíz del cambio climático. Las llamadas energías renovables y la nuclear tampoco están exentas de problemas y limitaciones.

Así que, sí, alcanzar el espacio lleva asociadas unas emisiones de dióxido de carbono. Es decir, una huella del carbono.

Impacto ambiental

Aunque el impacto ambiental de los lanzamientos espaciales no ha sido suficientemente estudiado, se sabe que va más allá de las emisiones de carbono. La liberación de gases en capas altas de la atmósfera durante los lanzamientos espaciales tiene efectos negativos sobre la capa de ozono. Un gas frecuentemente emitido en los lanzamientos y aparentemente inocuo como el vapor de agua contribuye al efecto invernadero.

Existen bastantes tipos de combustible que se usan y algunos son tóxicos al ser liberados en el lanzamiento o por su proceso de producción. La buena noticia es que la mayoría de los nuevos sistemas de lanzamiento usan combustibles líquidos, menos problemáticos en este sentido que los sólidos.

Los cohetes propiamente suelen tener como destino diferentes órbitas en torno a nuestro planeta. Hemos de aclarar que, en cambio, los vuelos turísticos de Virgin Atlantic y Blue Origin son vuelos “suborbitales”. Es decir, no llegan a entrar en órbita, sino que ascienden hasta 80 y 100 km de altura respectivamente, experimentan la gravedad cero por un breve período de tiempo, y vuelven a caer a la Tierra.

Un vuelo suborbital requiere muchísima menos energía que entrar en órbita. Por ello su coste es más asequible y su huella ecológica, menor.

Actualmente se lanzan unos 100 cohetes al año. Su huella del carbono sigue siendo menor que la de los 100 000 aviones que vuelan cada día en el mundo. Pero el sector espacial está experimentando un fuerte crecimiento. Por ello su impacto ambiental podría llegar a ser muy relevante.

Turismo de lujo y de emisiones de dióxido de carbono

La concienciación y regulación internacional del impacto ambiental es pues uno de los aspectos en los que la gestión de las actividades espaciales tendrá que mejorar. Si bien es cierto que lanzar un satélite a la órbita terrestre tiene un impacto mayor que un vuelo turístico suborbital, los satélites pueden beneficiar a muchas personas. Mientras que un vuelo turístico es un lujo para un limitado número de personas.

Para ponerlo en números. Se estima que cada vuelo turístico de Virgin Galactic y Blue Origin emite unas 60 y 90 toneladas de dióxido de carbono, respectivamente. Es decir, unas 8 y 15 toneladas por pasajero.

En comparación, de media, cada persona en el mundo emite cada año unas 4,8 toneladas de dióxido de carbono. Esta cifra es muy diferente entre países ricos y pobres. En Estados Unidos la cifra es de 15 toneladas. En España es de 5,4 toneladas. Aunque estos datos pueden variar considerablemente según diferentes fuentes. China es un gran contaminante, pero cuando se consideran sus emisiones per cápita, el valor es 7,4 toneladas.

Una huella cuestionable

Por tanto, la huella del carbono de estos vuelos suborbitales no es extremadamente alta comparada con la de otras actividades. Pero no deja de ser cuestionable que en un momento en que urge reducir nuestro impacto ambiental, surja esta nueva forma de ocio. Accesible sólo a una minoría y que supone que cada pasajero emite en solo unos minutos el mismo dióxido de carbono que 2 o 3 personas de media durante un año entero.

Recordemos que a esta huella del carbono hay que sumarle otros impactos ambientales de esta actividad, como el de la erosión de la capa de ozono.

Todo esto viene a recordarnos la necesidad de reorientar nuestra forma de pensar y de estar en el mundo, para avanzar hacia un mundo más justo y sostenible. El espacio, bien gestionado, puede traernos cambios positivos para todos. Pero no debemos dejarnos deslumbrar por el optimismo ciego basado únicamente en el desarrollo tecnológico.The Conversation

Sobre el autor: Jorge Hernández Bernal es investigador en el Grupo de Ciencias Planetarias de la UPV/EHU.

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Cuál es la huella ecológica del turismo espacial? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El aperitivo preferido de los Comerrocas

Jue, 2021/12/23 - 11:59

 

En 1984 se estrenó la película La Historia Interminable, basada en la primera parte de la novela homónima escrita por Michael Ende unos pocos años antes. Aunque la película es bastante fiel a la historia original relatada por Ende, se toma algunas libertades en el guion. Y una de esas licencias artísticas es muy geológica.

Justo al comenzar la historia de Fantasía, tres particulares personajes se encuentran por casualidad en el Bosque de Haule. Mientras un Silfo Nocturno y un Diminutense descansaban junto a una hoguera, un gigantón con el cuerpo completamente conformado por rocas se acercó a ellos montado en una bicicleta también construida en piedra tallada. Era un mensajero de los Comerrocas. Tras pedirles permiso a sus compañeros para descansar junto a su fuego, les contó una extraña historia sucedida en su tierra, donde la nada estaba empezando a hacer estragos. Hambriento del viaje, el Comerrocas se fijó en los materiales rocosos que rodeaban la pequeña hondonada donde descansaban, tomando una de las rocas entre sus manos para llevarse un aperitivo a la boca. Y aquí inicia un curioso monólogo. Les explica a sus compañeros que esa roca es una apetecible y añeja caliza, a la que devora con fruición. Pero el bocado no le sienta demasiado bien, explicando el Comerrocas que es debido a que la caliza tenía una pequeña porción de cuarzo en su composición.

Esta conversación parece simplemente salida de la mente de los guionistas de la película, pero tiene una base geológica completamente correcta y eso es lo que voy a intentar explicaros ahora mismo.

Rocas calizas compactas formadas en el fondo marino hace unos 110 millones de años (playa de Ostende, Castro Urdiales, Cantabria). Foto: Blanca María Martínez

Una caliza es un tipo de roca sedimentaria compuesta en más de un 90% por carbonato, principalmente carbonato cálcico o calcita (CaCO3). Generalmente se forman por la acumulación en los fondos de lagos y océanos de los restos de organismos que precipitan sus conchas y caparazones a partir del carbonato de calcio que toman del agua. Estos restos constituyen un fango carbonatado que, con el paso del tiempo y debido a la presión que sufren por la acumulación continua de sedimentos unos encima de otros, acaban convirtiéndose en roca.

Capas de rocas calizas formadas en el fondo de un lago hace unos 15 millones de años (Cabezo de Punta de la Negra, Bárdenas Reales de Navarra). Foto: Blanca María Martínez

Aunque algunas calizas deben su origen a una precipitación química. Este proceso está provocado porque el agua de lluvia tiene cierto componente ácido, ya que lleva disuelto CO2. Cuando esta agua ácida entra en contacto con rocas carbonatadas las disuelve, produciendo una reacción química que da lugar a un agua saturada en carbonato cálcico. Cuando esta agua se desgasifica, es decir, pierde el CO2 disuelto, también pierde su capacidad de portar iones carbonato, por lo que acaba precipitando este carbonato cálcico. Así es como se forman las estructuras que encontramos en las cuevas y que denominamos espeleotemas, como las estalactitas y las estalagmitas. Y también así se llegan a generar costras carbonatadas en zonas próximas a manantiales o nacimientos de los ríos, cando este carbonato cálcico precipita sobre la vegetación circundante, dando lugar a unas rocas que llamamos tobas y travertinos.

Estalactitas de la cueva de Pozalagua (Parque Natural de Armañón, valle de Karrantza, Bizkaia). Foto: Blanca María Martínez

Pero volvamos a la conversación del Comerrocas. Nuestro amigo nos cuenta que la caliza no le ha sentado muy bien porque tenía un poco de cuarzo. ¿Es esto posible? Pues la respuesta científica es que sí. Como he comentado, las calizas están formadas por carbonato cálcico en más de un 90%, lo que quiere decir que hasta un 10% de su composición pueden ser otro tipo de minerales, entre ellos, el cuarzo. Pero, incluso, puede que este pétreo protagonista de la historia no se comiese una caliza pura, ya que, de acuerdo a las actuales clasificaciones de rocas sedimentarias carbonatadas, cuando una roca está formada por entre un 50% y un 90% de carbonato cálcico y el resto es cuarzo, recibe el nombre de caliza arenosa. Con ese porcentaje de cuarzo, seguro que ese pequeño bocado no le sentó muy bien al Comerrocas.

Sin que sirva como precedente, este es un ejemplo de como un pequeño cambio de guion a la hora de transcribir una fantástica novela para adaptarla a la gran pantalla puede llegar a ser una mejora sustancial, al menos para utilizarla como herramienta didáctica de la Geología para el público más joven. Y también para los adultos, ya que esta película puede ser disfrutada por personas de cualquier edad en cualquier momento, sobre todo en estas fechas navideñas.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo El aperitivo preferido de los Comerrocas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Un retrato alfabético de Srinivasa Ramanujan

Mié, 2021/12/22 - 11:59

 

El matemático Srinivasa Ramanujan (1887-1920) nació un 22 de diciembre. En el 134 aniversario de su nacimiento le dedico este modesto retrato alfabético.

Srinivasa Ramanujan. Fuente: Wikimedia Commons.

 

AUTODIDACTA

Con una escasa educación académica en matemáticas, de manera autodidacta, consiguió investigar y contribuir de manera sorprendente y significativa a las matemáticas.

BRAHMANES

Descendía de una familia de brahmanes, una de las castas tradicionales de la India.

Cuaderno perdido de Ramanujan

Anotó gran parte de sus resultados, la mayoría de ellos sin demostraciones, en cuatro cuadernos. El matemático Bruce C. Berndt (1939), autor de Ramanujan’s Notebooks, sostiene que Ramanujan era capaz de demostrar la mayor parte de sus enunciados matemáticos, aunque decidió no hacerlo (debido quizás a la carestía del papel, a que eran apuntes considerados meramente personales o a un estilo de trabajo aprendido). El cuarto cuaderno, el llamado perdido, fue encontrado en 1976: contenía 600 fórmulas escritas durante su último año de vida.

Diario de la Sociedad Matemática de la India

Su primer resultado formal fue publicado en el Diario de la Sociedad Matemática de la India. Trataba sobre las propiedades de los números de Bernoulli: Ramanujan descubrió que los denominadores de las fracciones de números de Bernoulli eran siempre divisibles por seis.

EJEMPLOS

Prefería concentrarse en ejemplos relevantes antes que en construcciones teóricas y pruebas rigurosas.

FRACCIONES CONTINUAS

Realizó aportaciones relevantes en análisis matemático, teoría de números, series y fracciones continuas.

GRAFO DE RAMANUJAN

Un grafo de Ramanujan es un tipo de grafo regular. Lleva este nombre en alusión a la llamada conjetura de Ramanujan-Petersson que se usó en la construcción de algunos de estos grafos.

HARDY

El 8 de febrero de 1913, el matemático británico Godfrey Harold Hardy (1877-1947) escribió una carta a Ramanujan expresando su interés por su trabajo. Comenzó una fructífera colaboración entre ambos científicos, a pesar de sus métodos de trabajo tan distantes.

INDIA

La India fue el país de origen de Ramanujan.

Janakiammal

El 14 de julio de 1909, se casó con Janakiammal (1899-1994), una niña de diez años que su madre había elegido para él un año antes.

Kumbakonam

Aunque nació en Madrás, pasó gran parte de su infancia en Kumbakonam (distrito de Thanjavur, estado de Tamil Nadu) y allí fue donde falleció.

Littlewood

El matemático británico John Edensor Littlewood (1885-1977) decía de Ramanujan: Creo que es al menos un nuevo Jacobi. Junto a Hardy, Littlewood colaboró con el matemático indio durante los años que pasó en Inglaterra.

Método del círculo de Hardy-Littlewood

El trabajo de Ramanujan y de Hardy en teoría de particiones (ver la letra P) dio lugar a un método para la búsqueda de fórmulas asintóticas, denominado el método del círculo de Hardy-Littlewood.

NÚMERO PRIMO DE RAMANUJAN

Es un número primo que satisface cierto resultado demostrado por Ramanujan relativo a la función contador de números primos.

OBRA

La obra matemática de Ramanujan es inmensa. Entre otras llevan su nombre la constante de Landau-Ramanujan, la función theta de Ramanujan, las identidades de Rogers-Ramanujan, la constante de Ramanujan-Soldner, la suma de Ramanujan, la ecuación de Ramanujan–Nagell, laconjetura de Ramanujan–Petersson, elgrafo de Ramanujanola función tau de Ramanujan.

PARTICIONES

Las particiones de un número entero n son el número de sus posibles descomposiciones en sumas de enteros positivos. Por ejemplo, las particiones de 4 son 5, ya que 4 = 1+1+1+1 = 2+1+1 = 3+1 = 2+2 = 4. n aumenta el número de particiones crece rápidamente: si n=200, las particiones de n son ¡3 972 999 029 388! Hardy y Ramanujan lograron hallar una fórmula asintótica para calcular las particiones de cualquier número.

Cartel de una de las representaciones de Partition. Imagen: University of California, Berkeley.

 

La obra de teatro Partition del dramaturgo Ira Hauptman tiene a Hardy y Ramanujan como protagonistas: el título se refiere tanto a la teoría matemática de las particiones de números como a las particiones (en el sentido de antagonismo) de temperamento, de cultura y de método matemático que los distanciaron.

QUÍNTICA

Ramanujan aprendió a resolver ecuaciones cúbicas en 1902 y encontró su propio método para resolver las cuárticas. Al año siguiente, sin saber que las quínticas no podían resolverse por radicales, trató de hacerlo, por supuesto, sin conseguirlo.

Royal Society

Propuesto por trece matemáticos, entre los que estaban Hardy y Littlewood, el 2 de mayo de 1918 fue aceptado como miembro de la Royal Society.

SERIE DE RAMANUJAN-SATO

Las series de Ramanujan-Sato​ generalizan las fórmulas sobre pi de Ramanujan.

TAXICAB

El n-ésimo número taxicab es el menor número que puede expresarse como una suma de dos cubos positivos no nulos de n maneras distintas (sin contar el orden). El nombre de estos números proviene de una anécdota entre Hardy y Ramanujan: el matemático indio estaba ingresado en un hospital cerca de Londres y recibió la visita de Hardy que le contó que había llegado allí en un taxi (taxicab, en inglés) cuya matrícula era un número poco interesante, el 1 729. Ramanujan le replicó: No diga usted eso. El número 1 729 es muy interesante, pues es el número más pequeño expresable como suma de dos cubos de dos maneras diferentes, ya que 1 729 = 13+123 y también 1729 = 93+103. Es decir, 1 729 es el número taxicab correspondiente a n=2.

UNIVERSIDAD DE CAMBRIDGE

Ramanujan redactó cartas dirigidas a los principales matemáticos de la Universidad de Cambridge, y consiguió investigar allí a partir de 1914.

VEGETARIANO

Era un Brahmán ortodoxo y, por ello, un vegetariano estricto.

WILL HUNTING

La películaEl indomable Will Huntingmenciona a Ramanujan en una escena en la que el profesor Gerald Lambeau habla de la genialidad de Will Hunting comparándolo con el matemático indio.

XX

Ramanujan nació el 22 de diciembre de 1887 y falleció el 26 de abril de 1920. Es probablemente uno de los más fructíferos matemáticos del siglo XX.

YO

Hardy, tras ver unos resultados de Ramanujan sobre fracciones continuas, comentó: … yo nunca había visto antes nada parecido en absoluto.

ZETA

Hardy escribió sobre Ramanujan: Era un hombre capaz de resolver ecuaciones modulares y teoremas de un modo jamás visto antes, su dominio de las fracciones continuas era superior a la de todo otro matemático del mundo; ha encontrado por sí solo la ecuación funcional de la función zeta y los términos más importantes de la teoría analítica de los números…

Referencias

 

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Un retrato alfabético de Srinivasa Ramanujan se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Cómo usar uranio para saber si un neandertal pintó en una cueva

Mar, 2021/12/21 - 11:59
Serie de desintegración del uranio. Fuente: Wikimedia Commons

En la última década ha habido mucho revuelo mediático con la posibilidad de que los neandertales hubiesen tenido la oportunidad de ser los pintores de Altamira y otras 10 cuevas del norte de España. Pero, ¿cómo podemos fechar la antigüedad de una puntura en la pared de una cueva? Un método que se emplea mucho es la datación por serie U.

Vamos a explorar la base teórica (incluidas las matemáticas) del mismo, que es muchísimo más sencilla que la experimental, porque si bien no hay nada más práctico que una buena teoría, también es cierto que aún no debiendo haber teóricamente diferencia entre teoría y práctica, en la práctica, la hay. [*]

Las investigadoras emplean los ratios entre los isótopos uranio-234 y torio-230 para datar los depósitos de calcita sobrepuestos a las pinturas para calcular la edad mínima de las mismas. Los resultados, con edades mínimas en el entorno de los 40.000 años de antigüedad, abren distintas posibilidades. Como se supone que Homo sapiens sapiens no migró a Europa hasta hace poco más de 40.000 años es probable que trajese sus habilidades artísticas africanas con él y decorase las cuevas poco después de llegar o, quizás, las pinturas más sencillas y antiguas fuesen de hecho la obra de neandertales.

La datación uranio-torio es especialmente interesante en el análisis de carbonatos cálcicos, como la calcita, ya que ninguno de los elementos puede escapar del mineral, ni otros átomos de ellos pueden entrar, una vez se ha formado. En las condiciones de formación de las calcitas el uranio es soluble mientras que el torio no lo es, por lo que cuando se forma el depósito mineral contendrá uranio pero no torio. La cantidad del isótopo U-234, que es el isótopo que por desintegración alfa se convierte en torio 230, que podemos esperar tener en una calcita recién formada es del orden de partes por millón o inferiores. Suponiendo que sepamos la cantidad original de uranio presente en la muestra, necesitamos poder calcular cuánto Th-230 tendremos pasado un tiempo a partir de una determinada cantidad de U-234 para tener un método para determinar el tiempo transcurrido.

Imaginemos que el isótopo A se desintegra para dar B, por el proceso que sea: A → B. La desintegración de un núcleo inestable es algo completamente aleatorio y es imposible predecir cuándo un átomo en concreto se va a desintegrar. Sin embargo, la probabilidad es igual en cualquier tiempo t. Si tenemos un número N de núcleos de un isótopo concreto, transcurrido un tiempo infinitesimal, que llamaremos dt, se habrán desintegrado un número infinitesimal de núcleos, dN, quedando N-dN. Por otra parte, el número de desintegraciones que se produce en la unidad de tiempo, -dN/dt (con signo negativo porque son núcleos de ese isótopo que desaparecen), debe ser proporcional al número de nucleones presente, igual que en una sala en silencio el número de toses es proporcional al número de personas presentes, como bien saben los músicos de clásica. Así, si llamamos a la constante de proporcionalidad característica de ese isótopo λ, podemos escribir:

-dN/dt = λN

Esto es una ecuación diferencial muy sencillita que no es más que escribir en forma matemática la frase “la desaparición de nucleones con el tiempo es proporcional al número de nucleones”. Esta ecuación tiene como solución [**]:

N = N0e-λt , donde N0 es el número de átomos pata t = 0. [1]

Sin embargo, el sistema U-234 – Th-230 no es tan sencillo, puesto que el Th-230 también se desintegra. Estamos entonces ante esta situación: A → B → C. El razonamiento es análogo: si tengo N núcleos, pasado un tiempo infinitesimal dt, tendré N+dN núcleos.

En este caso escribo +dN, porque dN puede ser positivo o negativo, dependiendo de si se forman más núcleos de los que se desintegran o al revés. En cualquier caso, la variación en el número de núcleos será los que se forman menos lo que se desintegran, por tanto, usando [1]:

dNB/dt = λANA– λBNB = λAN0Ae AtλBNB

Esto sigue siendo una ecuación diferencial nada complicada, que se puede comprobar que tiene como solución:

NB = (NA0 λA) / (λB – λA) · (e At – e Bt) [2]

En pura teoría ya tenemos la ecuación que buscábamos. Si conocemos las constantes de los isótopos U-234 (que ocupa el lugar de A) y del Th-230 (B), que las conocemos, tendríamos un método para medir la antigüedad de los depósitos de calcita.

La inteligente lectora que haya llegado hasta aquí se habrá dado cuenta de que venimos arrastrando un problema no menor desde el principio: ¿cómo sabemos qué cantidad había al comienzo del isótopo A, lo que hemos llamado NA0? Simplemente, no lo sabemos, ni lo podemos saber con suficiente precisión. Por eso un método de datación que se base en una serie radioactiva sólo es válido si uno de los núcleos es estable (λB = 0) o, como el caso de U-234 y Th-230, que se cumpla que λA es distinto de cero pero mucho menor que λB.

Entonces [2] queda reducida a

NB / NA ≈ λA / λB (1 – e Bt) [3]

Ya que también en este caso, NA ≈ NA0.

Vemos pues que si medimos por espectrometría de masas el ratio Th-230/U-234 tenemos una forma directa de medir el tiempo desde que se formó la calcita con un error más que razonable. Sólo nos quedará corregir por la cantidad de U-238 que se convierta en U-234, pero eso es más de lo mismo (se deja como ejercicio).

Observando la ecuación [3] vemos una de las limitaciones del método: para tiempos suficientemente grandes NB / NA tiende a un valor constante λA / λB, es lo que se denomina equilibrio secular (se forma tanto Th-230 como se destruye). De aquí que el método uranio-torio no puede datar más allá de 500.000 años, aproximadamente.

 

Nota:

[*] Los conceptos empleados en este texto pueden encontrarse desarrollados sin matemáticas y de forma muy sencilla en nuestra serie El núcleo

[**] La comprobación de que esto es cierto debería estar al alcance de cualquier persona que haya cursado matemáticas de bachillerato.

 

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este texto se publicó en Naukas el 22 de junio de 2012.

El artículo Cómo usar uranio para saber si un neandertal pintó en una cueva se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Un viejo matrimonio: música y algoritmo

Lun, 2021/12/20 - 11:59

José Manuel González Gamarro 

Foto: Jesus Hilario H. / Unsplash

Desde que vivimos en primera persona la era digital hemos ido asumiendo nuevas (o viejas) palabras que se han hecho habituales en nuestro día a día, ya sea porque las hemos empezado a usar de manera más frecuente o porque las personas de nuestro entorno o las que habitualmente leemos las han subido a la categoría de lo cotidiano. Una de esas palabras es «algoritmo». Una palabra que, hasta hace relativamente poco, solo usaban matemáticos o informáticos y que ahora redescubrimos y la leemos con frecuencia gracias a cosas como las redes sociales. Gracias al desarrollo de las tecnologías y a ciertos cambios de paradigmas en el ámbito artístico, también la música se ha visto afectada por esta corriente de innovación, muy ligada, obviamente, a la inteligencia artificial. Todo esto que nos suena a pura innovación científica y tecnológica no es más que una actualización constante de ideas antiquísimas. La unión entre algoritmo y música es antigua y su relación ha ido evolucionando, ganando en profundidad y repertorio.

Simplificando mucho, un algoritmo es, en esencia, un conjunto prescrito de instrucciones. Estas instrucciones son reglas bien definidas, ordenadas y finitas que hacen posible llevar a cabo una actividad mediante pasos sucesivos. Escrito así no parece tan innovador ni revolucionario. De hecho, esta forma de pensar algorítmica es bastante antigua, que ya podemos localizar en los trabajos del astrónomo persa conocido como al-Juarismi, nombre del que deriva la propia palabra actual «algoritmo». Pero no solo los persas tenían mentes privilegiadas, ya que, en la Europa más cercana, en Italia concretamente, tenemos al monje benedictino Guido D’Arezzo (ca.991-1033). Los músicos profesionales lo conocen por su aportación a la escritura musical y el famosísimo nombre de nuestras notas musicales. Sin embargo, Guido también es una referencia fundamental en la creación del viejo matrimonio entre música y algoritmo. Diseñó un sistema de generación automática de melodías en base a textos. Se mapeaban las vocales a diferentes notas de la escala, creando un método de composición melódica. Investigaciones actuales han desarrollado este método.1

Si avanzamos un poco más en la historia, nos encontramos a dos compositores del s. XIV, Philippe de Vitry y Guillaume de Machaut, dos reconocidos autores franceses. Ellos practicaron un tipo de composición llamada motete isorrítmico, basado en dos ideas básicas: el color y la talea. El color es el conjunto de los sonidos (únicamente las alturas) que van a intervenir en la pieza. La talea es un patrón rítmico que no coincide en extensión con el color. La pauta rítmica solía ser más corta que la melódica, interfiriendo una con otra. El resultado es azaroso, pero dentro de un entorno controlado. No está nada mal para los años en torno a 1300. Un par de siglos hacia adelante, nos encontramos al autor Ghiselin Danckerts (c. 1510-1567), que usó para la composición los movimientos de las piezas del tablero de ajedrez. Como se puede ver en la imagen, cada casilla poseía un motivo melódico y una letra para cantarlo.

Ajedrez musical. Ghiselin Danckerts. Fuente: Wikimedia Commons

 

El propio autor dejó escrito que eran posibles 20 cánones a 4 voces, pero al morir la información para descifrarlos no se conservó y no fueron descubiertas todas las soluciones hasta 1986.

Ya en el siglo XVII, el gran Atanasius Kircher creo una máquina fascinante capaz de crear canciones sin que fueran necesarios conocimientos musicales. Todo un invento revolucionario para ayudar a los misioneros a inventar canciones en función de la ocasión y las necesidades del momento. La máquina tenía 10 parámetros, como el ritmo, número de sílabas, sonidos, etc. Mediante tablas se programaba para satisfacer la carga emocional adecuada para el texto. Todo un artilugio de ingeniería, como se puede apreciar en la imagen, que funcionaba de manera parecida a un ordenador.

Arca Musarithmica. Atanasius Kircher. Fuente: Wikimedia Commons

 

Los resultados del algoritmo de Kircher tienen muchísimas similitudes a lo que se obtiene modernamente con los modelos matemáticos de Markov.2 A medida que la historia sigue avanzando y nos adentramos en el s. XVIII nos damos de lleno con el conocido compositor W. A. Mozart. El gran compositor austriaco, junto con otros compositores, se sumaron a una especie de moda que surgió, creando un juego para crear música con unos dados sin necesidad de tener conocimientos musicales. Este juego editado como partitura y con unas instrucciones para poder realizar la composición se titula Instrucciones para componer tantos valses como desee mediante dos dados sin entender nada de música o composición. Tanto Mozart como sus colegas sabían que en las tiradas de los dados todos los resultados no eran igualmente probables. Resulta llamativo el hecho de que no fue hasta años después que Poisson formuló su teoría de la distribución de la probabilidad. El juego consistía en escribir compases sueltos, en el caso de Mozart 176, y asignarlos a los resultados de las tiradas mediante una tabla, tal como se ve en la imagen.

Op. K516f. Wolfgang Amadeus Mozart. Fuente: Wikimedia Commons

 

Todos los posibles valses (214.358.881 combinaciones posibles tan solo en el primer cuadro) se parecen, pero todos son diferentes, lo cual era la intención de Mozart porque así lo que estaba creando era el estilo, es decir, se podían componer valses al estilo de Mozart sin tener conocimientos, solo tirando dos dados. Este algoritmo en base a la aleatoriedad y la distribución de probabilidad se puede probar aquí haciendo tiradas de dados y escuchando el resultado.

A medida que el tiempo transcurre y llegamos a la Revolución Industrial el concepto «máquina» y su necesidad para la sociedad se hace patente. Una de las consecuencias de este momento histórico es la creación de la máquina analítica, que también tuvo su aplicación teórica en la música. Esta máquina analítica fue creada por Charles Babbage (1791-1871), y pretendía que fuese programable para realizar cualquier tipo de cálculo. La idea está basada en un telar programable de un comerciante francés conocido como el telar de Jacquard. La relación de todo esto con la música proviene de las sinergias entre Charles Babbage y la matemática y escritora Ada Lovelace (1815-1852). Esta ilustre matemática hizo un estudio teórico sobre la máquina llegando a mencionar una aplicación en la música del algoritmo creado. Pensó que si se sometían las relaciones de los sonidos y sus reglas a las normas prescritas del algoritmo podrían crearse obras musicales con una extensión y complejidad programables. Además, se crearían de manera automática.

En el s. XX se empezaron a estudiar los procesos de funcionamiento de la inteligencia humana para poder elaborar sistemas que la imitasen. De esta manera se establecerían modelos de aprendizaje. Este hecho también tuvo su relación con la música, haciendo que los ordenadores se emplearan en la ardua tarea de componer música a partir de algoritmos. En 1957 encontramos la primera obra compuesta íntegramente por un ordenador titulada Illiac Suite, un cuarteto de cuerda con cuatro movimientos.3 Dos profesores de la universidad de Illinois (Lejaren Hiller y Leonard Issacson) desarrollaron varios algoritmos para que el ordenador fuera capaz de semejante empresa. Por estos años, ya había empezado también el compositor e ingeniero Iannis Xenakis a desarrollar programas de cálculo probabilístico para aplicar en sus obras musicales. En 1977 terminó de crear UPIC, que en esencia era una mesa de arquitecto convertida en tablet. Mediante un bolígrafo electrónico convertía el dibujo en música mediante algoritmos. Toda esta época vivió un auge de la relación entre música y algoritmos o bien de la sinergia entre matemáticas y música. A esto también contribuyó el matemático polaco Benoît Mandelbrot con el concepto de fractal. Las dos propiedades básicas de este concepto matemático son la autorreferencia y la autosimilitud, que han sido fundamentales para la creación de obras más recientes, como por ejemplo Liturgia fractal, del compositor Alberto Posadas.

Los algoritmos empleados en la música son de diferente índole, llegando incluso a la biomimética, imitando modelos de la naturaleza. Tal es el caso de los algoritmos genéticos, que fueron empleados en la universidad de Málaga para que el ordenador Iamus compusiera música sin intervención humana. Se denominó el proyecto Melomics. Existen otros algoritmos que no están relacionados con la composición de música, sino con su análisis. Con esto se pueden obtener una cantidad ingente de datos de un gran número de partituras a la vez. Es posible obtener la matriz serial de obras dodecafónicas (que utilizan una serie de doce sonidos como materia prima musical) o bien análisis armónicos de grandes corpus de obras. Además, estos análisis se pueden usar para saber la autoría de alguna obra anónima de la que se tengan dudas de quién es el compositor. Estos algoritmos identifican multitud de variables relacionadas con cada compositor, calculando estadísticamente cual sería la probabilidad de que fuera un autor u otro. Huelga decir que aciertan casi en el 100% de los casos. Sin embargo, las sinergias entre ingenieros, matemáticos, físicos, etc. y músicos no se quedan en la composición y el análisis, sino que la relación con los algoritmos va más allá, llegando al mundo de la interpretación.

¿Es posible que una máquina pueda interpretar la música de manera expresiva y «humana»? Se pueden determinar los criterios que distinguen una interpretación expresiva de una automatizada4, mediante software que analiza interpretaciones de concertistas. Cualquier músico profesional sabe que hay criterios interpretativos que no aparecen en las partituras de forma exacta. Lo invisible pero audible de la partitura. Los simuladores informáticos optimizan y definen códigos emocionales. El ordenador no copia lo que hace un intérprete, sino que realiza su propia interpretación a partir de algoritmos. Esto puede causar revuelo o controversia en el mundo de los músicos profesionales, pero si se escucha aquí esta interpretación de una sonata de Beethoven, nos queda claro que una interpretación mecánica queda bastante lejos y nos costaría saber si es un humano o una máquina si no fuéramos advertidos de ello.

Los algoritmos y la música son inseparables si queremos entender en profundidad la historia de la música occidental. La inteligencia artificial desarrollada en los últimos años hace que se replanteen nuevos paradigmas en el entendimiento filosófico del arte, traspasando los límites de lo humano. El hijo de este viejo matrimonio podría ser una distopía artística sin precedente o bien un escalón más en el avance de la humanidad con respecto a su arte más temporal. Hagan sus apuestas.

Referencias:

1 Trufó, Francisco. Algorithmic composition using an extension of Guido D’Arezzo Method, 2009.

2 McLean, Alex, and Roger T. Dean, eds. The Oxford handbook of algorithmic music. Oxford University Press, 2018. 3 Sandred, Orjan; Laurson, Mikael; Kuuskankare, Mika. “Revisiting the Illiac Suite-a rule-based approach to stochastic processes.”Sonic Ideas/Ideas Sonicas 2 (2009): 42-46. 4 Cancino-Chacón, Carlos E., et al. “Computational models of expressive music performance: A comprehensive and critical review.” Frontiers in Digital Humanities 5 (2018): 25.

&nbsp

Sobre el autor: José Manuel González Gamarro es profesor de guitarra e investigador para la Asociación para el Estudio de la Guitarra del Real Conservatorio Superior de Música “Victoria Eugenia” de Granada.

El artículo Un viejo matrimonio: música y algoritmo se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Pirocúmulos, los temibles aliados de los incendios forestales

Dom, 2021/12/19 - 11:59

Onintze Salazar Pérez

17 de junio de 2017. Una carretera rural del centro de Portugal, la EN 236-1 en Pedrògão Grande, en el departamento de Leiria. Son las 14:30 y en el exterior el termómetro se acerca a los 42°C a la sombra. La carretera atraviesa un bosque de pinos y eucaliptos que arrastra un importante déficit de lluvia. La sequía es palpable a ambos lados. Y hace calor, mucho calor.

Avanza la tarde y en el cielo empiezan a verse las primeras nubes de tormenta. Nubes que nacen, se desarrollan y mueren en una misma zona y que reciben el nombre de cumulonimbos. A priori, no es mala noticia. Estas tormentas podrán traer la tan necesaria lluvia y harán que la temperatura descienda.

Comienza el juego de luces. Relámpagos que iluminan en fracciones de segundo el sediento bosque. Pero no llueve y los relámpagos se hacen cada vez más numerosos. Un rayo que impacta en el bosque, no muy lejos de la carretera de Pedrògão Grande, hace sobresaltar a los ocupantes de los coches que por allí circulan. Al rato, comienzan a verse los primeros focos de fuego. El bosque comienza a arder. Arde mientras los habitantes de la zona y los que por allí pasaban comienzan a huir. Y lo hacen por esa misma carretera por la que, según los indicios, el fuego no va a propagarse.

Sin embargo, esa tarde de junio, el incendio forestal se llevó por delante 67 vidas, la mayoría ocupantes de los coches que trataban de huir del infierno por esa carretera del centro de Portugal. El fuego les cerró las vías de escape en pocos minutos y murieron calcinados. Un incendio forestal originado por una tormenta seca que se volvió absolutamente imprevisible y voraz.

Foto: Lucilia Monteiro / Expresso

Tormentas secas

Seguramente pocos habían oído hablar de las tormentas secas o tormentas eléctricas secas. Se trata del mismo fenómeno de las tormentas “habituales”, con sus cumulonimbos y sus descargas eléctricas, pero en este caso, la diferencia se encuentra en la precipitación. Sí se produce, pero no llega a tierra. En determinadas situaciones, si la temperatura del aire que se sitúa debajo de los cumulonimbos es muy alta y la humedad muy baja, la precipitación, en su camino a tierra, se evapora.

A pesar de que la lluvia no llegue a tocar tierra, las descargas eléctricas, fruto de la separación de las cargas eléctricas dentro de la nube, sí se producen. Y son las que se dirigen a la superficie las que presentan peligro, en especial si la vegetación contra la que impactan está muy seca. Es así como, con mayor probabilidad y según los estudios realizados, se originó el incendio de Portugal esa sofocante tarde de junio. Las tormentas secas aportaron la chispa necesaria, mientras que la seca vegetación se convirtió en el combustible ideal.

Pirocúmulos y pirocumulonimbos

Pero la tormenta seca no fue la única causa del mortal desenlace. Y es que los incendios forestales cuentan con más armas, que las utilizan si sus dimensiones y las condiciones atmosféricas reinantes son las idóneas. Hablamos de los pirocumulos y los pirocumulonimbos. Nubes bautizadas como flammagenitus por la Organización Mundial de Meteorología desde que en 2017 actualizó su Atlas Internacional de Nubes.

Así, se denominan cumulus flammagenitus o cumulunonimbus flammagenitus a las nubes convectivas de tipo cúmulo o cumulonimbo cuyo origen se encuentra en los incendios forestales y en las erupciones volcánicas. Sin embargo, es más habitual referirse a ellas como pirocúmulos y pirocumulonimbos.

Foto: NASA

Esa tarde de junio en Pedrògão Grande la formación de pirocumulonimbos resultó ser un factor clave en el desencadenamiento trágico de los hechos. Contra todo pronóstico, el incendio se volvió, no solo mucho más virulento, sino que, además, imprevisible en su desplazamiento. Así, surgieron nuevos focos y un gran frente de fuego de unos 4 km de longitud, originados lejos del foco inicial. Este frente se propagó hacia la carretera por la que tantos vecinos intentaban huir y que, en principio, se encontraba fuera de la ruta del avance de las llamas.

Más rayos y fuertes vientos

El calor originado por el foco inicial en su ascenso por la atmósfera, se encontró con el suficiente aire frío para que el vapor de agua, principalmente resultante de la combustión, permitiera la formación de nubes. Nubes que crecieron en la vertical convirtiéndose en cúmulos primero, y cumulonimbos posteriormente. Cuando estas nubes se encuentran con la tropopausa (límite entre la troposfera y la estratosfera), generalmente no pueden crecer más hacia arriba y comienzan a crecer en la horizontal, de manera que se extienden sobre zonas lejanas al foco inicial.

Es precisamente lo que se concluye que ocurrió en Pedrògão Grande. El pirocumulonimbo que se formó generó nuevos focos lejos del origen del incendio, provocados tanto por la posible caída de nuevos rayos como por los desplomes de aire que se producen al descargar precipitación.

Otro elemento fundamental en la propagación de los incendios forestales, el viento, también tienen su origen en estas tormentas. La precipitación que parte de la base de la nube, llegue o no a tocar suelo, se evapora en su descenso al encontrarse con aire más cálido. Para evaporarse, las gotas de agua roban calor al ambiente, por lo que el aire bajo la nube se enfría muy rápidamente. Ese aire frío, al ser más denso y, por tanto, pesar más, tiende a descender, en este caso, de manera muy rápida. Estos vientos fuertes que se originan en las tormentas y reciben el nombre de downburst, pueden tomar cualquier dirección tras llegar a la superficie y dificultan enormemente las tareas de extinción.

Bureau of Meteorology, Australian Government

 

Además de servir como elemento de propagación, el viento también aviva el fuego, ya que le inyecta oxígeno. Los downburst son más fuertes cuánto más desarrollo tenga el cumulonimbo, pero tanto el lugar donde se van a producir, como la dirección que estas corrientes vayan a tomar una vez llegan a tocar suelo, son altamente imprevisibles. Así, el desarrollo de pirocumulonimbos en los incendios forestales los convierte en muy peligrosos y su control y extinción se complica enormemente.

El incendio de Australia

El incendio de Portugal no es el único ejemplo que sobrecoge por sus dimensiones y sus graves consecuencias. En los últimos años han sido numerosos los incendios forestales que han afectado a grandes extensiones en diferentes partes del planeta. Uno de los más llamativos, por su extensión, virulencia y duración fue el que mantuvo en máxima alerta a buena parte del oeste de Australia entre octubre de 2019 y enero de 2020. Más de 90 días en los que las llamas quemaron millones de hectáreas y obligaron a desplazarse o directamente acabaron con la vida de aproximadamente 3 millones de animales.

A lo largo de todos esos días se formaron diversos pirocúmulos y pirocumulonimbos que llamaron la atención de los medios de comunicación. Pero, al margen de la belleza de estas nubes, su aparición elevó el riesgo del ya de por sí peligroso incendio.

Foto: Meganesia / Wikimedia Commons

Australia y, en especial, el oeste de Australia estaba sufriendo una larga y prolongada sequía, además de temperaturas inusualmente altas. 2019 resultó ser el año más seco y más cálido en el país, llegando incluso a batir récords de temperaturas máximas más altas en verano (49,9°C en Nullarbor, en diciembre de 2019).

El cambio climático

Sequías y olas de calor como las que sufría el centro de Portugal en la primavera de 2017 o Australia en el verano de 2019-2020, conforman el marco perfecto para el origen de importantes incendios forestales. Sequías y olas de calor cada vez más severas, más duraderas y más frecuentes. Es el nuevo escenario en el que vivimos como consecuencia del calentamiento global, sin esperanza ya de que pueda mejorar. Según el último informe del IPCC, si se supera en más de 2°C la temperatura media global en superficie con respecto a los niveles de la época preindustrial, y no estamos muy lejos, en la región mediterránea aumentará más del 50% la superficie quemada como consecuencia de los incendios forestales. Más incendios forestales, con mayor probabilidad de que formen pirocúmulos y, por tanto, con una mayor dificultad para su control y extinción.

Seguramente el único responsable de la gran mortalidad del incendio de Portugal no fuera el cambio climático (la gestión de los suelos, los planes de prevención y extinción de incendios forestales, entre otros, parecen haber tenido su peso en las fatales consecuencias). En cualquier caso, en el futuro vamos a tener que enfrentarnos a este tipo de incendios forestales con mayor frecuencia. Y será clave poder predecir la formación, el desarrollo y el comportamiento de estos temibles aliados de los incendios forestales, los pirocúmulos.

Referencias:

  1. Taking the pulse of pyrocumulus clouds.
  2. Estudio sobre el comportamiento explosivo del fuego en incendios forestales. (pág. 26-28)
  3. Fire growth patterns in the 2017 mega fire episode of October 15, central Portugal.
  4. California’s Creek Fire Creates Its Own Pyrocumulonimbus Cloud
  5. Las posibles causas de los incendios pavorosos en Portugal.
  6. Wildfires and global change.
  7. Relatório condições meteorológicas associadas ao incêndio de Pedrógão Grande de 17 junho 2017. Instituto Português do Mar e da Atmosfera
  8. El cambio climático y la tierra. Resumen para responsables de políticas.
  9. El incendio de Sierra Bermeja es el primero de sexta generación en España: por qué y cómo se clasifican los grandes fuegos forestales

Sobre la autora: Onintze Salazar Pérez es física y meteoróloga en Euskalmet, Agencia Vasca de Meteorología

El artículo Pirocúmulos, los temibles aliados de los incendios forestales se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Páginas