S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 1 heure 49 min

Filogenia de un cuento

dim, 2023/09/10 - 11:59

cuento
Simplificando un poco se puede decir que cuanto más se parece el genoma de dos individuos, más próximamente emparentados están. Y cuanto más diferencias hay, más alejados suelen estar. Esto vale para entes tales como virus, para especies de mamíferos o, también, para individuos de una misma especie. Así, dos gemelos idénticos no tendrían diferencias en su genoma, pero un koi-san y un servidor tendremos genomas con un buen número de diferencias. Y no solo con los nucleótidos del genoma, una lógica similar cabe aplicar con la secuencia de aminoácidos de sus proteínas.

Gracias a las técnicas de genética molecular y mediante la aplicación de sofisticados análisis matemáticos, es posible dibujar la trayectoria que han seguido los linajes de organismos en el pasado y se pueden agrupar en conjuntos de especies, géneros, familias, etc., en virtud de su proximidad (filo)genética. En general, se puede decir que cuanto más se parecen entre sí el genoma o las proteínas de un clado (especie, género, familia, etc.), menos tiempo ha transcurrido desde que se separó de otros de los que difiere.

Pues bien, una lógica similar se puede utilizar cuando, en vez de organismos, se desea analizar la historia de un ente cultural, como un cuento, por ejemplo. Por ello, con ese propósito se pueden utilizar métodos matemáticos similares a los que se usan para trazar la historia de organismos biológicos, solo que en este caso no es el genoma lo que difiere o se asemeja entre dos versiones de una misma historia, sino los elementos que contienen. En efecto, del mismo modo que se analiza la secuencia de aminoácidos de determinadas proteínas del SARS-Cov2, por ejemplo, se puede analizar los elementos que contienen las diferentes variantes o versiones de un mismo cuento.

cuentoIlustración de Gustave Doré para Les Contes de Perrault, París, J. Hetzel, 1867.

Hicieron eso, precisamente, con el cuento The Spinning-Woman by the Spring (o The Kind and the Unkind Girls) que se encuentra extendido por toda Europa y parte de Asia. En la colección de los hermanos Grimm aparecen tres variantes, a saber: Los tres enanitos del bosque, San José en el bosque y Madre Nieve (Frau Holle). De acuerdo con el índice de tipos de la clasificación Aarne-Thompson-Uther, se trata de un cuento del tipo 480, con centenares de variantes en Europa.

Analizaron 700 variantes, correspondientes a 31 grupos etnolingüísticos: alemán (61 variantes), armenio (3), búlgaro (8), checo (11), danés (48), escocés (3), esloveno (6), español (11), estonio (16), finlandés (83), flamenco (6), francés (16), griego (11), inglés (8), irlandés (22), islandés (11), italiano (33), letón (13), noruego (48), polaco (45), portugués (2), rumano (4), ruso (32), sueco (101), sueco en Finlandia (25), suizo alemán (3), turco (32) ugrofinés en Rusia (23), valón (3), vasco (2) y yugoslavo (13). Los autores han identificado 393 rasgos binarios, o sea, 393 elementos que pueden estar incluidos en el cuento o no estarlo. Y a continuación, trabajando con pares de variantes, han estimado la distancia que hay entre cada una de las dos. La distancia se determina a partir del índice de Jaccard, que es un índice de similitud (o, si se quiere, de lo contrario) que se calcula dividiendo los elementos que comparten las dos variantes (la intersección) entre los elementos totales que tienen esas variantes.

Además de la similitud entre pares de variantes, calcularon las distancias geográficas entre las localidades de procedencia de las variantes o, en ausencia de ese dato, entre los centroides de las áreas en que se distribuyen las dos variantes. También elaboraron una matriz de disimilitud lingüística entre las diferentes lenguas, para lo que utilizaron las distancias entre pares de lenguas tal y como se pueden determinar a partir de análisis filogenéticos publicados previamente. En el caso de las pertenecientes a una misma familia, ese procedimiento no conlleva especial complicación, pero para estimar la disimilitud cuando se trata de lenguas pertenecientes a diferentes grupos (túrquicas, ugrofinesas y vasco), procedieron asignando, de modo arbitrario, una distancia entre familias equivalente a 1’25 veces la existente entre las dos lenguas menos similares de las indoeuropeas. Y por último, elaboraron una matriz de identidad etnolingüística para las variantes individuales del cuento. Cuando dos variantes pertenecen a una misma comunidad lingüística, la distancia entre ellas en esa matriz sería 0, y 1 si las dos variantes pertenecen a dos comunidades diferentes.

El análisis posterior incluyó dos procedimientos. Por un lado, utilizaron análisis de correlaciones entre las distintas distancias (entre cuentos, geográficas, lingüísticas, y grupos etnolingüísticos); y por el otro, aplicaron análisis de la varianza molecular (AMOVA), que permitió estimar qué proporción de la variación observada corresponde a las diferencias entre poblaciones (comunidades etnolingüísticas, en este caso) y qué proporción corresponde a las diferencias dentro de las poblaciones. Y a continuación construyeron una NeighbourNet (red de vecinos) que permite visualizar los agrupamientos de las distintas comunidades etnolingüísticas, basados en las variantes del cuento, así como las distancias entre ellas.

Entre los factores analizados, la distancia geográfica entre las poblaciones es la que explica una mayor fracción de la variación entre las distintas modalidades del cuento. De hecho, si se tiene en cuenta que una parte sustancial de las diferencias entre las lenguas está muy relacionada con la geografía, cuando el análisis se hace descontando el efecto de la distancia geográfica, resulta que la lengua no explica una fracción significativa de la variación de las variantes.

No ocurre lo mismo con la identidad etnolingüística, ya que este factor sí explica una fracción significativa de la variación en las modalidades del cuento, incluso cuando se tiene en cuenta el efecto de la distancia geográfica. El efecto de este factor es tan importante que el efecto de la barrera cultural que erige la frontera etnolingüística es equivalente a multiplicar la distancia geográfica entre variantes del cuento por un factor de 10. Esto quiere decir que dos cuentos de la misma cultura separados 100 Km son, en promedio, tan parecidos entre sí como lo son dos cuentos de diferentes culturas pero separados entre sí 10 Km.

La NeighbourNet obtenida para el conjunto de poblaciones estudiadas refleja cinco grandes agrupaciones. La primera incluye poblaciones del occidente europeo que hablan lenguas romances (excluyendo Rumanía), y otras como la población vasca, la flamenca y la suiza de lengua alemana. La segunda agrupación incluye las poblaciones del oriente europeo con lenguas eslavas, además de otras comunidades lingüísticas, como la rumana y la de hablantes de lenguas ugrofinesas de Rusia. La tercera incluye poblaciones a caballo entre Europa y Asia (armenios, griegos y turcos). La cuarta agrupación contiene las poblaciones de los países nórdicos, salvo Dinamarca. Y en la quinta se incluyen alemanes, daneses, letones y británicos.

cuento

La imagen general que se obtiene es que las variantes del cuento se agrupan a lo largo del continente europeo de acuerdo con áreas geográficas muy bien definidas, con la única salvedad de la quinta agrupación, que quizás refleje la influencia que tuvo la expansión vikinga que comenzó en el siglo IX en las Islas Británicas, así como la de redes comerciales, como la Liga Hanseática, que comunicaron los países ribereños del Báltico con las Islas Británicas a partir del siglo XIII.

El geográfico es, con diferencia, el factor de diferenciación más importante en términos absolutos. No obstante, al de la geografía se añade también el efecto del grupo etnolingüístico, que es importante; como se ha señalado más arriba, 10 Km de distancia entre dos variantes de diferente grupo etnolingüístico equivalen a 100 Km entre dos variantes del mismo grupo, lo que quiere decir que la identidad etnolingüística constituye una importante barrera a la transmisión de elementos culturales como son los cuentos. El linaje cultural (representado por la lengua de la población), sin embargo, no ejerce un efecto muy marcado sobre la diversidad de variantes del cuento.

Esta es de las pocas investigaciones en que se ha estudiado un proceso de evolución o diferenciación cultural mediante técnicas propias de la genética de poblaciones. En este trabajo no se han analizado los marcadores genéticos de las poblaciones humanas a las que corresponden las variantes del cuento, pero de haberse hecho, sospecho que muy probablemente se habría observado un importante paralelismo entre distancias genéticas y distancias culturales, en un sentido similar al observado en este estudio sobre canciones populares realizado en Taiwán.

Fuente: Ross RM, Greenhill SJ, Atkinson QD (2013): Population structure and cultural geography of a folktale in Europe. Proc R Soc B 280: 20123065

Para saber más: Cuentos de otro tiempo, y de este

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Filogenia de un cuento se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

ZientziaKutxa 2023: Entrevista con el vampiro sobre neurociencia

sam, 2023/09/09 - 11:59

Kutxa Fundazioa y el Donostia International Physics Center (DIPC) han ofrecido nuevamente en 2023 el ciclo de conferencias ZientziaKutxa, esta vez bajo el título “Rojo vivo”.

vampiro

Prestigiosas científicas y científicos, a su vez grandes comunicadores, se dieron cita en la Sala Ruiz Balerdi de Kutxa Fundazioa para ofrecer charlas de divulgación sobre temas de actualidad científica o interés social.

El rojo en sus formas más intensas y evocadoras adquiere una notable presencia en este nuevo ciclo ZientziaKutxa, de ahí, el nombre “Rojo vivo” de este año. El color rojo produce una notable activación neuronal, efecto que se ve reflejado en diferentes elementos de la naturaleza y ámbitos del conocimiento científico. Por ejemplo, el hipnótico color de la lava de los volcanes en erupción que embelesa a geólogas y geólogas, esconde la presencia de hierro en estado oxidado. Y fue tras la explosión del volcán de Tambora y aquel “año sin verano”, que Polidori, médico personal de Byron, ideó la figura del vampiro, personaje que se ha alimentado de toda la mística en torno a otro ícono del rojo, la sangre. Un color que también se asocia con el calentamiento global y los escenarios en torno al cambio climático, invitando a la reflexión sobre la sostenibilidad de la vida en nuestro planeta.

El neurobiólogo José Ramón Alonso es el ponente de “Entrevista con el vampiro sobre neurociencia”.

El vampiro literario, no el mamífero volador, es uno de los personajes más sugerentes de la mitología moderna. En su imagen actual nace el llamado «año sin verano» cuando Lord Byron y varios amigos deciden escribir historias de miedo. Mary Shelly, de 18 años, creó la criatura del Dr. Frankenstein y John Polidori, el médico de Byron, un vampiro que robaba la sangre y la vida. Esas ideas sobre el depredador vital y sexual vuelan después desde la pluma de Bram Stoker a la cámara dirigida por Francis Ford Coppola. El encéfalo humano es considerado la estructura más compleja del universo conocido. Contiene todo lo que somos. Si pudiésemos conversar con un vampiro nos hablaría probablemente de temas relacionados con nuestro cerebro: el ansia de inmortalidad, la mezcla de atracción y repulsión hacia lo diferente, el miedo al inmigrante, la ansiedad ante la enfermedad, la seducción y el amor o eso que llamamos la fuerza de la sangre. Toda está en ese encéfalo que crea sinfonías, novelas, películas y también monstruos. Recuerda, tú eres tu encéfalo.

Si pudiésemos conversar con un vampiro, nos hablaría probablemente de temas relacionados con nuestro encéfalo: el ansia de inmortalidad, la mezcla de atracción y repulsión hacia lo diferente, la ansiedad ante la enfermedad, la seducción y el amor o eso que llamamos la fuerza de la sangre.

Alonso es catedrático de la Universidad de Salamanca e investigador principal en el Instituto de Neurociencias de Castilla y León, además de un prolífico divulgador con más de 50 libros publicados. Su blog sobre neurociencia recibe millones de visitas al año, siendo una referencia en temas como la depresión o el autismo para la comunidad hispanohablante.

 

Edición realizada por César Tomé López

El artículo ZientziaKutxa 2023: Entrevista con el vampiro sobre neurociencia se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Nuevo método para la producción de alta precisión de nanocintas de grafeno ultralargas

ven, 2023/09/08 - 11:59

Investigadores del grupo del profesor Aurelio Mateo Alonso, investigador Ikerbasque en el centro POLYMAT de la UPV/EHU, en colaboración con investigadores del Instituto Max Planck de Investigación en Polímeros (Alemania) y la Universidad de Aveiro (Portugal), han desarrollado un nuevo método para la producción de alta precisión de nanocintas de grafeno.

nanocintasFoto: Polymat

El descubrimiento del grafeno ha abierto multitud de posibilidades en el desarrollo de nuevos materiales. Cuando el grafeno se corta en cintas de tamaño nanométrico (nanocintas de grafeno) se pueden obtener materiales con propiedades eléctricas y magnéticas que varían dependiendo de la forma con la que se recortan los bordes de las cintas, y con la anchura y la longitud de las mismas. Por ello, es crucial desarrollar métodos que permitan producir nanocintas de grafeno con precisión atómica de cara al desarrollo de sus potenciales aplicaciones. Se espera que estos nuevos materiales permitan la miniaturización de dispositivos electrónicos y espintrónicos, claves para el desarrollo de nuevas tecnologías en electrónico y en computación cuántica.

El nuevo método para la síntesis de nanocintas de grafeno bate todos los records tanto a nivel de precisión como de longitud. Este nuevo método combina nanocintas complementarias de 2 nanómetros, como si fueran piezas de Lego, generando así nanocintas de 36 nanómetros con total precisión atómica.

La conductividad eléctrica aumenta con la longitud de las cintas, lo que podría permitir el desarrollo de nuevos dispositivos electrónicos más eficientes. Además se han observado propiedades de absorción y de emisión de luz excepcionales que superan las de los puntos cuánticos, por lo que las nanocintas de grafeno podrían expandir su potencial de aplicación a otros campos como la energía, los dispositivos LED, e la imagen médica.

Referencia:

Rajeev K. Dubey, Mauro Marongiu, Shuai Fu, Guanzhao Wen, Mischa Bonn, Hai I. Wang, Manuel Melle-Franco, Aurelio Mateo-Alonso (2023) Accelerated iterative synthesis of ultralong graphene nanoribbons with full atomic precision Chem doi: 10.1016/j.chempr.2023.06.017

El artículo Nuevo método para la producción de alta precisión de nanocintas de grafeno ultralargas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Coordenadas polares

jeu, 2023/09/07 - 11:59

Os voy a confesar una cosa. Tengo un vicio, una pequeña (inofensiva) obsesión. Allá donde voy, saco fotos redondas. ¿Y qué son las fotos redondas, me preguntaréis? Pues bien, algo como esto… y tengo cientos.

Coordenadas polaresFotos: Almudena M. Castro

Todo empezó como un juego hace bastantes años. Siempre que entraba en una iglesia, un palacete o una catedral, a mí me daba por fijarme en el techo. Me llamaba la atención lo siguiente: mientras que la mayoría de los cuadros y pinturas que nos rodean parecen basarse un sistema de representación cartesiano (arriba-abajo, izquierda-derecha), esos ejes se desdibujan en cuanto uno mira hacia arriba.

Coordenadas polaresEsta soy yo haciendo turismo con tortícolis, desde que tengo memoria. Foto: Almudena M. Castro

Es como si el mundo que nos rodea, y las pinturas que lo representan, estuviesen atravesados por finísimas líneas verticales que se extienden hacia el cielo. Esas líneas invisibles cuadriculan todo lo que crece sobre la Tierra, incluida nuestra mirada, que queda atrapada, obligada a girar sobre su eje. Pero se diría que, sobre nuestras cabezas, ese orden desaparece. Basta girar el cuello, colocarse de frente a la gravedad y las columnas invisibles del mundo desaparecen: arriba y abajo ya no ordenan el espacio, derecha e izquierda se desparraman en cualquier dirección.

Coordenadas polaresCapilla Sixtina. Foto: Dennis Jarvis / Wikimedia Commons.

En este plano contrapicado, de hecho, lo más común es encontrarse con simetrías circulares. Por eso, la mayor parte de mis “fotos redondas” están sacadas con el objetivo apuntando hacia arriba. Capturan lámparas, cúpulas, bóvedas de todos los colores, formas y tamaños, pero sometidas casi siempre a algún tipo de simetría circular.

Cúpula de la iglesia del Salvador sobre la Sangre Derramada. Foto: de Almudena M. Castro.

Fue esto lo que me dio una idea inicialmente: ¿y si representase estas imágenes en coordenadas polares, por así decirlo?, ¿sería posible hacer aún más evidente su simetría?

La idea fue creciendo hasta convertirse en un proyecto de fotografía (o una colección obsesiva, según se mire) y un programa de Python, elaborado junto a Iñaki Úcar. Pero para explicar bien en qué consiste, empecemos por la base: ¿qué es esto de las coordenadas polares y por qué debería importarte?

Un puente entre mundos matemáticos

Cuenta la leyenda1 que Descartes inventó las coordenadas cartesianas mientras miraba una mosca. De niño había adquirido el hábito de quedarse en la cama hasta tarde, debido a las frecuentes enfermedades que lo aquejaban. Un día, vio al insecto moviéndose por el techo de su cuarto y se quedó embobado analizando su movimiento. Se preguntó cómo podría describirlo sin dibujar la trayectoria sobre un papel y se le ocurrió que, en cada momento, la posición de la mosca quedaba perfectamente definida por su distancia a dos paredes perpendiculares de la habitación. Esa reflexión le llevó a idear lo que hoy conocemos como geometría analítica, y comieron perdices. Fin.

La verdad es que no está muy claro siquiera que Descartes fuera el primero en describir las coordenadas23 que hoy llevan su nombre. Pero el relato condensa de manera ejemplar la magia de los sistemas de coordenadas. ¡Es un invento que nos permite describir el espacio mediante números!, una idea tan poderosa que logró tender puentes entre dos mundos matemáticos separados durante siglos: el de la aritmética y la geometría.

Las coordenadas cartesianas definen un punto sobre un plano indicando su distancia a dos líneas perpendiculares. Las líneas son las paredes del cuarto de Descartes en el relato, o de manera más general, los ejes x e y (o eje de abscisas y eje de ordenadas). Pero esta no es la única manera de indicar una posición. Grégoire de Saint-Vincent y Bonaventura Cavalieri introdujeron el concepto de coordenadas polares de forma independiente a mediados del siglo XVII. En este sistema, cada punto de una superficie queda definido por su distancia al polo (el origen de coordenadas), y un ángulo que se define entre el eje de referencia, o eje polar y la línea que une el punto con el origen. Estas coordenadas a menudo se conocen como r (el radio) y θ (el ángulo). Podríamos usarlas para indicar la localización de cualquier punto de la Tierra respecto el polo Norte, por ejemplo4. Probablemente de ahí el nombre.

Estos dos sistemas de coordenadas son los que se utilizan más a menudo para describir una superficie plana (aunque no son los únicos, ni mucho menos). Ambos son equivalentes, igualmente poderosos a la hora de describir el espacio mediante números. Pero, a menudo, elegimos uno u otro en función de aquello que queremos describir. El propio sistemas de coordenadas, el lenguaje que usamos para describir el espacio, es capaz de absorber sus simetrías y simplificar así enormemente un problema.

La subnormal polar de una espiral de Arquímedes es constante. Fuente: Wikimedia Commons

Quizás, el ejemplo más paradigmático es el de una espiral. Si queremos describir una espiral de Arquímedes en coordenadas polares, basta con una expresión tan simple como: . A medida que el ángulo de giro aumenta (θ), el punto se va alejando del origen (r). En cartesianas, la ecuación no solo es mucho más farragosa, también se vuelve mucho más difícil de interpretar: . En física es habitual enfrentarse a problemas, donde una condición de contorno, o un campo, se describe mucho más fácilmente en un sistema de coordenadas u otro. xo

Pues bien, si aplicamos esta lógica matemática a cualquier tipo de sistema, decidme: ¿qué sistema utilizaríais para describir una fotografía como esta?

Foto: Alexey Kljatov / Wikimedia Commons.

Fácil, ¿no? La imagen presenta, claramente, una simetría circular. En el próximo artículo os cuento cómo obtener y representar sus coordenadas polares, con un poquito de Python y mucho amor a la simetría.

Referencias y notas:

1Este relato está muy extendido. Se puede encontrar en un montón de sitios de internet, e incluso en el documental “Genios, por Stephen Hawking”. Sin embargo, y tras muchos esfuerzos, no he conseguido localizar su fuente. Es posible que se trate solo de una leyenda, similar a la de la manzana de Newton. Pero si algún lector conoce su origen, ¡sería genial que lo compartiera en los comentarios!

2H., T. (1926) The Geometry of René Descartes. Nature 118, 400–401. https://doi.org/10.1038/118400a0

3Diacu, F. (2016). The use of coordinate systems before Descartes. Crux Mathematicorum, Vol. 42(3)

4Las coordenadas polares de Madrid, desde donde escribo, serían (r, θ) = (5,513 km, – 3.703790º), tomando el meridiano de Greenwich como eje polar.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Coordenadas polares se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Los cuadrados de MacMahon

mer, 2023/09/06 - 11:59

Ya estamos en septiembre y para la mayoría de las personas que estáis leyendo esta entrada del Cuaderno de Cultura Científica se habrá terminado ya el período vacacional. Por este motivo nada mejor que empezar el mes de septiembre con un entretenido rompecabezas geométrico.

Cartel de la película británica El hombre que conocía el infinito (2015), sobre el matemático indio Srinivasa Ramanujan (1887-1920), y fotograma de la misma en el que aparece el actor Kevin McNally interpretando al comandante (mayor) Percy MacMahon.

Percy Alexander MacMahon (1854–1929) fue un militar y matemático británico, que en su libro New Mathematical Pastimes / Nuevos pasatiempos matemáticos (1921) introdujo, entre otros, el rompecabezas conocido actualmente con el nombre de “Los cuadrados de MacMahon”.

Las piezas del rompecabezas

Lo primero que hizo el matemático Percy MacMahon fue tomar un cuadrado dividido en cuatro partes iguales mediante sus dos diagonales, como se muestra en la siguiente imagen. Es decir, el cuadrado se divide en cuatro regiones con forma de triángulo rectángulo isósceles y cuya hipotenusa es un lado del cuadrado original.

Y se planteó la siguiente cuestión: ¿de cuántas formas distintas, salvo rotaciones, se puede colorear el cuadrado dividido en cuatro partes iguales por sus dos diagonales utilizando tres colores distintos?

Este es un problema sencillo que podéis resolver vosotros mismos utilizando lápiz y papel. De hecho, podéis interrumpir la lectura de esta entrada en este punto y buscar vosotras mismas la respuesta.

Pero si continuáis leyendo la entrada, sin interrupción, entonces os diré que la respuesta es veinticuatro, 24. Es decir, se puede colorear, utilizando tres colores distintos, el cuadrado dividido en los cuatro triángulos rectángulos isósceles iguales de 24 formas distintas, salvo rotación, como se muestra en la siguiente imagen, que es del libro de Percy MacMahon y en la que utiliza números 1, 2 y 3, para representar los colores.

La solución al problema de MacMahon de colorear el cuadrado dividido en cuatro partes iguales por sus dos diagonales, donde cada número es un color

 

Por lo tanto, tras este sencillo análisis, se pueden construir las 24 fichas que serán utilizadas en el rompecabezas y que consisten en un cuadrado dividido por sus dos diagonales en cuatro regiones triangulares iguales, pero cada una de las fichas coloreada de una de las 24 maneras posibles que existen si se utilizan tres colores (por ejemplo, azul, verde y amarillo).

Las 24 fichas que componen el rompecabezas “Los cuadrados de MacMahon”

 

Pero volviendo a la cuestión del coloreado de los cuadrados divididos en cuatro regiones triangulares iguales, mediante sus diagonales, nos podríamos plantear la misma cuestión que antes, pero con cualquier cantidad n de colores. Os dejo como problema que descubráis que la cantidad de formas de colorear, con n colores, viene dada por la siguiente fórmula.

Los cuadrados de MacMahon, el rompecabezas

Si se consideran las 24 fichas construidas a partir del problema de MacMahon, como 24 es el producto de 4 por 6, con ellas se puede formar un rectángulo de 4 filas y 6 columnas, un rectángulo 4 x 6. Por ejemplo, si formamos el rectángulo con las fichas tal cual las teníamos colocadas más arriba, como se muestra en la siguiente imagen.

El matemático británico se planteó construir un rectángulo de 4 filas y 6 columnas que cumpliera ciertas condiciones sobre el color. En concreto, las dos reglas que se deben de cumplir en el denominado rompecabezas de los cuadrados de MacMahon son:

1. Cuando dos fichas tengan un lado en común el color de las regiones triangulares que comparten ese lado, en los dos cuadrados, tienen que tener el mismo color (en la siguiente imagen se muestra un caso positivo, a la izquierda, y uno negativo, a la derecha);

2. Todo el perímetro tiene que ser de un mismo color, es decir, todas las regiones triangulares cuya hipotenusa forma parte del perímetro del rectángulo tienen que tener el mismo color, ya sea azul, verde o amarillo, con los colores que nosotros hemos elegido.

Por ejemplo, una solución al rompecabezas de los cuadrados de MacMahon es la siguiente.

Una de las soluciones de los cuadrados de MacMahon

 

En 1964 se probó, con ayuda de un programa de ordenador, que existen 12.261 soluciones (fijado un color para el borde), excluyendo simetrías, es decir, rotaciones y reflexiones. Sin embargo, por lo que he podido leer en algunas fuentes (como el libro The Art of Computer Programming / El arte de programar ordenadores del matemático y experto en programación estadounidense Donald Knuth) ese resultado no es correcto y en la década de los años 1970 se demostró que existían 20 configuraciones distintas para el borde y 13.328 soluciones al rompecabezas, excluyendo simetrías.

El rompecabezas de los cuadrados de MacMahon tiene la ventaja de que puede construirse físicamente, con papel (si prefieres imprimirlas te dejamos aquí el pdf Las piezas del rompecabezas con las 24 fichas), cartulina o madera, por ejemplo, y se puede jugar con sus 24 piezas buscando soluciones del mismo. El utilizar las piezas físicas nos permitirá además observar algunas claves del juego que nos llevarán a obtener soluciones o incluso el camino para obtener todas ellas.

Por ejemplo, podemos darnos cuenta de que, si el color del borde es el azul, como en el ejemplo anterior, puede probarse que la ficha monocolor azul (la que tiene sus cuatro triángulos azules) tiene que estar colocada en el borde y no en el interior del rectángulo. Esto se puede probar fácilmente de la siguiente forma:

a) Cada color (por ejemplo, el azul) está en 18 de las 24 fichas, es decir, hay 18 fichas que tienen 1, 2, 3 o 4 triángulos de ese color (azul);

b) En cada solución del rompecabezas, de esas 18 fichas con algún triángulo azul (los mismo para cualquier otro color), 16 de ellas estarán en el borde del rectángulo 4 x 6 (4 filas y 6 columnas), puesto que el perímetro del rectángulo está formado por 16 cuadrados, por lo tanto, sólo 2 de las fichas azules estarán en el interior;

c) Si en una solución del rompecabezas la ficha monocolor azul estuviese en el interior (que sería una de las 2 únicas que están en el interior en esa solución, como hemos explicado en el apartado b) se necesitarían 2 o 3 fichas azules interiores que estuviesen pegadas a esta por sus lados, pero sólo puede haber una más, luego es imposible.

Llegados a este punto os animo a que juguéis a los cuadrados de MacMahon, buscando soluciones al mismo, es decir, construyendo rectángulos 4 x 6 de forma que las fichas que estén una al lado de la otra compartan color y que el perímetro sea todo de un mismo color (por ejemplo, azul).

Un rectángulo de 3 filas y 8 columnas

Volviendo a las fichas del rompecabezas, resulta que 24 también puede expresarse como el producto de 3 por 8. Por lo tanto, se puede formar con ellas un rectángulo de tamaño 3 x 8 (3 filas y 8 columnas) y plantearnos también el rompecabezas para este tamaño.

Podemos encontrar soluciones al rompecabezas 3 x 8 si le pedimos solo la primera condición, la de que, cuando dos fichas tengan un lado en común, el color de las regiones triangulares que comparten ese lado sean del mismo color, como en la siguiente imagen.

La cuestión es si existe alguna solución para el rompecabezas de los cuadrados de MacMahon para el rectángulo 3 x 8, exigiendo que se cumplan las dos condiciones del rompecabezas, es decir, también que todo el perímetro sea de un mismo color. La respuesta es negativa. La justificación también tiene que ver con las fichas interiores y exteriores (en el borde) del rectángulo. Veámoslo.

a) Como ya se ha comentado anteriormente, cada color (por ejemplo, el azul) está en 18 de las 24 fichas, es decir, hay 18 fichas que tienen 1, 2, 3 o 4 triángulos azules;

b) En cada solución, si la hubiese, del rompecabezas para el rectángulo 3 x 8, las 18 fichas con algún triángulo azul tendrían que estar en el borde del rectángulo, puesto que el perímetro del rectángulo está formado por 18 cuadrados (véase la imagen anterior);

c) Existen tres fichas con dos triángulos azules contrapuestos, las que aparecen en la siguiente imagen, que al tener que estar en el borde del rectángulo obligarían a que existiera una ficha azul interior (para compartir el color en el lado que no está pegado al exterior), lo cual no es posible, ya que las 18 están en el borde.

No lo hemos comentado, pero trivialmente no es posible resolver el rompecabezas de los cuadrados de MacMahon si el rectángulo fuese de tamaño 2 x 12, ya que todas las fichas tendrían que ser exteriores, luego no podría cumplirse la condición de que el perímetro sea monocolor.

Por hoy nada más, solo que os lo paséis bien jugando a los cuadrados de MacMahon, e incluso planteando nuevos rompecabezas con dichas fichas, por ejemplo, construir un cuadrado 5 x 5, pero con un agujero en medio (es decir, un hueco para una ficha más, por ejemplo, si añadimos una ficha completamente blanca).

Bibliografía

1.- Percy A. MacMahon, New Mathematical Pastimes, Cambridge University Press, 1921 (puede obtenerse una copia en pdf a través de la biblioteca digital Internet Archive [archive.org]).

2.- Martin Gardner, Nuevos pasatiempos matemáticos, Alianza editorial, 2018.

3.- Feldman, Gary, Documentation of the MacMahon Squares Problem [https://exhibits.stanford.edu/stanford-pubs/catalog/nv052jg0055], AIM-012, Stanford Artificial Intelligence Laboratory, 1964.

4.- Kate Jones, The Surprising Versatility of Edge-Matching Tiles, Bridges Conference, 2017.

5.- Donald Knuth, The Art of Computer Programming, volumen 4, Springer, 2019.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los cuadrados de MacMahon se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Una prueba matemática establece nuevos límites a la formación de agujeros negros

mar, 2023/09/05 - 11:59

Durante medio siglo, los matemáticos han intentado definir las circunstancias exactas en las que un agujero negro está destinado a existir. Una nueva prueba muestra cómo un cubo puede ayudar a responder la cuestión.

Un artículo de Steve Nadis. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

agujero negroUna conjetura de hace 51 años dice que si la materia se comprime en un aro de cierto tamaño, seguramente se formará un agujero negro. Ilustración: Allison Li / Quanta Magazine

La noción moderna de agujero negro ha estado con nosotros desde febrero de 1916, tres meses después de que Albert Einstein revelara su teoría de la gravedad. Fue entonces cuando el físico Karl Schwarzschild, en medio de los combates en el ejército alemán durante la Primera Guerra Mundial, publicó un artículo con implicaciones sorprendentes: si se confina suficiente masa dentro de una región perfectamente esférica (delimitada por el “radio de Schwarzschild”), nada puede escapar de la intensa atracción gravitacional de un objeto así, ni siquiera de la propia luz. En el centro de esta esfera se encuentra una singularidad donde la densidad se acerca al infinito y la física conocida descarrila.

En los más de 100 años transcurridos desde entonces, físicos y matemáticos han explorado las propiedades de estos enigmáticos objetos desde la perspectiva tanto de la teoría como de la experimentación. De ahí que puede resultar sorprendente escuchar que «si tomamos una región del espacio con un montón de materia esparcida en ella y le preguntamos a un físico si esa región colapsaría para formar un agujero negro, todavía no tenemos las herramientas para responder esa pregunta”, afirma Marcus Khuri, matemático de la Universidad Stony Brook.

No hay que desesperar. Khuri y tres colegas (Sven Hirsch del Instituto de Estudios Avanzados, Demetre Kazaras de la Universidad Estatal de Michigan y Yiyue Zhang de la Universidad de California, Irvine) han publicado un nuevo artículo que nos acerca a poder determinar la presencia de agujeros negros basándose únicamente en la concentración de materia. Además, su artículo demuestra matemáticamente que pueden existir agujeros negros de dimensiones superiores (los de cuatro, cinco, seis o siete dimensiones espaciales), algo que antes no se podía afirmar con seguridad.

Para poner el nuevo artículo en contexto valdría la pena retroceder hasta 1964, el año en que Roger Penrose comenzó a presentar los teoremas de singularidad que le valieron una parte del Premio Nobel de Física de 2020. Penrose demostró que si el espaciotiempo tiene algo llamado una superficie atrapada cerrada (una superficie cuya curvatura es tan extrema que la luz que sale se envuelve y se gira hacia adentro), entonces también debe contener una singularidad.

Fue un resultado monumental, en parte porque Penrose aportó nuevas y potentes herramientas de la geometría y la topología al estudio de los agujeros negros y otros fenómenos de la teoría de Einstein. Pero, para empezar, el trabajo de Penrose no explica en detalle qué se necesita para crear una superficie atrapada cerrada.

agujero negroKip Thorne en 1972, el mismo año en que presentó su “conjetura del aro”. Fuente: Wikimedia Commons

En 1972, el físico Kip Thorne dio un paso en esa dirección al formular la conjetura del aro. Thorne reconoció que determinar si un objeto no esférico (que carecía de la simetría supuesta en los esfuerzos pioneros de Schwarzschild) colapsaría en un agujero negro sería “mucho más difícil de calcular [y] de hecho, mucho más allá de mis capacidades”. (Thorne ganaría el Premio Nobel de Física de 2017). Sin embargo, sentía que su conjetura podría hacer que el problema fuera más manejable. La idea básica es determinar primero la masa de un objeto dado y a partir de ahí calcular el radio crítico de un aro en el que debe encajar el objeto (sin importar cómo esté orientado el aro) para hacer inevitable la formación de un agujero negro. Sería como demostrar que un hula-hoop que se ajusta alrededor de la cintura también podría, si se gira 360 grados, adaptarse a todo lo largo del cuerpo, incluidos los pies y la cabeza. Si el objeto encaja, colapsará y se convertirá en un agujero negro.

«La conjetura del aro no está bien definida», comenta Kazaras. «Thorne utilizó intencionadamente una redacción vaga con la esperanza de que otros proporcionaran una expresión más precisa».

En 1983, los matemáticos Richard Schoen y Shing-Tung Yau cumplieron, demostrando una versión importante de la conjetura del aro, posteriormente denominada teorema de existencia del agujero negro. Schoen y Yau demostraron (en un argumento matemático claro) cuánta materia debe acumularse en un volumen dado para inducir la curvatura espacio-temporal necesaria para crear una superficie atrapada cerrada.

Kazaras elogia el trabajo de Schoen-Yau por su originalidad y generalidad; su técnica podría revelar si cualquier configuración de la materia, independientemente de consideraciones de simetría, está destinada a convertirse en un agujero negro. Pero su enfoque tiene un gran inconveniente. La forma en que miden el tamaño de una región determinada del espacio (determinando el radio del toro o dónut más grueso que podía caber en su interior) es, para muchos observadores, “engorrosa y poco intuitiva”, afirma Kazaras, y por lo tanto poco práctica.

El nuevo artículo ofrece una alternativa. Una de las principales innovaciones de Schoen y Yau fue reconocer que una ecuación ideada por el físico Pong Soo Jang, que originalmente no tenía nada que ver con los agujeros negros, puede «explotar» (llegar al infinito) en ciertos puntos del espacio. Sorprendentemente, el lugar donde explota coincide con la ubicación de una superficie atrapada cerrada. Entonces, si se desea encontrar dicha superficie, primero hay que averiguar dónde llega al infinito la ecuación de Jang. “En la escuela secundaria a menudo intentamos resolver una ecuación cuya solución es igual a cero”, explica el matemático Mu-Tao Wang de la Universidad de Columbia. «En este caso, estamos tratando de resolver la ecuación [de Jang] de modo que la solución sea infinita».

Hirsch, Kazaras, Khuri y Zhang también se basan en la ecuación de Jang. Pero además de un toro, utilizan un cubo, uno que puede deformarse considerablemente. Este enfoque “es similar a la idea de Thorne, que utiliza aros cuadrados en lugar de los tradicionales aros circulares”, afirma Khuri. Se basa en la “desigualdad del cubo” desarrollada por el matemático Mikhail Gromov. Esta relación conecta el tamaño de un cubo con la curvatura del espacio dentro y alrededor de él.

El nuevo artículo muestra que si puedes encontrar un cubo en algún lugar del espacio donde la concentración de materia sea grande en comparación con el tamaño del cubo, entonces se formará una superficie atrapada. «Esta medida es mucho más fácil de comprobar» que una en la que se usa un toro, afirma Pengzi Miao, matemático de la Universidad de Miami, «porque todo lo que necesitas calcular es la distancia entre las dos caras opuestas más cercanas del cubo».

Los matemáticos también pueden construir dónuts (toros) y cubos en dimensiones superiores. Para extender su prueba de la existencia de los agujeros negros a estos espacios, Hirsch y sus colegas se basaron en conocimientos geométricos que se han desarrollado en las cuatro décadas posteriores al artículo de Schoen y Yau de 1983. El equipo no pudo ir más allá de siete dimensiones espaciales porque comienzan a aparecer singularidades en sus resultados. «Solucionar esas singularidades es un punto de conflicto común en geometría», explica Khuri.

El siguiente paso lógico, añade, es demostrar la existencia de un agujero negro basándose en una “masa cuasi local”, que incluye la energía proveniente tanto de la materia como de la radiación gravitacional, en lugar de solo de la materia. No es una tarea sencilla, en parte porque no existe una definición universalmente aceptada de masa cuasi local.

Mientras tanto, surge otra pregunta: para crear un agujero negro de tres dimensiones espaciales, ¿se debe comprimir un objeto en las tres direcciones, como insistió Thorne, o podría ser suficiente la compresión en dos direcciones o incluso en una sola? Todas las pruebas apuntan a que la afirmación de Thorne es cierta, apunta Khuri, aunque aún no está probada. De hecho, es solo una de las muchas preguntas abiertas que persisten sobre los agujeros negros después de que apareciesen por primera vez hace más de un siglo en el cuaderno de notas de un soldado alemán.

 

El artículo original, Math Proof Draws New Boundaries Around Black Hole Formation, se publicó el 16 de agosto de 2023 en Quanta Magazine.

Traducido por César Tomé López

El artículo Una prueba matemática establece nuevos límites a la formación de agujeros negros se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Las dunas como registro de cambio climático y ambiental

lun, 2023/09/04 - 11:59

Las dunas son una de las morfologías más abundantes y reconocibles en nuestro Sistema Solar. No solo las conocemos en la Tierra, sino que también las hemos observado en otros planetas como Marte o Venus, así como en lugares más exóticos como pueden ser en Ío o el cometa 67P/Churyumov-Gerasimenko que, a pesar de no tener una atmósfera como la nuestra, son capaces de generar estas formas.

Incluso en Titán -el satélite de Saturno- observamos dunas en las que los granos que las conforman ni siquiera son de arena y probablemente lo sean de cristales de compuestos orgánicos -formados gracias a las bajas temperaturas-, algo realmente exótico e imposible bajo las condiciones de nuestro planeta, pero cuyo comportamiento es similar al de los granos de arena a los que estamos tan acostumbrados.

La arena que forma las dunas es un material granular capaz de autoorganizarse de tal manera que puede llegar a formar patrones ordenados y estructuras de manera espontánea, algo que podemos ver en la manera en la que las dunas se organizan y evolucionan en respuesta a factores ambientales tales como el suministro de sedimentos o a la velocidad y la dirección del viento.

A la izquierda, dos campos de dunas en Titán. A la derecha, dos en la Tierra. Como podemos ver a través de estas imágenes, las morfologías son tan diferentes que más allá de la resolución y la calidad de las imágenes, tendríamos grandes dificultades para distinguir las dunas de Titán de las de nuestro propio planeta. Imagen cortesía de NASA/JPL–Caltech/ASI/ESA and USGS/ESA.

Y es que quizás cabría esperar que cuando sopla el viento sobre una superficie más o menos plana, la arena iría dispersándose de una manera aleatoria, pero cualquier perturbación, como la presencia de un obstáculo, permite que la arena empiece a amontonarse y poco a poco dar lugar a la formación de las dunas.

Siendo estas una forma tan ubicua en nuestro entorno planetario, ¿podrían ser usadas de alguna manera las dunas para comprender mejor los cambios climáticos y ambientales? Un equipo de la Universidad de Stanford acaba de publicar un estudio en la revista Geology titulado “Dune Interactions Record Changes in Boundary Conditions” que propone el uso de una serie de medidas y técnicas que aplicadas sobre las imágenes de dunas tomadas desde la órbita pueden ayudarnos a desentrañar los cambios que han ocurrido en los planetas y, quien sabe, si incluso poder llegar a correlacionar algunos con los observados en el nuestro propio.

El estudio de la morfología de las dunas ofrece una clara ventaja frente a otras técnicas de que requieren o bien contacto o instrumentos más complejos, y es que las dunas son visibles con cámaras “convencionales” -en el sentido del rango de luz visible- y en el caso de las misiones orbitales se pueden tomar numerosas imágenes que incluso nos pueden llegar a permitir reconstruir su forma tridimensional y si la misión dura lo suficiente, estudiar su movimiento en la actualidad.

Imagen de un campo de dunas en el interior del cráter Proctor, en Marte tomada por el instrumento HiRISE de la Mars Reconaissance Orbiter. Imagen cortesía de NASA/JPL-Caltech/UArizona.

En este nuevo artículo los investigadores han trabajado sobre 46 campos de dunas existentes en la Tierra y en Marte midiendo la longitud y cresta de las dunas, así como los puntos donde dos o más dunas interactúan entre sí. Para este equipo, un gran número de interacciones entre las dunas suponen un reciente cambio en las condiciones ambientales del campo de dunas, algo que puede reflejar cambios en el patrón de los vientos dominantes o en el suministro de arena, por ejemplo. Y al revés, cuantas menores son las interacciones hay entre las dunas, lo que reflejan es un estado de equilibrio del campo de dunas con las condiciones ambientales actuales.

Además, las orientaciones de la cresta de las dunas suelen mostrar su dirección de movimiento dominante sobre escalas temporales relativamente largas -a veces incluso de varios miles de años-, pero también se pueden estudiar fenómenos de una mayor escala temporal como los ciclos de Milankovitch -variaciones periódicas en los parámetros orbitales de los planetas y satélites que tienen como consecuencia la alteración del clima a lo largo de escalas de decenas o cientos de miles de años y que suelen estar relacionados con la excentricidad orbital, la precesión y la inclinación del eje de rotación- o incluso menores, en el caso de grandes sistemas tormentosos capaces de alterar el estado de equilibrio de los campos de dunas, a partir de la formación de otras morfologías dunares.

Algunas de las líneas que cruzan de manera plana y diagonal el afloramiento en primer plano representan parte de la estructura interna de unas dunas del Jurásico que quedaron fosilizadas permitiéndonos hoy que podamos estudiarlas. En concreto este afloramiento corresponde con la Navajo Sandstone presente en el Zion National Park de los Estados Unidos. Cortesía de Annie Scott y el USGS.

Estos estudios sobre las dunas nos podrían ayudar en el futuro a conocer, por ejemplo, como ha cambiado el clima en Marte, permitiendo a los científicos buscar zonas más prometedoras donde puedan existir depósitos de hielo que pudieran ser accesibles para las misiones humanas que viajen al planeta rojo, pero también a comprender mejor la dinámica de las dunas en nuestro planeta.

Este último punto nos abriría una puerta a interpretar de una manera más acertada el registro rocoso de la Tierra, ya que en la actualidad no solo vemos las dunas activas en la superficie, sino que también somos capaces de estudiar los campos de dunas fósiles gracias a la estructura interna de estas que a veces ha fosilizado y pasado a formar parte de las rocas, permitiéndonos hacer mejores interpretaciones ambientales.

Sin duda, y aunque a veces parezca difícil, a través de la geología planetaria no solo podemos conocer mejor otros lugares del Sistema Solar, sino también, aplicando las mismas técnicas y conocimientos, mejorar lo que sabemos sobre la historia de la Tierra.

Referencias:

Marvin, M. Colin, Mathieu G.A. Lapôtre, Andrew Gunn, Mackenzie Day, y Alejandro Soto (2023) Dune Interactions Record Changes in Boundary Conditions Geology doi: 10.1130/G51264.1.

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Las dunas como registro de cambio climático y ambiental se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Lo que ‘Oppenheimer’ no cuenta

dim, 2023/09/03 - 11:59

numérica

J. Robert Oppenheimer (izquierda) y el matemático John von Neumann (derecha), cuyos trabajos sentaron las bases de la simulación numérica moderna.

Uno de los grandes avances tecnológicos de la Segunda Guerra Mundial fue la creación de la bomba atómica. La película de Christopher Nolan Oppenheimer recoge ese momento histórico en el que la ciencia ocupó las portadas de todos los periódicos del mundo. Para conseguir un bomba tan mortífera, el gobierno de los EE. UU. reclutó a los mejores científicos de la época en unas instalaciones secretas (Los Alamos Scientific Laboratory, actualmente Los Alamos National Laboratory_). Allí dieron forma al Proyecto Manhattan (1942-1946).

La primera detonación de la bomba atómica, la prueba Trinity se produjo el 16 de julio de 1945.

Pero en Los Álamos ocurrieron muchas más cosas. Entre ellas, el avance tecnológico que hizo posible el uso de computadoras para la simulación numérica, algo que permitiría predecir el efecto de las potentísimas ondas de choque del artefacto que estaban creando. Sobre el papel, existía una mínima probabilidad de que generaran un efecto en cadena que acabaría con el mundo.

Evolución de la bola de fuego de la prueba Trinity, comparada con el Empire State Building a escala.
Alex WellersteinCálculo de las ondas de choque de la bomba

Lo menos conocido de lo que ocurrió en Los Álamos es que el desarrollo de la bomba atómica (y años posteriores) fue el origen de la dinámica de fluidos computacional (término acuñado por Chia-Kun Chu probablemente a partir de 1960). Esta rama de la Mecánica de Fluidos se basa en el uso de computadoras –a través de algoritmos– para resolver problemas hidrodinámicos. Entre ellos, claro, las ondas de choque que genera una bomba atómica.

Gran explosión convencional. La onda de choque aparece como una línea nítida alejada de la bola de fuego.
Stuhmiller J.H., Phillips Y.Y., and Richmond D.R. (1991) The Physics and Mechanisms of Primary Blast Injury. In: Bellamy R.F., Zajtchuk R., eds. Conventional Warfare: Ballistic, Blast, and Burn Injuries. Washington DC: Office of the Surgeon General of the US Army; 241-270.

Los científicos del Proyecto Manhattan no solo desarrollaron las herramientas numéricas para describir las ondas de choque debido a las explosiones. También el uso de computadoras para realizar la complejidad de los cálculos. Los trabajos del matemático John von Neumann sentaron las bases para la fundación moderna de la simulación numérica.

John von Neumann trabajó en el Proyecto Manhattan como asesor en la División Teórica. El líder de dicha división fue Hans Bethe. De 1941 a 1943, Von Neumann elaboro varios informes para el gobierno de los EE. UU. sobre teoría de ondas de choque, detonaciones y ondas de choque oblicuas.

“Estoy pensando en computadoras”

Recordemos que la bomba desarrollada (de tipo implosión) consistía en una esfera de plutonio rodeada de explosivos. Las cargas, al explosionar, comprimían el núcleo causando la fisión de los átomos. La reacción nuclear descontrolada provocaba la explosión y destrucción total del perímetro.

El mayor desafío de la implosión del núcleo fue diseñar los explosivos que garantizaran una onda de choque simétrica. Los científicos se percataron de que las simplificaciones teóricas eran totalmente inadecuadas. La manera de tratar las complejas ecuaciones era resolverlas numéricamente.

“Estoy pensando en algo mucho más importante que las bombas. Estoy pensando en computadoras”.

John von Neumann.

La aportación más ingeniosa del matemático se produjo en 1944. John von Neumman se percato del potencial que podrían tener las computadoras electrónicas. Por aquellos años la Universidad de Pensilvania también desarrollaba el ENIAC, el primer ordenador digital de propósito general de la historia. Hasta aquel momento el término “computadora” se refería a “persona que realiza cálculos matemáticos”.

Equipo de tabulación de tarjetas de IBM 601 durante el proyecto Manhattan.
Los Alamos National Laboratory

En abril de ese año llegaron a Los Álamos las primeras computadoras IBM 601, calculadoras basadas en tarjetas perforadas. Para resolver numéricamente las ecuaciones fluido-dinámicas, primero se traducían a un sistema de ecuaciones algebraicas. Luego dicho sistema se codificaba en las tarjetas y se enviaban en lotes a través de una secuencia de computadoras.

John von Neumann pasó dos semanas cableando las computadoras y familiarizándose con los cálculos. Richard Feynmann estuvo a cargo de la codificación. Finalmente, el primer informe sobre simulación numérica fue publicado el 20 de junio de 1944.

Los físicos John von Neumann, Richard Feynman y Stanisław Ulam (de izquierda a derecha).
Los Alamos National LaboratoryLa importancia de la estabilidad numérica

Se utilizaron dos métodos numéricos para el cómputo de las ondas de choque: el shock fitting desarrollado por Rudolf Peierls y el shock capturing por Von Neumann. Sin embargo, el método de Von Neumann falló catastróficamente. Era necesario añadirle disipación a la onda de choque para que fuera estable.

A raíz de esto, en 1950 logro mejorar su método (artificial viscosity method) y formalizar una teoría para la estabilidad numérica (Von Neumann stability analysis).

Tras el Proyecto Manhattan y hasta su muerte en 1957, Von Neumann participó en el diseño de la EDVAC. Desarrolló una arquitectura de computadoras propia y la IAS machine. Finalmente, encontró un uso hoy sobradamente conocido para las computadoras: la predicción meteorológica.

El MANIAC y la era IBM

Finalizada la Segunda Guerra Mundial, Los Álamos siguió trabajando en el diseño y perfeccionamiento de armas nucleares. También la construcción de la computadora MANIAC I en 1949. Uno de los objetivos era simular las condiciones necesarias para detonar una bomba H tipo Teller-Ulam. Los cálculos previos se realizaron con el ENIAC, pero no fueron concluyentes.

Con la llegada de las grandes computadoras de la compañía IBM en 1953 a los Álamos, el grupo T-3, liderado por Francis Harlow, propició otra gran revolución en la dinámica de fluidos computacional.

La revolución numérica tras la bomba atómica

Durante más de tres décadas desarrollaron métodos numéricos que aún a día de hoy son referentes. Destacan la formulación Streamfunction-Vorticity para flujos incompresibles 2D, el método Marker-and-cell para flujos con lámina libre y el modelo de turbulencia k-epsilon. Aunque la versión final de este modelo se debe a Launder y Spalding (1972), del Imperial College London.

Simulación del flujo de aire en una calle encajonada.
Hotchkiss R.S. and Harlow F.H. (1973), Air pollution transport in street canyons, EPA-R473-029.

La aplicación de los métodos desarrollados por el grupo fue diversa. Desde la refracción de ondas de choque sobre interfaces oblicuas, formación de resaltos hidráulicos, hasta flujo relativista para colisiones de iones pesados.

Merece la pena destacar el trabajo de Reed y Hill en 1973. Desarrollaron la primera versión de un método de Galerkin discontinuo para resolver la ecuación de transporte de neutrones, e,cuación que describe el flujo de neutrones a través de un medio fisible no homogéneo, como en un reactor nuclear.

Lo vivido en Los Álamos desde su creación fue una verdadera explosión –tanto metafórica como literal– de ingenio para resolver los complejos cálculos. Allí, grandes genios desarrollaron una nueva manera de proceder con los problemas hidrodinámicos e inspiraron a muchos otros científicos sobre la modelización numérica sin la que hoy en día difícilmente podríamos explicar el mundo.The Conversation

Sobre el autor: Víctor Javier Llorente Lázaro, Investigador en Matemática Aplicada, Universidad de Granada

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Lo que ‘Oppenheimer’ no cuenta se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

ZientziaKutxa 2023: Volcanes que cambian la vida

sam, 2023/09/02 - 11:59

Kutxa Fundazioa y el Donostia International Physics Center (DIPC) han ofrecido nuevamente en 2023 el ciclo de conferencias ZientziaKutxa, esta vez bajo el título “Rojo vivo”.

Prestigiosas científicas y científicos, a su vez grandes comunicadores, se dieron cita en la Sala Ruiz Balerdi de Kutxa Fundazioa para ofrecer charlas de divulgación sobre temas de actualidad científica o interés social.

El rojo en sus formas más intensas y evocadoras adquiere una notable presencia en este nuevo ciclo ZientziaKutxa, de ahí, el nombre “Rojo vivo” de este año. El color rojo produce una notable activación neuronal, efecto que se ve reflejado en diferentes elementos de la naturaleza y ámbitos del conocimiento científico. Por ejemplo, el hipnótico color de la lava de los volcanes en erupción que embelesa a geólogas y geólogas, esconde la presencia de hierro en estado oxidado. Y fue tras la explosión del volcán de Tambora y aquel “año sin verano”, que Polidori, médico personal de Byron, ideó la figura del vampiro, personaje que se ha alimentado de toda la mística en torno a otro ícono del rojo, la sangre. Un color que también se asocia con el calentamiento global y los escenarios en torno al cambio climático, invitando a la reflexión sobre la sostenibilidad de la vida en nuestro planeta.

Esta conferencia (“Volcanes que cambian la vida”, en castellano, aunque la presentación inicial sea en euskera) corre a cargo de Juana Vegas, geóloga y coordinadora del equipo de investigación en Patrimonio y Geodiversidad en el Instituto Geológico y Minero de España (IGME-CSIC).

Vegas ha participado en la emergencia de la erupción del volcán de la isla de La Palma (2021), y en la actualidad, está involucrada en la fase de recuperación con diversos proyectos de investigación. La conferencia muestra la importancia de convivir con los volcanes activos, comprender sus procesos y sus tiempos para la recuperación económica y social de los territorios volcánicos en el siglo XXI.

Edición realizada por César Tomé López

 

El artículo ZientziaKutxa 2023: Volcanes que cambian la vida se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El análisis de la microfauna en los sedimentos marinos permite conocer presente y pasado

ven, 2023/09/01 - 11:59

En dos trabajos publicados recientemente, sendos grupos del Departamento de Geología de la UPV/EHU han demostrado la versatilidad del análisis de la microfauna presente en los sedimentos marinos. Por un lado, han visto que aportan información oceanográfica actual del Golfo de Bizkaia, y por otro, han podido inferir las condiciones marinas de la época en la que se formó el conocido como flysch negro de Armintza (sedimentos de entre 113 y 94 millones de años).

microfaunaFlysch negro de Armintza, en la costa del mar Cantábrico. Foto: Departamento de Geología UPV/EHU

Los grupos de investigación Harea-Geología Litoral y Grupo de estudio del Cretácico y Paleógeno, ambos del Departamento de Geología de la UPV/EHU, han publicado dos investigaciones donde extraen información oceanográfica actual y del período Cretácico de la costa vasca basándose en el análisis de la microfauna presente en los sedimentos. Estas dos publicaciones son un claro ejemplo de un principio de la Geología que afirma que “el presente es la clave del pasado. Es decir, estudiamos muy a fondo los organismos actuales, y con esa información, extrapolamos las condiciones que se dieron en el pasado mediante el estudio del registro fósil”, explica Ana Pascual, investigadora del grupo Harea-Geología Litoral y participante en ambos estudios.

“Llevamos cerca de 30 años trabajando en micropaleontología, estudiando parte de la microfauna presente en los sedimentos para determinar las condiciones oceanográficas del pasado (profundidad, oxigenación del fondo marino, influencia de las masas de agua, etc.). Siempre hemos trabajado con dos grupos de organismos: los ostrácodos, unos crustáceos muy pequeños, muchas veces microscópicos, y los foraminíferos bentónicos, un grupo de protistas u organismos unicelulares que segregan un caparazón y viven en el fondo marino”, detalla la investigadora. Aunque también han estudiado diferentes eventos oceánicos actuales analizando estos organismos; según las condiciones que se den en un lugar varía la composición y distribución de las diferentes especies que componen estos numerosísimos grupos de organismos marinos.

En esta ocasión, sin embargo, decidieron incluir en sus análisis los foraminíferos planctónicos, es decir, los que viven en las masas de agua formando parte del plancton y se desplazan con las corrientes marinas. Así lo describe la doctora Pascual: “Al ser la primera vez que trabajábamos con estos foraminíferos, nuestra única intención era conocer la biodiversidad, la composición y distribución de las especies en la actualidad, y ver si este conocimiento sobre los organismos actuales serviría para poder hacer futuras reconstrucciones paleoclimáticas y paleoceanográficas”. Para ello, analizaron los foraminíferos planctónicos presentes en unas muestras de sedimentos recientes que tenían conservadas de un estudio anterior.

Los resultados obtenidos, no obstante, les reportaron información adicional: vieron que los conjuntos de foraminíferos planctónicos “son buenos indicadores de las corrientes oceánicas y de las masas de agua que llegan hoy en día a la plataforma continental vasca”, afirma Pascual. Por ejemplo, observaron una acumulación preferente de foraminíferos planctónicos en el margen oriental de la plataforma vasca, lo que se corresponde con la corriente superficial general de la costa vasca, que fluye hacia el Este durante la mayor parte del año. La presencia de especies típicas de aguas subtropicales, así como de zonas subpolares también indican la entrada de diferentes corrientes marinas en el Golfo de Bizkaia, incluyendo las de upwelling (el ascenso de masas profundas de agua), tan importantes para la pesca actual.

El paleoambiente del flysch negro de Armintza

El conocimiento de los foraminíferos planctónicos y bentónicos y de ostrácodos les ha servido a estos dos grupos de geología de la UPV/EHU para la reconstrucción del ambiente o las condiciones oceánicas que existían cuando se acumularon los sedimentos que dieron lugar a lo que hoy en día conocemos como flysch negro de Armintza, en el Cretácico inferior (Albiense), que se inició hace 113 millones de años, así como en el siguiente periodo (Cenomaniense), del Cretácico superior, que tuvo lugar hace 94 millones de años.

Al igual que todos los flysch, el de Armintza también es una formación geológica de origen sedimentario, en la que se alternan capas duras de roca y capas de materiales más blandos, de forma que aparecen como si fueran las hojas de un libro. “La particularidad del flysch de Armintza es que es un sedimento oscuro, y el doctor Luis Miguel Agirrezabala, del Grupo de estudio del Cretácico y Paleógeno, quiso determinar qué condiciones fueron las que dieron lugar a esta característica, que normalmente se asocia con entornos donde no hay oxígeno, y la materia orgánica se deposita y adquiere ese color oscuro”, comenta la investigadora.

Basándose en la elevada proporción y composición de foraminíferos planctónicos y bentónicos, han estimado que la profundidad del mar en aquella época era de unos 600 metros. Los sedimentos del flysch negro son ricos en materia orgánica y la gran mayoría (más del 90 %) de los organismos son foraminíferos planctónicos, “lo cual indica que en la época en la que se acumularon esos sedimentos existió una masa de agua superficial oxigenada encima de una masa de agua más profunda estancada con niveles de oxígeno muy bajos. En la siguiente fase, sin embargo, se observa un incremento en los organismos bentónicos y la aparición de foraminíferos planctónicos propios de aguas más profundas, lo que apunta a que el agua dejó de estar estancada, aunque había cierto déficit de oxígeno en el fondo. Este artículo aporta una importante información sobre la formación del flysch negro, ya que hasta la fecha nunca se había abordado el estudio ambiental de esta formación”, concluye Pascual.

Referencias:

B. Martínez-García, A. Pascual, J. Rodríguez-Lázaro, A. Bodego (2023) Distribution of recent planktonic foraminifera in surface sediments of the Basque shelf (S Bay of Biscay): Oceanographic implications Continental Shelf Research doi: 10.1016/j.csr.2023.105011

L.M. Agirrezabala, A. Malaxetxebarria, A. Pascual, J. Rodríguez-Lázaro (2023) Deep-sea paleoenvironmental evolution in the mid-Cretaceous of the Basque Pyrenees based on microfaunal analysis (Armintza section) Continental Shelf Research doi: 10.1016/j.csr.2023.105001

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El análisis de la microfauna en los sedimentos marinos permite conocer presente y pasado se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La rebelión de las aguas

jeu, 2023/08/31 - 11:59

El pasado 26 de agosto se cumplió el 40 aniversario de las inundaciones de Bilbao. Era plena Semana Grande (o Aste Nagusia en euskera), las fiestas multitudinarias de Bilbao. Fueron unas fiestas pasadas por agua, en las que llovió todos los días, pero ese sábado 26 de agosto de 1983, sería diferente. Se produjo lo que entonces se conocía coloquialmente como un episodio de gota fría, al que hoy denominamos DANA (Depresión Aislada en Niveles Altos), que provocó hasta tres episodios tormentosos intensos con abundante precipitación. Un «reventón» en toda regla, o un diluvio repentino como dijeron muchos vecinos en aquel momento. La ría de Bilbao, esa zona de desembocadura del río Nervión que atraviesa la ciudad, ya iba cargada de agua, el terreno de la cabecera del río estaba empapado y no podía infiltrar más agua de lluvia y, encima, se sumó la marea alta. Así se produjo el desastre, la ría acabó desbordándose inundando el Casco Viejo de Bilbao y otras zonas cercanas. Y he usado la palabra desastre porque provocó la pérdida de vidas humanas, no solo daños materiales [*]. (

inundacionesImagen de archivo de Radio Televisión Española de las inundaciones de Bilbao del 26 de agosto de 1983.

Las inundaciones y riadas en zonas urbanas, desgraciadamente, siguen siendo noticia todos los veranos y otoños, no solo en nuestro país. Pero tenemos que ser conscientes de que los ríos no son nuestros enemigos. El hecho de que, de manera periódica, el agua desborde el cauce de un río y acabe inundando las zonas de su alrededor, es un proceso meramente natural. De ahí el nombre geológico que reciben estas zonas que bordean los cauces: llanura aluvial o llanura de inundación. El problema surge cuando los seres humanos decidimos colonizar estas áreas, porque entonces una inundación se convierte en un riesgo geólogo que nos afecta de manera directa, tanto a nuestras infraestructuras como a nuestras propias vidas.

Desde hace milenios, cuando una sociedad humana decide asentarse en un lugar fijo, elige un lugar en el que tenga disposición permanente de agua. Y, en muchas ocasiones, los ríos son los elegidos. Por poneros un ejemplo, seguro que al igual que yo habréis estudiado que las primeras civilizaciones humanas surgieron entre dos ríos, el Tigris y el Éufrates. Pero el agua no es lo único importante que nos aportan los ríos para decidir construir nuestros hogares en sus márgenes. Cuando esta agua se desborda en la llanura de inundación, arrastra sedimentos de diferentes tamaños, desde los más finos como la arcilla y el limo hasta los más gruesos como arenas y gravas, que se pueden convertir en materiales de construcción para nuestros hogares, enseres o infraestructuras. Además, esos sedimentos suelen tener mucha materia orgánica en descomposición, lo que los convierte en excelentes tierras de cultivo para la agricultura y la ganadería. La necesidad (o la avaricia, en muchas ocasiones) de aprovechar estas zonas para nuestro desarrollo económico y social, nos lleva a modificar el medio natural para adaptarlo a nuestros objetivos, llegando a desecar humedales próximos a los ríos, a modificar el recorrido de sus cauces para que discurra por donde nos interesa o, incluso, a encauzar el curso fluvial entre canales y diques artificiales.

Pero la naturaleza siempre sigue su curso, por mucho que nos empeñemos en luchar contra ella. El agua de un río buscará el camino más fácil para fluir desde su zona de cabecera hasta la desembocadura y, por mucho que lo modifiquemos de manera artificial, en cuanto tenga suficiente energía para superar nuestras barreras y canalizaciones, regresará a su cauce original. Y el agua que no pueda seguir en ese cauce se desbordará en su llanura de inundación, llevando consigo abundantes sedimentos que se pueden convertir en un gran flujo de lodo. Si en esa antigua llanura de inundación hoy se levanta una gran ciudad, no es culpa del río.

inundacionesEjemplos de mapas de riesgos en zonas inundables, con detalle de los calados máximos y de las áreas más afectadas, para una probabilidad de inundación de la zona de 500 años. Imagen tomada de: Díez-Herrero, Andrés, Garrote, Julio, Bernal López, Néstor, Martins, Luciano, Hernández Ruiz, Mario y Bodoque, J. (2018). Peligrosidad y riesgo de inundaciones en Pajares de Pedraza (Arahuetes, Segovia) y su incorporación al planeamiento urbanístico. En: Geomorfología del Antropoceno. Efectos del Cambio Global sobre los procesos geomorfológicos. Universitat de les Illes Balears, Sociedad Española de Geomorfología. pp. 37-40.

La Geología nos permite evitar que estos eventos naturales, las inundaciones o riadas, se conviertan en riesgos para el ser humano. Cada vez que un río se desborda, deja una marca a su alrededor debido al depósito de una nueva capa de sedimentos. Si podemos cartografiar el área cubierta por estos materiales y darle una edad absoluta a cada uno de los niveles, gracias a técnicas de datación como el C14, podremos delimitar con precisión la llanura de inundación y calcular periodicidades temporales, es decir, sabremos cada cuánto tiempo se cubre de agua toda esa zona. Así elaboramos mapas de riesgos de inundaciones en donde describimos la probabilidad temporal de que sufran riadas. Por ejemplo, podemos señalar en rojo las partes de la llanura de inundación que se van a inundar, al menos, una vez cada cincuenta años, mientras marcamos en verde aquellas que se cubrirán de agua una vez cada quinientos años. Gracias a estos mapas de riesgos se pueden hacer planificaciones urbanísticas adecuadas y exentas de peligro para la población.

Pero, ¿qué sucede en zonas ya construidas? No podemos tirar abajo media ciudad de Bilbao, o de Valladolid, o de Segovia, porque en el pasado se construyese donde no se debía. Entonces actuamos en el curso alto del río. Se pueden realizar acciones en el medio natural, recuperando las zonas de ribera del río para que actúen de nuevo como llanuras de inundación que recojan el exceso de agua y sedimentos. Y también se puede trabajar en el propio cauce, poniendo barreras artificiales dentro del mismo para que reduzcan la energía del agua, es decir, disminuyan su velocidad, y retengan los materiales que transporte para evitar que lleguen hasta zonas urbanas y se conviertan en esos temibles flujos de lodo. Todo ello sumado a la colocación de dispositivos que miden, en tiempo real, la velocidad y el volumen de agua de los ríos, para poder emitir alertas tempranas de posibles desbordamientos y tomar las medidas de protección más adecuadas.

https://culturacientifica.com/app/uploads/2023/08/video-4.mp4 Ejemplo de la reducción del riesgo asociado a una avenida de agua cargada de sedimento en la zona baja de un río mediante la construcción de barreras artificiales en el cauce. Vídeo del Servicio Geológico de Japón.

Tenemos que aprender a convivir con estos eventos naturales y utilizar nuestro conocimiento geológico para evitar los riesgos, porque las riadas van a seguir produciéndose, lo importante es cómo nos afectan a los seres humanos. Y un último consejo, nunca os acerquéis a una rambla seca durante períodos de lluvia intensa o fuertes tormentas, porque si una vez corrió agua por esos cauces, volverá a hacerlo, y no querréis estar ahí cuando suceda. Más vale prevenir que curar, porque la naturaleza tiene las de ganar.

Nota:

[*] Véase este reportaje/ infografía de El Correo para más detalle

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo La rebelión de las aguas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Karen Uhlenbeck: elogio a la imperfección

mer, 2023/08/30 - 11:59

Soy consciente de que soy un modelo para las jóvenes matemáticas, y en parte para eso estoy aquí. Sin embargo, es difícil ser un modelo a seguir, porque lo que realmente hay que hacer es mostrar a los estudiantes lo imperfecta que puede ser la gente y aun así triunfar. Todo el mundo sabe que, si una persona es inteligente, divertida, guapa o va bien vestida, triunfará. Pero también es posible tener éxito con todas tus imperfecciones.

Karen Uhlenbeck, en Susan A. Ambrose et al. (1997).

UhlenbeckKaren Keskulla Uhlenbeck. Fuente: Andrea Kane /Institute for Advanced Studies / Agencia SINC.

En su Elogio a la imperfección, la premio Nobel Rita Levi-Montalcini afirmaba que la imperfección es lo que más se ajusta a la naturaleza humana. El título de esta anotación alude a este pensamiento de la neurocientífica y a la anterior cita de la matemática Karen Uhlenbeck (1942), a la que rendimos homenaje a través de este retrato alfabético.

ABEL (PREMIO)

En 2002, la Academia Noruega de Ciencias y Letras otorgó por primera vez el Premio Abel coincidiendo con el bicentenario del nacimiento del matemático noruego Niels Henrik Abel (1802-1829). Este galardón, que reconoce los logros científicos pioneros en matemáticas, se otorga anualmente y tiene una recompensa económica de 7,5 millones de coronas noruegas, semejante a la del Premio Nobel. Por ello, el Premio Abel puede considerarse “el Nobel de las matemáticas”.

En 2019 Uhlenbeck recibió el Premio Abel, “por sus logros pioneros sobre ecuaciones en derivadas parciales geométricas, teoría de gauge y sistemas integrables, y por el impacto fundamental de su trabajo en temas de análisis, geometría y física matemática”.

BARRERAS

Karen Uhlenbeck ha roto muchas barreras, algunas sutiles, que impiden a las mujeres progresar, en particular en ciencia. Y, con su ejemplo y su apoyo económico (ver la letra D), ha ayudado además a que otras mujeres puedan progresar en sus estudios en matemáticas.

CÁLCULO (DE VARIACIONES)

Uhlenbeck comenzó a trabajar en cálculo variacional, después se centró en ecuaciones en derivadas parciales no lineales y en diferentes problemas geométricos y físicos.

DONATIVO

Uhlenbeck donó la mitad del montante económico del Premio Abel (en 2019 ascendía a 6 millones de coronas noruegas) para establecer el Karen EDGE Fellowship Program y para colaborar con el Programa Women and Mathematics del Institute for Advanced Study.

ECUACIONES (EN DERIVADAS PARCIALES)

Es uno de los temas centrales en la investigación de Karen Uhlenbeck y, en parte, por los resultados obtenidos en este campo recibió el Premio Abel.

FUNDADORA

Según declaró en 2019 el matemático Hans Munthe-Kaas, presidente del Comité del Premio Abel, «Karen Uhlenbeck es una de las fundadoras del análisis geométrico moderno«.

GEORGE GAMOW

Cuando era pequeña, su padre empezó a llevar a casa libros de ciencia y de divulgación científica, como el famoso e inspirador Un, dos, tres… infinito del físico y astrónomo George Gamow (1904-1968). Karen experimentó una gran emoción con la lectura de este ensayo, porque gracias a él entendió que existen distintos tipos de infinito.

HUMANA

Uhlenbeck afirmaba (ver [Susan A. Ambrose et al.]): “Ser un modelo a seguir es una posición muy poco glamurosa en la que mostrar a la gente todos tus lados malos. Puede que sea un matemática maravillosa y famosa por ello, pero también soy muy humana”.

INSTANTONES

Junto a Daniel S. Freed publicó en 1984 el libro Instantons and Four-Manifoldscentrado en el estudio topológico de la estructura diferenciable de variedades compactas de cuatro dimensiones.

JULIA (CHILD)

En conversaciones informales con sus colegas tras recibir el Premio Abel, comentó que, debido a la falta de modelos femeninos destacados durante sus estudios en matemáticas, había emulado a la chef Julia Child: “Ella sabía recoger el pavo del suelo y servirlo”.

KESKULLA

Era su apellido familiar, antes de cambiarlo por matrimonio. Su madre, Carolyn Windeler Keskulla era artista y maestra de escuela, y su padre, Arnold E. Keskulla, ingeniero.

LEER

En su niñez Karen no estaba especialmente interesada por las matemáticas, pero era una ávida lectora.

MEDALLA (NACIONAL DE LA CIENCIA)

Uno de los muchos reconocimientos recibidos por Karen Uhlenbeck es la National Medal of Science, que le fue concedida en el año 2000 “por sus muchas contribuciones pioneras a la geometría global que han dado lugar a avances en la física matemática y la teoría de ecuaciones diferenciales parciales. Sus logros de investigación se combinan con su liderazgo y su apasionada participación en la formación y la educación en matemáticas”.

NOETHER

En 1988, fue la conferenciante Noether de la Association for Women in Mathematics. En 1990, fue ponente plenaria en el International Congress of Mathematicians celebrado en Kyoto, siendo la segunda mujer (tras Emmy Noether, en 1932) en impartir una conferencia en este congreso.

ONE (Two Three… Infinity: Facts and Speculations of Science)

Es el título del libro de divulgación científica de Gamow, publicado por primera vez en 1947, que inspiró a Karen cuando era una niña. El libro explora una amplia gama de conceptos fundamentales en matemáticas y ciencias.

PALAIS (RICHARD)

En 1968, Karen defendió su tesis doctoral en Brandeis, The Calculus of Variations and Global Analysis, bajo la supervisión del prestigioso geómetra diferencial Richard Palais (1931).

QUEDARSE (EN CASA)

Los centros interesados en contratar a su marido, Olke Cornelis Uhlenbeck, –el MIT, o las Universidades de Stanford y Princeton– no deseaban emplearla a ella. Lo justificaban aludiendo a las reglas contra el nepotismo que impedían que fuera contratada. Aunque aquellas normas, según ha constatado Karen en alguna de sus entrevistas, no estaban realmente escritas. Ella opinaba (y opina) que le mintieron y que, simplemente, no la contrataron en unos tiempos en los que el destino de las mujeres consistía en quedarse en casa para dedicarse exclusivamente al cuidado de su familia.

RETOS

Las personas que obtienen un Premio Abel, como Karen Uhlenbeck, son capaces de abordar cada problema de múltiples maneras. Para ello se necesitan grandes conocimientos que requieren tiempo y esfuerzo, y habilidades especiales que permiten afrontar los retos planteados de maneras inusuales.

SIBNER (LESLEY)

Karen encontró un gran apoyo en la geómetra diferencial Lesley Sibner (1934-2013), quien fue para ella un modelo a seguir, además de su asesora durante muchos años.

TOPOLOGÍA

Uhlenbeck ha contribuido a la teoría topológica de campos cuánticos.

UHLENBECK

Es el apellido de su primer marido, el bioquímico Olke Cornelis Uhlenbeck (1942).

VARIACIONES

Su tesis doctoral, The Calculus of Variations and Global Analysis, trataba sobre cálculo variacional, área de las matemáticas que busca extremos relativos de funcionales continuos definidos sobre algún espacio de funciones.

WILLIAMS

Es el apellido de su segundo y actual marido, el matemático Robert F. Williams.

(E)XTRAORDINARIA

Como se comenta en este artículo de opinión para SINC: “Karen Uhlenbeck es un referente científico extraordinario para mujeres y para hombres. ¿Por qué? Porque es una persona “normal”. Porque habla con pasión de su investigación en matemáticas. Porque rezuma entusiasmo cuando habla de los retos que ha abordado. Porque cuando ella denuncia las discriminaciones que ha sufrido, nadie puede argumentar que se queja por victimismo. Porque agradece al movimiento feminista la lucha que ha permitido a tantas mujeres, como ella, mejorar sus condiciones laborales y sociales. Porque se considera “imperfecta” y con estas sencillas palabras ayuda a derribar el mito de que las matemáticas solo están destinadas a personas con especiales dones”.

YANG-MILLS

En 1989 publicó junto a Lesley y Robert J. Sibner el artículo Solutions to Yang-Mills equations that are not self-dual. Las ecuaciones de Yang-Mills son un sistema de ecuaciones en derivadas parciales para una conexión en un fibrado vectorial o un fibrado principal.

ZIPPY

Zippy, enérgica. Así la imagino.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Karen Uhlenbeck: elogio a la imperfección se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Un cinturón de radiación alrededor de una enana marrón

mar, 2023/08/29 - 11:59

Gigantescas antenas de radio repartidas por todo el planeta han permitido captar con detalle el primer cinturón de radiación detectado alrededor de una enana marrón, donde también aparecen auroras. La ‘fotografía’ evoca estructuras parecidas de la Tierra y Júpiter.

cinturón de radiaciónRecreación artística de la enana marrón LSR J1835+3259 (objeto central), con su campo magnético (líneas blancas), el cinturón de radiación (rosca difusa en tonos verdosos) y las auroras (anillos brillantes de los polos). Ilustración: Hugo Salais / Metazoa Studio

Hace más de medio siglo, en 1958, el físico estadounidense James Van Allen descubrió que el planeta Tierra estaba rodeado de iones y electrones atrapados en el campo magnético terrestre y que interferían en las comunicaciones de las sondas espaciales.

Casi a la vez, se observaron cinturones de radiación de este tipo, pero gigantes, alrededor del planeta Júpiter, a partir de ráfagas detectadas en observaciones de radio. Este año se han descubierto por primera vez fuera del Sistema Solar y ahora se han descrito con detalle, lo que muestra la universalidad de esta estructura.

Ha sido en la enana marrón LSR J1835+3259 a cuyo alrededor un equipo de científicos de la Universidad de Valencia (UV) detectó el pasado mes de enero un cinturón de radiación formado por partículas cargadas de energía y atrapadas en su intenso campo magnético. El estudio, en el que participan también investigadores del Instituto de Astrofísica de Andalucía (IAA-CSIC), la Real Academia de Ciencias Exactas, Físicas y Naturales de España (RAC) y el Donostia International Physics Center (DIPC), se publica ahora en la revista Science.

Las enanas marrones, junto a las estrellas de muy baja masa, conforman la categoría astronómica de la enanas ultrafrías, y en el caso de LSR J1835, la forma de rosquilla de su cinturón de radiación es casi una versión a escala de los conocidos cinturones de Van Allen –llamados como su descubridor– que aparecen en nuestro planeta y en Júpiter.

El diámetro de la estructura magnética alrededor de esta enana ultrafría es diez veces mayor que el de Júpiter y millones de veces más potente. En realidad, LSRJ1835 tiene 60 veces más masa que este gigante gaseoso y gira tres veces más rápido. Ambos hechos se combinan para originar un intenso campo magnético en su superficie, muy similar al irradiado en un aparato de resonancia magnética.

El nuevo cinturón de radiación de LSR J1835 se ha podido observar en longitudes de onda de radio gracias a la red europea de interferometría de línea de base muy larga (VLBI). LSRJ1835 es una enana marrón, un cuerpo de transición entre una estrella y un planeta, y se encuentra a 18 años luz. Es extremadamente pequeña y solo el uso de instrumentos de este tipo permite una visión detallada de su entorno.

cinturón de radiaciónLas dos manchas corresponden al cinturón de radiación en forma de dónut visto de canto. El contorno representa la potente luz polarizada que se origina en la aurora, cerca de la superficie de la enana marrón, situada a medio camino entre las componentes de radio del cinturón de radiación. Fuente: Joan Climent et al. (2023) / Science

Para obtener la imagen de su cinturón de radiación, la red europea de VLBI combinó antenas de radio gigantes repartidas por todo el planeta, desde España hasta China, desde Suecia hasta Sudáfrica. Todas ellas han escaneado la enana marrón de forma simultánea para lograr una resolución 50 veces mejor que la del telescopio espacial James Webb.

El extraordinario detalle de la imagen de radio de LSRJ1830 también ha desvelado más secretos del objeto. El estudio descubre que, al igual que ocurre en la Tierra y en Júpiter, el cinturón de radiación contribuye a la formación de auroras. Sin embargo, el gigantesco cinturón de radiación de LSR J1835 da lugar a auroras extrasolares de una energía tan grande que se convierten en algo más que una luminiscencia de enorme atractivo turístico. Estas auroras liberan energía de manera muy concentrada y a altísima temperatura que producen picos de emisión de radio 10 veces mayores que la emisión total de LSR J1835.

Tanto la aurora como el cinturón de radiación se pueden observar de manera simultánea, lo que proporciona una valiosa información sobre la geometría de esta enana marrón. El estudio plantea que las enanas ultrafrías que emiten radiación poseen campos magnéticos ordenados por dipolos con morfologías y auroras similares a las de gigantes gaseosos como Júpiter.

El conocimiento del entorno magnético de los exoplanetas es extremadamente importante para calibrar las posibilidades de albergar vida extraterrestre. Que la vida sea viable depende en gran medida de las características de la radiación que rodea a estos nuevos mundos.

Referencia:

J. B. Climent, J. C. Guirado, M. Pérez-Torres, J. M. Marcaide, L. Peña-Moñino (2023) Evidence for a radiation belt around a brown dwarf Science doi: 10.1126/science.adg6635

 

Edición realizada por César Tomé López a partir de materiales suministrados por la Universitat de València

El artículo Un cinturón de radiación alrededor de una enana marrón se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Por qué nacen más niños que niñas en el mundo?

lun, 2023/08/28 - 11:59

nacen más niños

En la actualidad, la población humana mundial se compone de, aproximadamente, un 50 % de hombres y un 50 % de mujeres (para ser más precisos, un 50, 5 % de hombres y un 49,5 % de mujeres). Aunque dichos porcentajes pueden variar debido a varios factores, como las guerras o la preferencia por cierto sexo de los hijos en determinados países (como en China, Pakistán, India o Vietnam), estos suelen mantenerse bastante constantes a lo largo de la historia.

Foto: Dainis Graveris / Unsplash

Ante este hecho, podríamos pensar entonces que en el nacimiento las probabilidades de que nazca un niño o una niña son también del 50 % para cada uno. Sorprendentemente, no es así. Nacen, de media, entre 103 y 107 bebés de sexo masculino por cada 100 bebés de sexo femenino. Independientemente del país y del momento de la historia (desde que se tienen registros fiables), siempre nacen más niños que niñas, lo que indica que no es un fenómeno cultural (en el que se hagan abortos selectivos por sexo), sino principalmente biológico.

Así pues, algún factor, que ocurre desde la concepción hasta el nacimiento, es responsable de esta disparidad entre sexos en los humanos. Pero, ¿cuál en concreto? Esta cuestión ha intrigado durante mucho tiempo a demógrafos, biólogos, obstetras, pediatras y estadísticos. La investigación más completa y extensa sobre esta cuestión, que se publicó en la revista Proceedings of the National Academy of Sciences en 2015, aporta conclusiones contundentes al respecto. 

Los autores estudiaron el fenómeno mediante el análisis de los datos obtenidos a partir de 140.000 embriones de entre 3 y 6 días de clínicas de fertilidad,  de 900.000 muestras de la placenta (vello coriónico) y de amniocentesis y de 30 millones de registros de abortos y de nacimientos vivos para averiguar la proporción de sexos en cada etapa del embarazo, desde la fecundación hasta el parto.

Igualdad en los embriones, pero nacen más niños

Los resultados mostraron que no hay diferencias en la proporción de embriones de sexo masculino y de sexo femenino días después de la concepción. Esto rebate una creencia ampliamente extendida fuera y dentro del mundo científico que sostenía que ya en el mismo momento de la fecundación había más probabilidades de que se produjera un cigoto de sexo masculino (XY) que uno femenino (XX).

En realidad, lo que descubrieron los investigadores es que, a lo largo del embarazo, las probabilidades de que los embriones y fetos femeninos no llegaran a término y murieran eran ligeramente mayores que para aquellos masculinos. De esta forma, desde el primer trimestre hasta el final del embarazo la proporción de embriones y fetos masculinos iba poco a poco en ascenso. No obstante sí que había dos etapas en la que la mortalidad fetal masculina era superior a la femenina: en la primera semana tras la concepción, debido a alteraciones cromosómicas, y entre las semanas 28 y 35 de embarazo.

Como diría el biólogo Theodosius Dobzhansky: «Nada tiene sentido en biología si no es a la luz de la evolución». Entonces, ¿qué sentido evolutivo tiene que el embarazo sea un proceso de mayor riesgo para los embriones y fetos femeninos, con mayor porcentaje de abortos, lo que lleva a una desproporción evidente en la frecuencia de niños y niñas tras el nacimiento? La hipótesis predominante al respecto sostiene que esto se debe a un fenómeno generalizado en los humanos: a lo largo de toda la vida, los hombres tienen mayor riesgo de morir que las mujeres por una infinidad de factores: enfermedades, accidentes, consumo de drogas, suicidios… Lo que lleva también a que tengan una menor esperanza de vida que las mujeres.

Así, aunque nazcan más niños que niñas, con el paso del tiempo las proporciones en las poblaciones de mujeres y hombres se van equilibrando hasta ser casi del 50 % para cada colectivo. Sin embargo, esto podría cambiar con la crisis climática. Varios estudios sugieren que la temperatura ambiental influye de forma diferente en las probabilidades de supervivencia de los embriones/fetos humanos según sean del sexo femenino o masculino. El incremento progresivo de las temperaturas podría llevar a una porcentaje aún mayor de nacimientos de niños con respecto al de las niñas. Es una hipótesis con un respaldo científico aún débil (otros factores podrían también estar involucrados), pero se trataría de un fenómeno radicalmente contrario a lo que sucede en las tortugas marinas. Por culpa de la crisis climática, casi todas  las tortugas que están naciendo en diferentes lugares del planeta son hembras y esto supone un gran peligro para su supervivencia.

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo ¿Por qué nacen más niños que niñas en el mundo? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El tamaño de los grupos humanos ha condicionado su progreso cultural

dim, 2023/08/27 - 11:59

La evolución cultural acumulativa característica de nuestra especie depende, en gran medida, del tamaño de las poblaciones en cuyo seno tiene lugar. Esta es la principal conclusión que se obtuvo mediante un ingenioso experimento. En el experimento –un juego en el que participaron grupos de diferente tamaño– se han sometido a contraste experimental diferentes hipótesis relativas al efecto que ejerce el tamaño de los grupos humanos sobre la evolución de la complejidad cultural. Los participantes, distribuidos en grupos de 2, 4, 8 o 16 jugadores, debían recolectar recursos de forma individual con el objetivo de incrementar su fortaleza o su condición física.

culturalFoto: Ken kahiri / Unsplash

Para ello los experimentadores les proporcionaban dos guías mediante las que se les enseñaba a realizar sendas tareas, una simple y otra compleja. Ambas eran útiles para recolectar los recursos objeto del juego. La tarea simple consistía en fabricar una punta de flecha, y la compleja, en fabricar una red, y en cada una de las 15 rondas del juego, los participantes debían hacer una cosa o la otra. A los participantes se les indicaba que si se les ocurría la manera de hacerlo, podían mejorar los procedimientos en uno y en otro caso. A lo largo de las sucesivas rondas podían ocurrir diferentes cosas, podía mejorarse el modo de hacer las tareas, se podía empeorar y podía ocurrir, incluso, que en un grupo una de las dos tareas se dejase de realizar porque ninguno de sus miembros era capaz de llevarla a cabo o porque no se tomaban la molestia de hacerlo.

Como era de esperar, resultó ser más probable que a lo largo de la secuencia de rondas se dejase de hacer la tarea compleja que la simple. Por otra parte, la probabilidad de que cualquiera de las dos tareas se acabara abandonando en el transcurso del juego era menor en los grupos más grandes que en los pequeños. Además, el mantenimiento de la tarea compleja en los grupos grandes no conllevaba una disminución de la probabilidad de mantener la tarea simple. Y como consecuencia de lo anterior, la probabilidad de que se mantuviese la diversidad cultural al final del juego era más alta cuanto mayor era el tamaño del grupo.

Por otro lado, y dado que los participantes podían introducir modificaciones en el modo en que se desempeñaban las tareas, al final de las 15 rondas había cambiado la forma en que se hacían las cosas, bien porque ronda tras ronda se producían errores por parte de los participantes, o bien porque algunos de ellos conseguían mejorar los procedimientos iniciales.

El procedimiento para fabricar la punta de flecha que proporcionaba los mejores resultados resultó, en promedio, ser mejor que el inicial en los grupos grandes y similar en los pequeños. Por lo tanto, la evolución cultural ocurrida en los grupos grandes había dado lugar a una mejora en la forma de hacer las cosas, pero no ocurrió lo mismo en los grupos pequeños. Fabricar una red era más difícil y, como he señalado antes, al final de las rondas algunos grupos la abandonaron, y entre los que la mantuvieron, disminuyó su rendimiento en los de pequeño tamaño, mientras que en los grandes se mantuvo en promedio, pero mejoró en algunos grupos.

En todo caso, la mejora en el rendimiento de las tareas estaba relacionada con el tamaño del grupo, lo que sugiere que, con carácter general, la mejora de las tecnologías preexistentes es más probable que ocurra en los grupos de tamaño más grande que en los más pequeños. Además, un resultado muy interesante del experimento es que en los grupos en que al final de las rondas el mejor individuo obtuvo una mejora en el rendimiento, el promedio del resto de los miembros del grupo también se elevó y las magnitudes de ambas subidas estaban positiva y significativamente correlacionadas. Esto indica que el mejor del grupo hacía que los demás miembros del mismo, por aprendizaje, también mejorasen su rendimiento.

En la especie humana se ha producido y se produce un proceso de acumulación cultural de gran importancia. A esa capacidad para crear conocimiento y transmitirlo, con su consiguiente acumulación progresiva, suele atribuirse el éxito demográfico de la especie, ya que gracias a ella, se han podido generar tecnologías que una sola persona no podría haber desarrollado nunca. Sin embargo, la transmisión de conocimiento no está exenta de errores, lo que, en principio, constituye un obstáculo para que se produzca la acumulación cultural citada. Y es ahí donde interviene el tamaño de los grupos humanos como variable determinante de la calidad de la evolución cultural.

Está bien caracterizado, a ese respecto, el retroceso cultural tasmano. Una vez quedaron aislados de Australia los habitantes de Tasmania, se produjo una regresión cultural como consecuencia de la cual se perdieron las tecnologías más complejas que poseían antes del aislamiento. La pérdida habría sido consecuencia de los errores con que se transmitía la información, y favorecida, probablemente, por el pequeño tamaño de la población tasmana.

Dado que al transmitirse entre individuos tecnologías complejas se suelen cometer errores, el número de efectivos de la población resulta ser una variable fundamental. En efecto, si los efectivos de la población son numerosos, ese riesgo se minimiza, pues es más probable que al menos algunos eventos de transmisión se produzcan sin errores. Si a eso se une el efecto del sesgo de prestigio, que consiste en la tendencia a imitar preferentemente a los miembros de la comunidad que tienen éxito, las personas que triunfan suelen ser las que transmiten sus conocimientos y son los principales motores de la evolución cultural. Por el contrario, cuando la población es de pequeño tamaño es menos probable que haya algún evento de transmisión cultural sin fallos, con lo que los errores se acumulan con mayor facilidad, hasta llegar a perderse las tecnologías con que contaban al principio.

Como ya he comentado, la pérdida de tecnología se produce sobre todo, con las tareas complejas, porque en su transmisión se cometen errores más fácilmente. Con las tareas simples es menos probable que ocurra eso, pues son más fáciles de aprender y de ser imitadas sin que se cometan errores.

Por otra parte, y dado que la pérdida de tecnologías supone una disminución de la diversidad cultural, las posibilidades de inventar cosas nuevas también disminuyen, lo que supone otro obstáculo a la evolución cultural acumulativa en las poblaciones de pequeño tamaño. En otras palabras, los grupos grandes favorecen el mantenimiento de la diversidad cultural y, por lo tanto, de la introducción de innovaciones.

El juego aporta, en consecuencia, respaldo experimental a la teoría que se había formulado para explicar el retroceso cultural de los tasmanos, y explica, además, el hecho de que los grupos humanos de mayor tamaño sean especialmente propensos a experimentar procesos de evolución cultural progresiva.

De lo anterior se deduce que la complejidad cultural que en ocasiones se observa en el registro arqueológico probablemente no es un indicador directo de una mayor capacidad cognitiva de los individuos que produjeron los objetos que reflejan esa complejidad, sino, quizás, la consecuencia de un mayor tamaño poblacional que pudo activar el comienzo de la evolución cultural acumulativa.

En conclusión, los cambios de tamaño de los grupos pueden dar lugar tanto a evolución cultural adaptativa como a la pérdida maladaptativa de habilidades culturales adquiridas. Ese fenómeno tuvo, seguramente, una gran importancia en nuestro pasado, y condicionó, probablemente, la tendencia humana a vivir en grupos de gran tamaño o, al menos, bien comunicados con otros grupos. En la actualidad ese efecto tiene menos importancia, pues la invención de la escritura, primero, de la imprenta de tipos móviles, después y, recientemente, de los dispositivos electrónicos de almacenamiento de información y la internet nos han ido haciendo cada vez menos dependientes del tamaño de los grupos a esos efectos. Menos dependientes, sí, pero no completamente independientes.

Fuente: Maxime Derex, Marie-Pauline Beugin, Bernard Godelle y Michel Raymond (2013): “Experimental evidence for the influence of group size on cultural complexity” Nature 503: 389-391.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El tamaño de los grupos humanos ha condicionado su progreso cultural se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El etiquetado frontal de alimentos modifica la intención de compra

ven, 2023/08/25 - 11:59

La implantación del etiquetado frontal en los alimentos es una realidad cada vez más extendida. En ese punto es donde Patricio Pérez Armijo ha centrado su tesis doctoral que lleva por título ‘Etiquetado frontal de alimentos: percepción, comprensión y cambios en la intención de compra en población española con y sin enfermedades crónicas’. El objetivo de la investigación fue comparar el efecto del etiquetado Nutri-Score (NS) y los Sellos de Advertencia (SdA) en los consumidores, tanto en la percepción y comprensión de la calidad nutricional, como en la capacidad de modificar la intención de compra en personas con y sin enfermedades crónicas no transmisibles.

etiquetado frontalDiferentes sistemas de etiquetado nutricional frontal de los envases en los países europeos. Fuente: eufic.org

Debido al incremento de las enfermedades crónicas no transmisibles (ENT), la salud pública está dirigiendo sus esfuerzos a desarrollar estrategias que contribuyan a mejorar la calidad de las dietas para su prevención, control y tratamiento. Un ejemplo de ello es la implantación del etiquetado frontal de alimentos (FOPL), logotipo complementario de declaración nutricional, que se presenta de manera clara y sencilla en la cara principal de los envases de alimentos y bebidas con el objetivo de facilitar a los consumidores la toma de decisiones alimentarias informadas.

La evidencia actual sugiere la existencia de ventajas entre los distintos sistemas de FOPL, pero son pocos los estudios que han investigado de forma objetiva el efecto que tienen para identificar alimentos saludables y modificar la intención de compra en poblaciones que presentan alguna ENT. Para llevar adelante esta tesis, se realizó un estudio transversal con la participación de 5.140 personas con y sin enfermedad crónica (38,2 % y 61,8 %, respectivamente). Mediante un cuestionario en línea, validado por expertos y dividido en tres secciones, se les pidió que informaran sobre: datos sociodemográficos y de salud; conocimientos, actitudes y percepción del etiquetado NS; y percepción y comprensión de calidad nutricional, así como cambio en la intención de compra.

“La percepción del sistema Nutri-Score fue positiva. Más del 55 % de las personas participantes consideraron que ese sistema es de utilidad para transmitir información nutricional, el 44,2 % que les permitía realizar una compra más saludable y el 24,8 % que desconfiaría en un producto sin ese etiquetado”, destaca Patricio Pérez Armijo.

A pesar de la percepción positiva, casi el 60 % de la población del estudio señaló que ese sistema contribuiría poco o nada a la estrategia para el control de la epidemia de obesidad y de las enfermedades crónicas.

Mejor los Sellos de Advertencia

Por otra parte, los Sellos de Advertencia, frente a NS, fueron identificados por la gran mayoría de los encuestados como el mejor sistema de etiquetado, porque transmiten con mayor facilidad la información nutricional. “En cuanto a las pruebas experimentales, la comprensión objetiva de la calidad nutricional de cada categoría de productos alimenticios fue significativamente mayor en la condición SdA, en comparación a la condición control y NS. Lo que demuestra que ese sistema es el mejor comprendido por la población con y sin enfermedades crónicas”, apunta el investigador.

Además, la exposición a cualquiera de los dos sistemas de etiquetado modificó la intención de compra en ambos grupos de estudio, siendo los SdA los que mostraron un mayor efecto al desalentar la compra de productos alimenticios poco saludables e incrementando aquellos más saludables.

En cuanto a la percepción de la calidad nutricional, se observó que NS construye un halo de salud en aquellos productos categorizados de alta calidad nutricional (letras A y B, en color verde), pero que su perfil nutricional corresponde a productos que contienen exceso de algún nutriente crítico.

Por otro lado, la presencia de los SdA incrementa la percepción de mala calidad nutricional de los productos alimenticios estudiados que cuentan con una construcción social de salud, mostrando así su capacidad para modificar de forma positiva los halos de salud o percepciones erróneas sobre esos alimentos, permitiendo realizar mejores decisiones alimentarias en ambos grupos de estudio.

Referencia:

PE Pérez Armijo (2022) Etiquetado frontal de alimentos: percepción, comprensión y cambios en la intención de compra en población española con y sin enfermedades crónicas. Un estudio comparativo entre Nutri-Score y sellos de advertencia. Tesis UPV/EHU https://addi.ehu.es/handle/10810/59193

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El etiquetado frontal de alimentos modifica la intención de compra se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Hormonas y agresión sexual

jeu, 2023/08/24 - 11:59

agresión

¿Es posible que los órganos endocrinos de Caín funcionaran de manera incorrecta y que, en consecuencia, él fuera tan víctima como su hermano?

Elizabeth M. Heath, New York Times, 4 diciembre 1921.

En 1980 escribía Richard Rada, de la Universidad de Nuevo México en Albuquerque, que el estudio de la conducta humana se había enriquecido con los avances de la biología y la fisiología y, en consecuencia, por el desarrollo de métodos, especialmente fármacos, para alterar y tratar los trastornos cognitivos, afectivos y conductuales. En particular, la mejora de las técnicas para medir los niveles de hormonas en plasma habían despertado un gran interés en la psicoendocrinología de la conducta, incluyendo los trastornos sexuales. En su estudio resumía brevemente los avances en la psicoendocrinología del comportamiento sexual y agresivo, y presentaba los resultados de dos estudios de andrógenos en violadores y abusadores de niños.

agresiónFoto: Clay Banks / Unsplash

Sin embargo, no hay que descartar en absoluto la hipótesis de neuromodulación múltiple de las conductas agresivas. Como explica Jesús Martín Ramírez, de la Universidad Complutense, incluso las pautas más sencillas de conducta se deben a un control neurohormonal complejo, que no conocemos en detalle y que supone que están influidas por más de una sustancia química y una complicada interacción entre ellas. No es probable que una única sustancia química sea la responsable del desencadenamiento o modulación de la agresión, a pesar de que en este texto me referiré sobre todo a la testosterona, la hormona mejor conocida.

Las sustancias no actúan en solitario y en cualquier conducta pasan por una compleja relación mutua. No solo participa más de una molécula en cualquier conducta, sino que neurotransmisores, neuromoduladores y hormonas contribuyen al control de las acciones de los otros compuestos. En conclusión, no podemos medir la agresividad en unidades de una sola sustancia neuroquímica, sea la que sea, hormona o neurotransmisor.

En la introducción, Richard Rada resumía la perspectiva histórica de los datos publicados hasta la década de los setenta del siglo pasado. Por ejemplo, mencionaba que en su discurso presidencial ante la Asociación Estadounidense de Psiquiatría en 1898, R.M. Bucke sugirió que las secreciones internas del ovario recién descubiertas podrían convertirse en un agente tóxico de virulencia desconocida y lo sugería como un factor etiológico en algunos trastornos mentales femeninos.

En 1924, Schlapp discutía el comportamiento y las enfermedades de las glándulas y afirmó que no le sorprendería que los investigadores revelaran que un tercio de todos los delincuentes convictos en ese momento padecían trastornos de las glándulas. Fue Berman, en 1932, quien indicó que se conocían datos sobre presos en Sing Sing que, en su opinión, indicaban una relación directa entre la deficiencia y el desequilibrio de las glándulas endocrinas y la actividad delictiva. Posteriormente, durante la década de 1930, Wright fue uno de los primeros en estudiar específicamente las endocrinopatías en delincuentes sexuales. Los niveles de estrógenos, andrógenos y gonadotropinas se determinaron mediante el análisis de orina. Sus estudios se centraron principalmente en los aspectos endocrinológicos de los homosexuales y de los delincuentes sexuales homosexuales, pero también incluyeron varios casos de exhibicionismo. Por entonces, el autor no conocía ningún estudio biológico de los agresores sexuales violentos.

Después de estos escasos datos iniciales, Rada añade que los estudios de la psicoendocrinología de los agresores sexuales se limitaron a informes dispersos ocasionales sobre el tratamiento de estas conductas utilizando varias drogas y hormonas que supuestamente influyen en la conducta sexual. Son las fenotiazinas, el propionato de testosterona, estrógenos, estilbesterol y la medroxiprogesterona. Además, y sin olvidar que Rada publica estas conclusiones en 1980, indica que en los setenta, había técnicas más precisas para la determinación de los niveles plasmáticos de hormonas gonadales, particularmente testosterona, lo que supuso un aumento en los estudios de sujetos en especies animales y en humanos.

Después del nacimiento, los niveles de testosterona en sangre se elevan en ambos sexos y luego caen a un nivel bajo hasta la pubertad cuando hay un aumento gradual en el varón. Después de la pubertad, el nivel medio de testosterona masculina es aproximadamente diez veces el nivel circulante de testosterona femenina. La testosterona es la hormona de la libido tanto en hombres como en mujeres y hay una caída en el nivel de testosterona en sangre con la edad. La función endocrina de los testículos se puede resumir de la siguiente manera: 1) la síntesis y secreción de testosterona es la única función importante de las células de Leydig de los testículos; 2) no hay evidencia de que los testículos secreten esteroides distintos a la testosterona en cantidades suficientes para provocar efectos biológicos significativos; y 3) la testosterona es el andrógeno más importante en sangre.

Volvamos ahora a la cuestión de la relación entre la testosterona plasmática y el comportamiento agresivo. Hay un gran debate sobre los delincuentes sexuales porque algunos de ellos y ciertos delitos sexuales son habitualmente más violentos y agresivos que otros.

Varios estudios sobre la testosterona y su relación con conductas agresivas tratan de animales de muchas especies. En general, estos estudios muestran la importancia de los andrógenos para iniciar el comportamiento agresivo y facilitar la expresión de conductas agresivas en animales adultos. Sin embargo, también indican la importancia de los factores sociales y del aprendizaje o, si se quiere, del entorno, en la expresión de la agresión en los adultos. En comparación con la literatura sobre animales, pocos estudios, y recordar que son datos de Rada publicados en 1980, han informado de la asociación del nivel de testosterona con la agresión o la violencia en humanos.

Estos estudios han sido revisados recientemente con cierto detalle. Por ejemplo, la producción de testosterona está correlacionada con una medida de la agresión basada en tests de psicología en hombres jóvenes. También hay relación entre los niveles de testosterona en sangre, las peleas y agresiones verbales en la cárcel, y las conductas delictivas en el pasado en reclusos varones jóvenes. Y los presos con antecedentes de delitos más violentos y agresivos en la adolescencia tenían un nivel de testosterona en sangre más alto que los presos sin dicho historial.

Otra relación interesante es la encontrada entre la testosterona en sangre y la agresividad en jugadores de hockey hielo que se estudió en jugadores universitarios. Los entrenadores de los equipos calificaron de forma independiente a cada jugador en una escala de siete ítems diseñada para evaluar una variedad de comportamientos relacionados con la agresividad. Si bien seis de los siete elementos de agresividad mostraron correlaciones positivas con la testosterona en sangre, solo un elemento, la respuesta a la amenaza, se correlacionó significativamente. De mayor importancia que los datos preliminares de este estudio es la demostración de la viabilidad de utilizar los deportes competitivos como modelo para estudiar el comportamiento agresivo.

En conclusión, los estudios en nuestra especie y en animales sugieren una asociación entre la testosterona en sangre y la agresión. Sin embargo, la interpretación de estos hallazgos es difícil por varias razones. Primero, los hallazgos en animales pueden ser de poca relevancia para el estudio de la agresión en humanos. Además, se utilizan tests de auto evaluación para detectar la agresividad y quizá son una medida tosca y no discriminan adecuadamente entre el sentimiento de agresividad, la creencia del sujeto de que es agresivo y la conducta real agresiva. Además, estamos comenzando a comprender cómo ciertos factores y, entre ellos, el estrés, la edad, la hora del día, influyen en el nivel de testosterona en sangre. Y se desconoce en qué medida estos factores también interactúan con variables complejas como son el comportamiento sexual y agresivo. Finalmente y es muy importante, los estudios que indican una correlación entre la testosterona en sangre y la agresión no prueban una relación de causa y efecto. Sin embargo, el aumento de testosterona reduce las respuestas al miedo y, también, la sensibilidad al estrés en el cerebro, y altera la capacidad de evitar las amenazas pues reduce el miedo a las consecuencias. Incluso la testosterona, cuando alcanza determinados niveles de concentración, hasta puede provocar placer en el hombre y, por tanto, dificulta el control. Parte del cerebro disfruta al enfadarse y, también, al detectar el enfado en la mujer.

Es evidente que desde hace un tiempo hay interés en la relación entre la testosterona en sangre y el comportamiento sexual y agresivo pero, sin embargo, hay relativamente pocos estudios centrados en los andrógenos plasmáticos en los delincuentes sexuales. Por ejemplo, en 1975 se publicó un estudio sobre el estado endocrino de veinticuatro agresores sexuales masculinos, incluidos dieciséis pedófilos, siete violadores y un exhibicionista. Tres de los delincuentes tenían niveles de testosterona por encima del rango normal y los otros estaban dentro de los límites normales.

El grupo de Richard Rada publicó en la década de los setenta varios estudios sobre los niveles de testosterona en agresores sexuales violentos y no violentos. Midieron la hormona testosterona en sangre en cincuenta y dos violadores y doce abusadores de niños. Los violadores fueron clasificados según el grado de violencia al cometer la violación. Los rangos y las medias del nivel de testosterona en sangre de los violadores y abusadores de niños estaban dentro de los límites normales. El grupo de violadores que se consideró más violento tenía un nivel medio de testosterona más alto que el normal y que los abusadores de niños y otros violadores del estudio. No hubo correlación entre la edad, la raza o la duración del encarcelamiento y el nivel de testosterona en plasma. El nivel más alto de testosterona se encontró en el único agresor que asesinó a la víctima durante la violación. En conclusión, los violadores y los abusadores violentos de niños tenían un nivel de testosterona en sangre más alto que los abusadores de niños no violentos.

Además de la testosterona, otras hormonas y neurotransmisores participan en lo que Louann Brizendine, de la Universidad de California en San Francisco, denomina como ira autocatalítica o que se retroalimenta, típica de los hombres a los que les cuesta parar una vez que se enfadan. O de la neuromodulación múltiple que ha presentado Jesús Martínez. Esta ira se alimenta, además de con la testosterona, con la vasopresina y el cortisol. En realidad, la ira con la pareja no altera al hombre pues considera que no supone ningún peligro para nadie.

Los datos anteriores sobre agresiones sexuales y hormonas en sangre llevan a buscar tratamientos adecuados. W.L. Marshall y sus colegas, de la Universidad de la Reina de Ontario, en Canadá, han revisado los métodos utilizados para evaluar el tratamiento de los delincuentes sexuales y luego marcan los criterios que evaluarán la eficacia de los tratamientos, en particular la reincidencia o la comisión de nuevos delitos sexuales después de los tratamientos. Plantean varias modalidades de tratamiento para los delincuentes sexuales. Las principales categorías de tratamiento son los tratamientos físicos como psicocirugía, castración y tratamientos farmacológicos. En conclusión, parece que la evidencia empírica no es suficientemente confiable para establecer la efectividad del tratamiento con delincuentes sexuales. Parece que los programas, sin embargo, funcionan mejor con abusadores de niños y exhibicionistas que con violadores. 

Cuando tratan de agresión sexual y hormonas, Marshall y sus colegas mencionan la castración física, muy empleada en Europa. Desde la década de los cincuenta a los setenta del siglo pasado, 102 hombres fueron castrados en Noruega, 121 en Suiza, 900 en Dinamarca y 932 en Alemania. Entre los castrados solo reinciden desde el 0% al 7.4%. Sin embargo, faltan muchos datos ciertos para confirmar la eficacia de este método. Los tratamientos farmacológicos antihormonas parecen funcionar mejor para reducir la actividad sexual a niveles controlables.

Sobre la castración química se celebró un debate en el Parlamento de Alemania en los años sesenta, con la asistencia y asesoramiento de expertos. Como cuenta José Ramón Alonso, de la Universidad de Salamanca, fue Ursula Laschet la que comentó que la tercera parte de los participantes en los ensayos habían acudido voluntariamente por presentar problemas de hipersexualidad. Y para Werner Krause, de la Universidad de Hamburgo, hay adictos al sexo que no cometen agresiones sexuales y, sin embargo, hay otros que llegan a la violación, y más que un problema sexual la causa es el mal control de impulsos e inhibiciones.

Referencias:

Alonso, J.R. 2022. El cerebro enamorado. Los mecanismos neuronales del amor. Ed. Planeta. Barcelona. 223 pp.

Brizendine, L. 2013. El cerebro masculino. Las claves científicas de cómo piensan los hombres y los niños. RBA Libros. Barcelona. 299 pp.

Epstein, R.H. 2021. El poder de las hormonas. Historias asombrosas de las sustancias que lo controlan prácticamente todo. Ed. Planeta. Barcelona. 334 pp.

Jewkes, R.U. 2002. Intimate partner violence. Lancet 359: 1423-1429.

Marshall, W.L. et al. 1991. Treatment outcome with sex offenders. Clinical Psychology Review 11: 465-485.

Martínez, J.M. 2006. Bioquímica de la agresión. Psicopatología Clínica, Legal y Forense 6: 43-66.

Rada, R.T. 1980. Plasma androgens and the sex offender. Bulletin of the American Academy of Psychiatry and Law 8: 456-484.

Vincent, J.-D. 1988. Biología de las pasiones. Anagrama. Barcelona. 335 pp.

Vincent, L. 2022. Neurobiología del amor. Los secretos del enamoramiento y la bioquímica del deseo. Ed. Gedisa. Barcelona. 223 pp.

Para saber más:

Testosterona
Testosterona y paternidad
Los asesinos

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Hormonas y agresión sexual se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Conjuntos de baldosas auto-embaldosadas

mer, 2023/08/23 - 11:59

auto-embaldosadas
En la anterior entrada del Cuaderno de Cultura Científica titulada Los reptiles geométricos estuvimos hablando de un interesante tipo de figuras geométricas conocidas con el nombre de repiteselas, o reptiles geométricos.

La figura geométrica de la “esfinge” es un ejemplo de repitesela, o reptil geométrico

 

Una repitesela, o reptil geométrico, si jugamos con el término en inglés con el que bautizó a estos objetos geométricos el matemático e ingeniero estadounidense Solomon W. Golomb, es una forma geométrica plana (poligonal) que puede ser diseccionada en copias idénticas de ella misma, como en el anterior ejemplo en el que la figura de la «esfinge» se descompone en cuatro copias (lo que se conoce como el orden de la repitesela) de sí misma. Recordemos también que el nombre de “rep-tiles” (repiteselas) viene de la expresión “self-replicating tiles” (teselas o baldosas auto-replicantes), haciendo un gracioso juego de palabras con el grupo de animales que reciben el nombre de reptiles.

La figura geométrica del “pez mirando hacia arriba” es un ejemplo de repitesela, o reptil geométrico, de orden nueve

 

El ingeniero electrónico británico, apasionado de la matemática recreativa,  (self-tiling tile sets, en inglés, que acorta a “setiset”) o también podemos traducirlo como “conjunto de teselas auto-teseladas”.

Cuadrados mágicos geométricos

Antes de entrar en la definición y ejemplos de ese nuevo concepto, recordemos que Lee Sallows fue quien introdujo el concepto de cuadrado mágico geométrico sobre el que ya hemos escrito en el Cuaderno de Cultura Científica, en concreto, en la entrada Cuadrados mágicos geométricos. Como el concepto de conjunto de baldosas auto-embaldosadas tiene elementos de conexión con el de cuadrado mágico geométrico, vamos a recordar en qué consiste este (para el caso sencillo del orden 3) y mostrar un par de ejemplos.

Un cuadrado mágico geométrico (también llamado cuadrado geomágico) de orden 3 está formando por una cuadrícula 3 x 3 de formas geométricas tales que se pueden unir las formas de cada fila, cada columna o cada diagonal principal para formar la misma figura geométrica, llamada forma objetivo.

Ejemplo de cuadrado mágico geométrico de orden 3, construido por Lee Sallows, con la forma objetivo, obtenida por filas, columnas y diagonales principales, igual a un cuadrado menos una esquina

 

En el ejemplo anterior las nueve formas geométricas de la retícula 3 x 3 son poliominós, es decir, figuras geométricas planas formadas conectando dos o más cuadrados por alguno de sus lados (para más información sobre los poliominós se pueden leer las entradas Embaldosando con L-triominós (Un ejemplo de demostración por inducción) y Tetris, embaldosados y demostraciones). Sin embargo, las figuras geométricas de la retícula pueden ser otro tipo de poliformas, como los polidiamantes, que son como los poliominós pero con triángulos equiláteros en lugar de cuadrados (un ejemplo de cuadrado geomágico con polidiamantes se muestra en la siguiente imagen) o formas más generales (ejemplos pueden verse en la entrada Cuadrados mágicos geométricos o en la página web Geomagic squares de Lee Sallows).

Ejemplo de cuadrado geomágico, utilizando polidiamantes, construida por Lee Sallows. Imagen de la página web Geomagic squaresConjuntos de baldosas auto-embaldosadas

En el artículo On Self-Tiling Tile Sets (Sobre conjuntos de teselas auto-teseladas), publicado en la revista Mathematics Magazine, su autor, Lee Sallows, define los conjuntos de baldosas auto-embaldosadas de la siguiente forma.

Un conjunto de baldosas auto-embaldosadas de orden n es un conjunto de n formas geométricas planas distintas (no similares), que pueden ser diseccionadas en copias idénticas de ellas mismas o, equivalentemente, que pueden unirse para formar una copia más grande de cada una de ellas.

El primer ejemplo con el que su autor ilustra este nuevo concepto es el siguiente conjunto de baldosas auto-embaldosadas de orden 4 formado por poliominós, en concreto, por cuatro hexominós.

En la siguiente imagen se muestra como estos cuatro hexominós pueden unirse para formar una copia más grande de cada uno de ellos, luego son un conjunto de baldosas auto-embaldosadas de orden 4.

Un ejemplo de conjunto de baldosas auto-embaldosadas de orden 2

En ese primer artículo, On Self-Tiling Tile Sets (Sobre conjuntos de teselas auto-teseladas), Sallows se plantea buscar un ejemplo de conjunto de baldosas auto-embaldosadas de orden 2, es decir, formado por dos formas geométricas. En concreto, busca ejemplos en los que las figuras geométricas sean triángulos, lo cual motiva que además las dos piezas (que son los dos triángulos) se puedan unir por un vértice “bisagra” que permite transformar uno de los triángulos en el otro (iguales a las dos piezas originales pero más grandes) girando las piezas alrededor de la bisagra.

Sallows construye una familia de conjuntos de baldosas auto-embaldosadas de orden 2 formada por parejas de triángulos, que pueden verse en la siguiente imagen.

Familia de conjuntos de baldosas auto-embaldosadas de orden 2 formada por parejas de triángulos, así como el vértice bisagra que permite transformar un triángulo en el otro (A en B, o B en A, en la imagen). Imagen extraída del artículo On Self-Tiling Tile Sets de Lee Sallows

Dentro de esa familia se pueden considerar dos casos interesantes, cuando uno de los triángulos (el triángulo A en la imagen) es un triángulo rectángulo o un triángulo isósceles, que mostramos en las siguientes imágenes.

Conjunto de baldosas auto-embaldosadas de orden 2 formada por dos triángulos, uno de ellos rectángulo. Imagen extraída del artículo On Self-Tiling Tile Sets de Lee SallowsConjunto de baldosas auto-embaldosadas de orden 2 formada por dos triángulos, uno de ellos isósceles. Imagen extraída del artículo On Self-Tiling Tile Sets de Lee Sallows

Tras la construcción de estos ejemplos, Lee Sallows va más allá, como podemos leer en su página web, en la parte dedicada a los conjuntos de baldosas auto-embaldosadas (Self-Tiling Tile Sets). Este ingeniero electrónico, apasionado de la matemática recreativa, construye un conjunto de baldosas auto-embaldosadas de orden 4, formado por cuatro triángulos conectados con bisagras, de manera que los dos primeros y los dos últimos forman dos conjuntos de baldosas auto-embaldosadas de orden 2, que se muestra en la siguiente imagen.

Conjunto de baldosas auto-embaldosadas de orden 4, formado por cuatro triángulos conectados con bisagras, de manera que los dos primeros y los dos últimos forman dos conjuntos de baldosas auto-embaldosadas de orden 2Más ejemplos de conjunto de baldosas auto-embaldosadas

Vamos a terminar esta entrada del Cuaderno de Cultura Científica con algunos ejemplos más de conjuntos de baldosas auto-embaldosadas de diferentes órdenes. El primer ejemplo es un ejemplo del artículo More On Self-Tiling Tile Sets (Más sobre conjuntos de teselas auto-teseladas) y es un conjunto de baldosas auto-embaldosadas de orden 4, formado por cuatro piezas geométricas que no son ni triángulos, ni poliformas (poliominós, poliodiamantes u otras).

Conjunto de baldosas auto-embaldosadas de orden 4. Imagen extraída del artículo More On Self-Tiling Tile Sets de Lee Sallows

En el artículo More On Self-Tiling Tile Sets (Más sobre conjuntos de teselas auto-teseladas) Sallows nos muestra que se pueden obtener conjuntos de baldosas auto-embaldosadas a partir de las repiteselas. El siguiente ejemplo es un conjunto de baldosas auto-embaldosadas de orden 4, construido a partir del reptil geométrico “esfinge”, con el que iniciábamos esta entrada. Lo primero que hace es diseccionar la figura de la esfinge (formada por cuatro copias de ella misma), en tres parejas de figuras geométricas planas, que mostramos a continuación.

Tres disecciones de la figura de la esfinge (formada por cuatro copias de ella misma), en dos parejas de figuras geométricas planas, A, B, C, D, E. F

De donde, las cuatro figuras geométricas planas A, B, C, D forman un conjunto de baldosas auto-embaldosadas de orden 4, como se muestra a continuación.

Las cuatro figuras geométricas planas A, B, C, D forman un conjunto de baldosas auto-embaldosadas de orden 4

Lo mismo ocurre para los dos grupos de cuatro figuras geométricas planas A, B, E, F y C, D, E, F.

Este tipo de construcción podemos realizarla para otras repiteselas. Terminemos con un el ejemplo del triángulo rectángulo isósceles, que es un sencillo reptil geométrico de orden 4.

El triángulo rectángulo isósceles es un sencillo reptil geométrico de orden 4

A partir de aquí podemos realizar dos disecciones del triángulo rectángulo isósceles como unión de cuatro pequeños triángulos rectángulos isósceles (la tercera pareja posible es igual a una de ellas, por eso no la incluimos).

Dos disecciones del triángulo rectángulo isósceles como unión de cuatro pequeños triángulos rectángulos isósceles y las cuatro figuras geométricas que se generan, que son un conjunto de baldosas auto-embaldosadas de orden 4

Y efectivamente, podemos comprobar que, a partir de esas cuatro figuras geométricas, obtenidas como disecciones del triángulo rectángulo isósceles, podemos unirlas formando una copia más grande de cada una de ellas, como se muestra en la siguiente imagen.

Dos disecciones del triángulo rectángulo isósceles como unión de cuatro pequeños triángulos rectángulos isósceles y las cuatro figuras geométricas que se generan, que son un conjunto de baldosas auto-embaldosadas de orden 4

 

Bibliografía

1.- Charles Dudley Langford, Uses of a Geometric Puzzle, The Mathematical Gazette 24 (260), pp. 209–211, 1940.

2.- Solomon W. Golomb, Replicating figures in the plane, The Mathematical Gazette 48 (366), pp- 403–412, 1964.

3.- Martin Gardner, The Unexpected Hanging and Other Mathematical Diversions (capítulo 19: Rep-Tiles, Replicating Figures on the Plane), Chicago University Press, 1991.

4.- Lee C. F. Sallows, On Self-Tiling Tile Sets, Mathematics Magazine Vol. 85, No. 5, pp. 323–333, 2012.

5.- Lee C. F. Sallows, More On Self-Tiling Tile Sets, Mathematics Magazine, Vol. 87, No. 2, pp. 100–112, 2014.

6.- Página web de Lee Sallows

El artículo Conjuntos de baldosas auto-embaldosadas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Esperar el autobús en un frigorífico

mar, 2023/08/22 - 11:59

Un equipo de investigación de la Escuela Superior de Ingenieros de la Universidad de Sevilla ha diseñado una parada de autobús bioclimática que reduce hasta 20 grados la temperatura de su entorno. Esta marquesina ‘inteligente’ detecta cuándo hay un usuario esperando y activa su sistema de acondicionamiento térmico (parecido al de un frigorífico), que rebaja el calor extremo del verano para que las personas que alberga se encuentren más cómodas y seguras. Las investigadoras confirman que el primer prototipo se instalará en Sevilla el próximo año.

Un diseño o arquitectura bioclimática es aquella que, por un lado, aprovecha las condiciones ambientales y elementos naturales para lograr que se integre de forma armoniosa con el entorno. Por otro lado, posee un ambiente interior confortable, que requiere un menor consumo energético. La marquesina que proponen las investigadoras está basada en este principio y funciona mediante radiación térmica, esto es, una forma de transferencia de calor o frío que ocurre cuando un objeto emite ondas electromagnéticas debido a su temperatura. “No es como un aire acondicionado, que produce aire frío; sino que la propia estructura de la parada de autobús emite frescor, como ocurre con los frigoríficos”, explica el investigador de la Universidad de Sevilla José Sánchez.

En el artículo que recoge los resultados, las científicas explican que la marquesina está compuesta por tres partes. En primer lugar, un tanque subterráneo donde se almacena agua depurada. Este elemento está conectado a la marquesina, o sea, la estructura de la parada de autobús, mediante tubos que recorren su interior y hasta el techo, lugar donde hay instalados sensores y placas solares. “A pesar de que consta de más elementos, su producción es más económica que las paradas de autobús comunes”, añade José Sánchez.

Marquesina ‘inteligente’

La marquesina posee un sistema de autosuficiencia que produce electricidad y agua fría, además de una serie de sensores que perciben la temperatura exterior, la presencia humana y el clima del entorno, de modo que ‘toma decisiones’ de forma autónoma. Por ejemplo, detendría su funcionamiento en caso de que bajaran las temperaturas.

Las investigadoras explican que, por la noche, el agua del tanque asciende hacia las placas solares, se enfría y retorna al tanque subterráneo, donde se almacena y mantiene el frescor. Cuando la parada detecta mediante sus sensores la presencia de una o varias personas, activa su sistema de enfriamiento y el agua recorre el interior de la estructura, expulsando el frío por el metal de la marquesina mediante unos poros muy pequeños, del tamaño aproximado de un garbanzo. Durante el día, los paneles fotovoltaicos acumulan la energía que impulsa el agua y el enfriamiento tiene una duración de 10 a 20 minutos, periodo máximo que un usuario suele esperar el autobús.

Según comentan las investigadoras, se trata de un espacio desarrollado por arquitectas e ingenieras, de modo que integra el diseño exterior de las paradas comunes y las funcionalidades automáticas e ‘inteligentes’. El prototipo está ideado como un refugio climático, de modo que ejercería su función de enfriamiento durante las horas más calurosas del verano en el sur, de 13:00 a 19:00 horas. “Si la temperatura alcanza, por ejemplo, los 42 grados centígrados, la sensación térmica en el interior de la marquesina sería aproximadamente de 23”, señala José Sánchez.

Referencia:

MPaz Montero Gutiérrez, Teresa Palomo Amores, Rafael Monge Palma, MCarmen Guerrero Delgado, José Sánchez Ramos, Servando Álvarez Domíguez (2023) Thermal conditioning of short-term stays. Radiant solution in a bus stop in Seville Science Talks doi: 10.1016/j.sctalk.2023.100237.

Edición realizada por César Tomé López a partir de materiales suministrados por la Fundación Descubre

El artículo Esperar el autobús en un frigorífico se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Un archipiélago volcánico para Marte

lun, 2023/08/21 - 11:59

Cuando hoy miramos el yermo paisaje del planeta Marte, a pesar de todas las pruebas que tenemos, cuesta mucho visualizar como era hace tres o cuatro mil millones de años: el planeta contaba con una atmósfera mucho más densa y un océano cubría su gran cuenca boreal, con ríos recorriendo su superficie y lagos donde ahora vemos algunos de sus cráteres. Pero todavía podemos llevar nuestra imaginación un paso más allá y esbozar un planeta que todavía, si cabe, nos recuerde más al nuestro. Un estudio recién publicado plantea que Olympus Mons podría ser el equivalente marciano a un archipiélago de origen volcánico terráqueo, como las islas de Hawái o las Azores, por ejemplo.

Simulación del océano de Marte. Cortesía del Laboratorio de Visualización Científica del Goddard Space Flight Center.

Estas islas tienen su origen en la existencia de puntos calientes en el manto, bajo la corteza oceánica, que alimentan una actividad volcánica capaz de construir los edificios volcánicos que formarían estas islas a partir de sucesivas erupciones a lo largo del tiempo.

Pero volvamos al caso de Marte y analicemos las monstruosas dimensiones de esta isla, que desde luego empequeñecería cualquiera de las islas oceánicas terrestres. La isla formada por Olympus Mons tendría un diámetro de unos 600 kilómetros -de tal manera que si la colocásemos dentro de la península Ibérica cabría relativamente justa- y una altura que supera los 20 kilómetros de altura desde la base, mucho más que cualquier caso de los existentes, tanto que más que duplicaría, por ejemplo, a la altura de la isla de Hawaii desde su base.

El tamaño descomunal de esta isla podría deberse a dos factores principales: Por un lado, la inexistencia de una tectónica de placas que hiciese que la corteza se fuese moviendo sobre el punto caliente. Este factor provocaría que la lava fuese surgiendo por una zona muy concreta todo el iempo, pero en la Tierra, por ejemplo, como la corteza va moviéndose, en el caso de los océanos lo que se forma es un rosario de islas con distintas edades porque, aunque el punto caliente permanezca estático, la corteza si se ha movido sobre este, dando la apariencia de que el magma ha surgido por puntos diferentes.

archipiélagoModelo tridimensional de Olympus Mons donde se puede apreciar perfectamente la zona del escarpe y, sobre esta, la del edificio volcánico sobre el nivel del “océano”, mucho más suave. Cortesía de NASA/JPL.

El otro factor para tener en cuenta es la gravedad marciana, que aproximadamente equivale a un 40% de la gravedad terrestre. Esto podría provocar que fuesen estables edificios volcánicos mucho más altos que los que hay en nuestro planeta y que no se “desmontaran” tan fácilmente, aunque en las laderas de Olympus Mons se pueden apreciar grandes cicatrices de deslizamientos cuyas causas requieren un análisis en detalle.

¿Cómo han llegado a la conclusión de que Olympus Mons pudo ser una enorme isla? Uno de los puntos clave de este estudio se sitúa en la morfología del edificio volcánico. Cuando miramos las imágenes vemos dos partes bien diferenciadas: una inferior con un escarpe muy marcado que tiene una altura de unos 6 kilómetros y sobre esta una forma mucho más suave, similar a la que vemos en los volcanes de escudo terrestre. En este estudio se interpreta el escarpe como el punto donde aproximadamente estaría la línea de costa o el nivel del mar y donde la lava se encontraría con ese gran océano boreal.

En nuestro planeta las islas oceánicas también muestran esta morfología dual cuya frontera es la altura del agua. Anteriormente, el escarpe se había interpretado de distintas maneras, fuese como una forma creada por los deslizamientos que se pueden dar en las laderas por la simple inestabilidad del edificio volcánico, por el contacto con un océano en ocasiones congelado, pero con la capacidad de erosionar y la interacción entre la lava y el hielo o también por la acción del agua líquida.

Pero todo no acaba aquí. El escarpe mide algo más de seis kilómetros de altura y, desde luego, no parece que el océano de Marte en ningún momento haya tenido una profundidad tan grande… entonces, ¿cómo podríamos resolver esta aparente incongruencia con las pruebas que marcan antiguas líneas de costa a una cota mucho más baja? El rápido crecimiento del edificio volcánico podría haber obligado a la corteza a flexionarse, generando una topografía deprimida alrededor de la base del volcán y, por lo tanto, justificando la altura de la columna del agua en esa zona sin necesidad de invocar a la existencia de un océano mucho más profundo en toda la cuenca boreal que el que ofrece cualquier modelo sobre el pasado de Marte.

archipiélagoReconstrucción de dos posibles líneas de costa e incluso de los sedimentos depositados por un paleotsunami sobre Marte y que demuestran la dinámica de la línea de costa marciana en el pasado. Estudiar la posible altura de los océanos sobre los edificios volcánicos podría ayudarnos a reconocer ciclos y la altura del agua en distintos momentos. Cortesía de Alexis Rodríguez.

Este estudio tiene muchas ramificaciones, no únicamente a nivel geológico, sino que estudiando las distintas rupturas de pendiente que se observan en el escarpe podríamos conocer distintas alturas que tuvo la columna de agua e intentar usarlo como un marcador para conocer mejor la historia del océano de Marte a lo largo del tiempo, algo que tiene unas grandes implicaciones desde el punto de vista de la astrobiología, ya que conocer la cantidad de agua y su tiempo de permanencia en estado líquido sobre la superficie de Marte nos permitiría hacernos una mejor idea sobre cómo ha cambiado la habitabilidad de Marte a lo largo del tiempo.

Además, podría intentar extenderse este estudio a otros de los volcanes presentes en la región de Tarsis, cuyas morfologías también podrían ser útiles con este método de estudio e intentar comparar resultados e incluso estudiar el resto de edificios volcánicos fueron también islas en el pasado.

Pero todavía nos queda un hándicap que resolver en el futuro: Y es que para hacer bien este último trabajo probablemente deberíamos también muestrear las rocas que forman estos volcanes, algo que nos permitiría datarlas y conocer con precisión la fecha de los distintos episodios de crecimiento de estos volcanes e intentar dibujar las antiguas líneas de costa, pero desde luego es un reto que ahora mismo es imposible a nivel técnico, pero quien sabe si en el futuro -ojalá no dentro de muchas décadas- contemos con los medios y la tecnología necesarios para poder estudiar en detalle estos lugares.

Y sin duda, estudios como estos ponen de manifiesto que, a pesar de las diferencias actuales, Marte, en su juventud, quizás no fuimos tan distintos.

Referencias:

Hildenbrand, A., H. Zeyen, F. Schmidt, S. Bouley, F. Costard, P.Y. Gillot, F.O. Marques, y X. Quidelleur. (2023) A Giant Volcanic Island in an Early Martian Ocean? Earth and Planetary Science Letters doi: 10.1016/j.epsl.2023.118302.

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Un archipiélago volcánico para Marte se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Pages