Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 18 min 41 sec ago

Alan Turing y el poder del pensamiento negativo

Tue, 2023/09/19 - 11:59

Las pruebas matemáticas basadas en una técnica llamada diagonalización pueden ser implacablemente contrarias, pero ayudan a revelar los límites de los algoritmos.

Un artículo de Ben Brubaker. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

diagonalizaciónIlustración Kristina Armitage / Quanta Magazine

Los algoritmos se han vuelto omnipresentes. Optimizan nuestros viajes, procesan pagos y coordinan el flujo del tráfico en Internet. Parece que para cada problema que puede articularse en términos matemáticos precisos, hay un algoritmo que puede resolverlo, al menos en principio.

Pero ese no es el caso: algunos problemas aparentemente simples nunca pueden resolverse algorítmicamente. El científico informático pionero Alan Turing demostró la existencia de estos problemas “incomputables” hace casi un siglo, en el mismo artículo en el que formuló el modelo matemático de computación que lanzó la informática moderna.

Turing demostró este resultado innovador utilizando una estrategia contraria a la intuición: definió un problema que simplemente rechaza todo intento de resolverlo.

«Te pregunto qué estás haciendo y luego digo: ‘No, voy a hacer algo diferente'», explica Rahul Ilango, un estudiante de posgrado en el Instituto de Tecnología de Massachusetts que estudia informática teórica.

La estrategia de Turing se basa en una técnica matemática llamada diagonalización que tiene una historia ilustre. He aquí una explicación simplificada de la lógica de su prueba.

Teoría de cadenas

La diagonalización surge de un truco inteligente para resolver un problema rutinario que involucra cadenas de bits, cada uno de los cuales puede ser 0 o 1. Dada una lista de estas cadenas, todas igualmente largas, ¿se puede generar una nueva cadena que no esté en la lista?

La estrategia más sencilla es considerar cada cadena posible por turno. Supongamos que tienes cinco cadenas, cada una de cinco bits de longitud. Comienza repasando la lista en busca de 00000. Si no está, puedes parar; si está, pasa a 00001 y repite el proceso. Esto es bastante simple, pero lento para listas largas de cadenas largas.

La diagonalización es un enfoque alternativo que construye poco a poco una cadena nueva. Comienza con el primer bit de la primera cadena de la lista e inviértelo; ese será el primer bit de tu nueva cadena. Luego invierte el segundo bit de la segunda cadena y utilízalo como el segundo bit de la nueva cadena, y repite hasta llegar al final de la lista. Los bits que inviertes garantizan que la nueva cadena difiera de cada cadena de la lista original en al menos un lugar. (También forman una línea diagonal a través de la lista de cadenas, lo que da nombre a la técnica).

diagonalizaciónIlustración: Merrill Sherman / Quanta Magazine

La diagonalización sólo necesita examinar un bit de cada cadena de la lista, por lo que suele ser mucho más rápido que otros métodos. Pero su verdadero poder reside en lo bien que se comporta con el infinito.

“Las cadenas ahora pueden ser infinitas; la lista puede ser infinita; todavía funciona”, afirma Ryan Williams, científico informático teórico del MIT.

La primera persona en aprovechar este poder fue Georg Cantor, el fundador del subcampo matemático de la teoría de conjuntos. En 1873, Cantor utilizó la diagonalización para demostrar que algunos infinitos son más grandes que otros. Seis décadas después, Turing adaptó la versión de Cantor de la diagonalización a la teoría de la computación, dándole un tono claramente a contracorriente.

El juego de la limitación [*]

Turing quería demostrar la existencia de problemas matemáticos que ningún algoritmo puede resolver, es decir, problemas con entradas y salidas bien definidas pero sin un procedimiento infalible para pasar de la entrada a la salida. Hizo que esta vaga tarea fuera más manejable al centrarse exclusivamente en problemas de decisión, donde la entrada puede ser cualquier cadena de ceros y unos y la salida es 0 o 1.

Determinar si un número es primo (divisible sólo por 1 y por sí mismo) es un ejemplo de un problema de decisión: dada una cadena de entrada que representa un número, la salida correcta es 1 si el número es primo y 0 si no lo es. Otro ejemplo es comprobar los programas informáticos en busca de errores de sintaxis (el equivalente a errores gramaticales). Aquí, las cadenas de entrada representan código para diferentes programas (todos los programas se pueden representar de esta manera, ya que así es como se almacenan y ejecutan en los ordenadores) y el objetivo es generar 1 si el código contiene un error de sintaxis y 0 si no lo contiene.

Un algoritmo resuelve un problema sólo si produce la salida correcta para cada entrada posible; si falla aunque sea una vez, no es un algoritmo generalista para ese problema. Normalmente, primero especificarías el problema que deseas resolver y luego intentarías encontrar un algoritmo que lo resuelva. Turing, en busca de problemas irresolubles, le dio la vuelta a esta lógica: imaginó una lista infinita de todos los algoritmos posibles y utilizó la diagonalización para construir un problema pertinaz que frustraría todos los algoritmos de la lista.

Imagina un juego amañado de ’20 preguntas’ [**], donde en lugar de comenzar con un objeto particular en mente, quien responde inventa una excusa para decir no a cada pregunta. Al final del juego, han descrito un objeto definido completamente por las cualidades que le faltan.

La prueba de diagonalización de Turing es una versión de este juego en el que las preguntas recorren la lista infinita de algoritmos posibles, preguntando repetidamente: «¿Puede este algoritmo resolver el problema que nos gustaría demostrar que es incomputable?»

«Es una especie de ‘preguntas infinitas'», comenta Williams.

Para ganar el juego Turing necesitaba elaborar un problema en el que la respuesta fuera no para cada algoritmo. Eso significaba identificar una entrada particular que hiciese que el primer algoritmo generase una respuesta incorrecta, otra entrada que hiciese que el segundo fallase, y así sucesivamente. Encontró esas entradas especiales utilizando un truco similar al que Kurt Gödel había utilizado recientemente para demostrar que afirmaciones autorreferenciales como “esta afirmación no es demostrable” significaban problemas para los fundamentos de las matemáticas.

La idea clave fue que cada algoritmo (o programa) se puede representar como una cadena de ceros y unos. Eso significa, como en el ejemplo del programa de comprobación de errores, que un algoritmo puede tomar el código de otro algoritmo como entrada. En principio, un algoritmo puede incluso tomar su propio código como entrada.

Con esta idea, podemos definir un problema no computable como el de la prueba de Turing: “Dada una cadena de entrada que representa el código de un algoritmo, genera 1 si ese algoritmo genera 0 cuando su propio código es la entrada; de lo contrario, la salida es 0”. Cada algoritmo que intente resolver este problema producirá una salida incorrecta en al menos una entrada, es decir, la entrada correspondiente a su propio código. Eso significa que este perverso problema no puede resolverse mediante ningún algoritmo.

Lo que la negación no puede hacer

Los informáticos aún no habían terminado con la diagonalización. En 1965, Juris Hartmanis y Richard Stearns adaptaron el argumento de Turing para demostrar que no todos los problemas computables son iguales: algunos son intrínsecamente más difíciles que otros. Este resultado lanzó el campo de la teoría de la complejidad computacional, que estudia la dificultad de los problemas computacionales.

Pero la teoría de la complejidad también reveló los límites del método a la contra de Turing. En 1975, Theodore Baker, John Gill y Robert Solovay demostraron que muchas cuestiones abiertas en la teoría de la complejidad nunca pueden resolverse únicamente mediante la diagonalización. La principal de ellas es el famoso problema de las clases de complejidad P y NP, que pregunta si todos los problemas con soluciones fácilmente comprobables también son fáciles de resolver con el algoritmo adecuado.

Los puntos ciegos de la diagonalización son una consecuencia directa del alto nivel de abstracción que la hace tan poderosa. La demostración de Turing no implicaba ningún problema incomputable que pudiera surgir en la práctica; en cambio, inventó un problema de ese tipo sobre la marcha. Otras pruebas de diagonalización están igualmente alejadas del mundo real, por lo que no pueden resolver cuestiones en las que los detalles del mundo real importan.

«Manejan la computación a distancia», explica Williams. «Me imagino a un tipo que se enfrenta a un virus y accede a él a través de una caja de guantes».

El fracaso de la diagonalización fue una indicación temprana de que resolver el problema de las categorías P y NP iba a ser un largo camino. Pero a pesar de sus limitaciones, la diagonalización sigue siendo una de las herramientas clave en el arsenal de los teóricos de la complejidad. En 2011, Williams lo utilizó junto con una serie de otras técnicas para demostrar que cierto modelo restringido de computación no podía resolver algunos problemas extraordinariamente difíciles, un resultado que había eludido a los investigadores durante 25 años. Estaba muy lejos de resolver el problema de las categorías P y NP, pero aun así representó un avance importante.

Si quieres demostrar que algo no es posible, no subestimes el poder de simplemente decir no.

Notas del traductor:

[*] El original en inglés “The limitation game” es un juego de palabras con el título de la película “The Imitation Game” basada en aspectos de la vida y obra de Alan Turing.

[**] En el juego tradicional de ’20 preguntas’ la persona que responde (la “respondedora”) elige algo que las demás jugadoras, las «interrogadoras», deben adivinar. Se turnan para hacer una pregunta a la que la respondedora debe responder «sí» o «no». Ejemplos de preguntas podrían ser: «¿Es más grande que un móvil?», «¿Está vivo?» y, finalmente, «¿Es este bolígrafo?». No se permite mentir. Si una interrogadora adivina la respuesta correcta, gana y se convierte en la respondedora en la siguiente ronda. Si se hacen 20 preguntas sin una respuesta correcta, entonces la respondedora gana y vuelve a ser la persona que responde en otra ronda.

 

El artículo original, Alan Turing and the Power of Negative Thinking, se publicó el 5 de septiembre de 2023 en Quanta Magazine.

Traducido por César Tomé López

El artículo Alan Turing y el poder del pensamiento negativo se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La diversidad mineral en Marte

Mon, 2023/09/18 - 11:59

Nuestro planeta tiene una gran diversidad mineralógica. Tanta que hasta el momento hay reconocidas casi siete mil especies minerales y una de las preguntas que a menudo nos surgen cuando estudiamos otros planetas es: ¿Habrá un número similar en otros planetas o cuerpos del Sistema Solar? ¿O quizás es la Tierra un caso extremo dentro del mundo de los minerales?

Pero antes de continuar, ¿tenemos claro qué es un mineral? Llamamos minerales a sustancias sólidas, que tienen una composición química definida, de origen natural y con una estructura cristalina ordenada. Aunque esta definición nos pueda parecer un poco laxa, lo cierto es que en las últimas dos décadas sigue habiendo algo de debate, ya que se sigue discutiendo si los compuestos orgánicos -los de origen biológico o los que aparecen de manera espontánea- se deben considerar minerales.

mineral en MarteLa cámara WATSON del Perseverance toma una imagen de cerca de una roca en Marte de la que posteriormente realizará análisis para conocer su composición. En la imagen se pueden ver distintos minerales, entre ellos uno traslúcido que ha llamado la atención de los científicos. Imagen cortesía de NASA/JPL-Caltech.

Para los geólogos, los minerales son más que una curiosidad o un elemento de coleccionista, ya que nos pueden ayudar a conocer aquellos procesos que han tenido lugar en los planetas a lo largo de los 4500 millones de historia. Muy probablemente los planetas terrestres, de Mercurio a Marte, tuvieron una evolución mineralógica muy similar durante su infancia, pero que poco a poco fue divergiendo debido a las particularidades de cada uno.

Los planetas interiores partíamos con una serie de elementos y minerales similares por nuestra posición en el disco protoplanetario a partir del cual nos formamos. Una vez acabaron todos los procesos que dieron lugar a la formación de los planetas, muy probablemente los primeros minerales existentes en estos cuatro planetas podrían haber sido muy similares en número y composición, ya que se habrían formado a partir de la cristalización del océano de magma existente en estas primeras etapas de infancia planetaria.

Pero tras esa etapa comenzó un proceso evolutivo que nos ha hecho muy diferentes: la presencia o no de atmósfera, de una tectónica de placas o la aparición de la vida son algunos de los eventos que han podido marcar la mayor o menor diversidad mineral de los planetas.

Y aquí viene el segundo término que quería introducir en el artículo de hoy: los modos paragenéticos. Esta palabra engloba los procesos a partir los minerales se forman, es decir, como un conjunto de átomos en forma sólida o líquida son capaces de reconfigurarse dando lugar a una o más formas minerales. Estos modos son una gran cantidad de procesos naturales que llevan a la formación de nuevos minerales.

mineral en MarteImagen de microscopio electrónico de un meteorito marciano donde podemos ver algunos de los minerales anotados. Imagen cortesía de la NASA.

Algunos ejemplos de los modos paragenéticos son la formación a partir de un gas o un líquido -por condensación, precipitación…-, transformaciones físicas a partir de eventos como la caída de rayos, impactos de meteoritos o fenómenos de metamorfismo regional, interacción del agua y las rocas o incluso la formación de minerales por efecto de la vida, como las biomineralizaciones-.

Marte es uno de los planetas que mejor conocemos debido a dos cuestiones principalmente: la primera de ellas son las misiones espaciales con capacidad de observación y análisis que nos han permitido conocer los minerales de su superficie, incluso desde la órbita, sin contacto. La segunda, gracias a los meteoritos que han caído a nuestro planeta y cuyo estudio podemos hacer con mucho detalle en los laboratorios terrestres. A pesar de esto, solo se han podido identificar un total de 161 minerales.

Una nueva investigación (Hazen et al. (2023)) sugiere que esta ausencia de minerales se podría deber a la existencia de un menor número de modos paragenéticos en Marte que los que hay en la Tierra… ¿Por qué? Pues porque nuestro planeta es algo especial con respecto al resto, al menos por lo que sabemos de momento.

mineral en MartePatrón de difracción de rayos X capturado por el Curiosity en Marte. Gracias a instrumentos como el que permite tomar esta imagen, podemos conocer la composición de las rocas y el suelo de Marte con misiones de superficie. Imagen cortesía de NASA/JPL-Caltech.

En primer lugar, las interacciones entre los fluidos -como el agua- y las rocas en nuestro planeta tiene una mayor escala que en Marte gracias a la tectónica de placas, que a través de la subducción y de los procesos de fracturación de las rocas hace que nuestro planeta sea más permeable a este tipo de interacciones.

También la existencia de un metamorfismo de altas presiones como el que ocurre durante procesos de colisión continental algo que solo puede ocurrir bajo el régimen de tectónica de placas y, por supuesto, el efecto de la vida en la generación de minerales.

Estos tres procesos de los que hemos hablado podrían ser, según los autores del artículo, los responsables del 80% de la diversidad mineral de nuestro planeta, y precisamente estos modos paragenéticos son de momento exclusivos en la Tierra o podrían tener un ámbito mucho más restringido en el resto de los planetas.

¿Quiere esto decir que en Marte solo existen 161 minerales? No, todavía podrían existir más, ya que apenas hemos podido arañar la superficie y podríamos estar perdiéndonos los minerales existentes en zonas más profundas o inaccesibles debido a procesos hidrotermales o a fenómenos de metamorfismo de contacto, como el que podría haberse dado en las zonas volcánicas, pero a pesar de esto los investigadores sugieren que el número de minerales seguiría siendo un orden de magnitud inferior que en la Tierra.

No cabe la menor duda que los minerales pueden ayudarnos a comprender mejor la historia de los planetas y otros cuerpos, pero todavía nos queda por recorrer un largo camino hasta que podamos estudiar con detalle la composición de estos. Solo entonces podremos decir… ¿realmente somos tan diferentes?

Referencia:

Hazen, R. M., Downs, R. T., Morrison, S. M., Tutolo, B. M., Blake, D. F., Bristow, T. F., Chipera, S. J., McSween, H. Y., Ming, D., Morris, R. V., Rampe, E. B., Thorpe, M. T., Treiman, A. H., Tu, V. M., & Vaniman, D. T. (2023). On the diversity and formation modes of martian minerals. Journal of Geophysical Research: Planets, 128(9). doi: 10.1029/2023je007865

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo La diversidad mineral en Marte se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

ZientZinema 5: Los herederos del viento

Sun, 2023/09/17 - 11:59

Scopes

Título original: Inherit the Wind. En las adaptaciones se ha titulado como La herencia del viento o Heredarás el viento. 1960, blanco y negro, 128 minutos. Dir.: Stanley Kramer. Guion: Nedrick Young, Harold Jacob Smith, según la obra de teatro de Jerome Lawrence y Robert Edwin Lee. Música: Ernest Gold. Fotografía: Ernest Laszlo. Montaje: Frederic Knudtson. Intérpretes. Spencer Tracy, Fredric March, Gene Kelly, Dick York, Harry Morgan.

El que perturba su propia casa heredará viento, y el necio será esclavo del sabio.

Proverbios, 11: 29.

Llamar a un hombre mamífero, al parecer, era también ignorar una revelación divina. El efecto de esta doctrina sería destruir la moralidad y promover la infidelidad.

H.L. Mencken sobre el juicio Scopes, The Baltimore Evening Sun, 17 julio 1925.

 

 

En 1925, John Thomas Scopes fue juzgado por violar la ley del Estado de Tennessee que prohibía enseñar la teoría de la evolución en las escuelas públicas. El darwinismo se enfrentaba al creacionismo en una batalla judicial en la que participaron Spencer Tracy, en el papel de Henry Drummond (nombre supuesto de Clarence Darrow para el film); Fredric March en el papel de Matthew Harrison Brady (nombre supuesto para William Jennings Bryan); Gene Kelly en el papel del periodista progresista E. K. Hornbeck (nombre que en la película a H. L. Mencken); Dick York como Bertram T. Cates (nombre supuesto para John Scopes) y Claude Atkins como el reverendo fundamentalista que denuncia al profesor Cates.

Posteriormente se rodaron para televisión otras tres versiones del juicio Scopes: en 1965 con Melvyn Douglas y Ed Begley, en 1988 con Jason Robards y Kirk Douglas, y en 1999 con Jack Lemmon y George C. Scott.

Cuando Estados Unidos salió de la Primera Guerra Mundial, una nostalgia colectiva recorrió el país por la simplicidad y normalidad anterior a la guerra. En las áreas rurales, particularmente en el sur y el medio oeste, los estadounidenses recurrieron a la fe para recuperar de la estabilidad, y la religión creció en popularidad. Los fundamentalistas, que creían en una interpretación literal de la Biblia, encontraron en Darwin y la teoría de la evolución la amenaza más evidente a la verdad que estaban seguros de que solo ellos poseían. Con la evolución como enemiga, se propusieron erradicarla de su sociedad, comenzando por el sistema educativo.

Debido al excesivo calor el 20 de julio de 1925 el presidente del tribunal decidió que la sesión se trasladase al exterior del juzgado. En la imagen Bryan (de pie) interroga a Darrow (sentado a la izquierda). Fuente: Wikimedia Commons

Para 1925, varios estados del sur habían aprobado leyes que prohibían la enseñanza de la evolución. Oklahoma, Florida y Mississippi tenían esas leyes, e influían en las de Carolina del Norte y Kentucky. En Tennessee, la Ley Butler se aprobó en 1925, y aunque el gobernador no era fundamentalista, muchos de sus electores lo eran. Y la Unión Estadounidense de Libertades Civiles de Nueva York, cada vez más cautelosa, y declararon la prohibición de la evolución como una infracción de sus derechos constitucionales. Con la vista puesta en Tennessee, la ACLU se dispuso a iniciar un caso judicial para probar si era constitucional la Ley Butler.

A los pocos días de la decisión de la ACLU de poner a prueba la Ley Butler, se publicó un comunicado de prensa en un periódico de Tennessee que ofrecía apoyo legal a cualquier maestro que desafiara la ley. El 5 de mayo, varios líderes locales se reunieron y acordaron los detalles de su plan. Necesitaban un maestro para probar la ley, y lo encontraron en John T. Scopes, un profesor de ciencias y entrenador de fútbol de 24 años. Cuando se le preguntó acerca de su enseñanza de la evolución como parte de la enseñanza de la biología, Scopes respondió que lo mismo haría cualquier otro maestro.

La película se adaptó en Hollywood en 1960, cinco años después del estreno de la obra de teatro en Broadway. Entonces el Movimiento por los Derechos Civiles iniciaba sus acciones, el macartismo había terminado y el país recibía a un nuevo presidente, John F. Kennedy, que pronto sería elegido. El asunto de las leyes contra la teoría de la evolución no parecía interesar. Ese año, el New York Times publicó pocas noticias sobre el juicio de Scopes. En uno de ellos presentaron las declaraciones de un profesor de ciencias adventista del séptimo día que advirtió sobre los peligros de enseñar la evolución a los estudiantes. Sin embargo, el segundo de los dos artículos más largos sugería que la obra de teatro y su contenido ocupaban un lugar importante en la memoria del público.

La versión de Hollywood era muy diferente de la que Lawrence y Lee habían escrito para el teatro. Aunque la película era entretenida y hábil, muchos de debates de Lawrence y Lee se distorsionaron en la película de 1960.

En julio de ese año, en Dayton, Tennessee, donde se celebró el juicio a Scopes en 1925, se declaró el 21 de julio, Día del Juicio Scopes. La ciudad había aprovechado el juicio como una bendición comercial para Dayton, y en 1960 buscaba revivir el legado, trayendo más visitantes a Dayton. Donde antes había carteles que proclamaban «Lea su Biblia«, ahora, treinta y cinco años después, una pancarta decía «Bienvenido a Dayton, día del juicio de Scopes, 21 de julio«. En realidad, la ciudad había cambiado muy poco y el palacio de justicia seguía como siempre, como medio siglo atrás. Para la gente de Dayton, el juicio todavía se vivía no tanto como un conflicto cultural sino como un evento publicitario que honraba a este pequeño pueblo olvidado.

En resumen, el juicio a Scopes se convirtió en un objetivo para la lucha por las libertades civiles y en un exponente del conflicto entre la ciencia y el cristianismo fundamentalista en auge en Estados Unidos. Scopes fue declarado culpable y condenado a pagar la multa mínima de 100$. Pero, aparte del veredicto concreto, en la opinión pública vencieron los proevolucionistas. Sin embargo, como escriben Judith Grabiner y Peter Miller desde California y Ohio en 1974, los partidarios de la teoría de la evolución fallaron en la continuidad de su defensa y, por ello, los debates continúan incluso en la actualidad.

Referencias:

Grabiner, J.V. & P.D. Miller. 1974. Effects of the Scopes Trial. Was it a victory for evolutionists? Science 185: 832- 837.

Martínez-Salanova Sánchez. E. s.f. La herencia del viento. Libertad de pensamiento y tolerancia religiosa en las aulas. Cine y educación. 9 pp.

Mencken, H.L. 2007. El juicio Scopes. La acusación del fundamentalismo cristiano (The Baltimore Evening Sun 17-20 julio 1925). Letras Libres 71: 38-43.

Wikipedia. 2022. Inherit the wind (película). 22 diciembre.

Wikipedia. 2023. Scopes trial. 9 July.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo ZientZinema 5: Los herederos del viento se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Naukas Bilbao 2023 en directo

Fri, 2023/09/15 - 09:00

El gran evento de divulgación organizado por Naukas y la Cátedra de Cultura Científica vuelve a Bilbao para celebrar su decimotercera edición que tendrá lugar nuevamente en el gran Palacio Euskalduna. Las sesiones del acto central durante los días 15 y 16 de septiembre, Naukas Bilbao 2023, pueden seguirse por streaming aquí o en la web de Naukas.

Naukas Bilbao 2023

El programa es el siguiente (horas GMT+2):

Viernes 15  septiembre – Sesión de Mañana

10:00 a 10:10 – José Miguel Viñas: ¡Leed a Verne, malditos!

10:10 a 10:30 – Javier S. Burgos y Luisma Escudero: Ciencia ochentera (20 minutos)

10:30 a 10:40 – Juan Francisco Hernández: Recreo Naukas, un nuevo espacio de divulgación

10:40 a 10:50 – Sara Barja: Vamos a mover átomos

10:50 a 11:00 – Teresa Valdés-Solís: Ilustradas y aventureras

11:00 a 11:10 – Iván Rivera: El ancho de banda de la Stasi

11:10 a 11:20 – José A. Prado-Bassas: Series a lo Grandi

11:20 a 11:30 – Juan Ignacio Pérez: Una taxonomía de los saberes

 11:30 a 12:00 – Descanso de 30 minutos

12:00 a 12:10 – Raúl Ibáñez: Las matemáticas como herramientas de creación artística

12:10 a 12:20 – Carlos Lobato: Archaea, las pequeñas grandes desconocidas

12:20 a 12:30 – Anabel Forte: Entre datos y lámparas

12:30 a 12:40 – Lorena Pérez Hernández: Anna Wierzbicka y la tabla periódica del pensamiento

12:40 a 12:50 – Laura Morrón: La revolución newtoniana… a pesar de Newton

12:50 a 13:00 – Pablo Rodríguez: Las charlas de mis pesadillas

Viernes 15 septiembre  – Sesión de Tarde

17:00 a 17:10 – Ignacio López Goñi: Andeuineris

17:10 a 17:20 – Eva Caballero: Nuestras madres nos alteran

17:20 a 17:30 – Ángel López Sánchez: El cielo es tu laboratorio

17:30 a 17:40 – Naiara Barrado: Júpiter ¿Héroe o villano?

17:40 a 17:50 – Miguel A. Delgado: ¿Y si resulta que la revolución científica la inició España?

17:50 a 18:00 – Gaby Jorquera: Sombras largas

18:00 a 18:10 – Isabel Moreno: Que llueva, que llueva

18:10 a 18:20 – Francis Villatoro: Lo que sabemos que no sabemos

18:20 a 18:30 – Sergio P. Acebrón: Explorando los límites de la vida

18:30 a 19:00 – Descanso (30 minutos)

19:00 a 19:20 – Gemma del Caño y Conchi Lillo: Comer con los ojos (20 minutos)

19:20 a 19:30 – Susana Escudero: Granjas de cadáveres  

19:30 a 19:40 – Guillermo Peris: La expresión de la muerte

19:40 a 19:50 – José Ramón Alonso: La lección de anatomía

19:50 a 20:00 – Miguel Santander: Dear Doctor,

Sábado 16 septiembre – Sesión de Mañana

10:00 a 10:10 – Ambrosio Liceaga: ¿Es Bilbao el mejor lugar para una civilización tecnológica en expansión?

10:10 a 10:20 – Paula Serras : En la cresta de la ola

10:20 a 10:30 – Helena Matute: Experimentos con humanos e IAs

10:30 a 10:40 – Javier Pedreira Wicho: IA: no es inteligencia todo lo que reluce

10:40 a 10:50 – Onintze Salazar: Sobre perturbaciones y no precisamente de la atmósfera

10:50 a 11:00 – Gemma Marfany: Ni tuyo ni mío, de todos

11:00 a 11:10 – Gisela Baños: Cuando la ciencia ficción puso en jaque a Seguridad Nacional

11:10 a 11:20 – Alberto García Salido: Toda su sangre en mis manos

11:20 a 11:30 – Lluís Montoliu: Millones de raras

11:30 a 12:00 – Descanso de 30 minutos

12:00 a 12:10 – Javier Fdez. Panadero: Ilusiones cacharrísticas

12:10 a 12:30 – Luis Martínez Otero: FESTIVAL JA (20 minutos)

12:30 a 12:40 – Julián Estévez: Drones y Ramstein

12:40 a 12:50 – Fernando Frías: Benidorm y la Tierra

12:50 a 13:00 – Laura Toribio: Ese huequito entre Marte y Júpiter

Sábado 16 septiembre – Sesión de Tarde

17:00 a 17:10 – Laura Morán: La erótica del fregao

17:10 a 17:20 – César Tomé: La desviación de Einstein

17:20 a 17:30 – Sara Cazzoli: Feo, fuerte y formal

17:30 a 17:40 – Álvaro Bayón: Nuestra vida por unas monedas

17:40 a 17:50 – Ricardo Moure: Seguro dental, Lisa necesita un aparato

17:50 a 18:00 – Txema Campillo: De Guttemberg a Marilyn

18:00 a 18:10 – Pablo José Barrecheguren: La paradoja del sueño lúcido

18:10 a 18:20 – Virginia Arechavala: Los vulgares exploradores del laberinto.  

18:20 a 18:30 – Juan Carlos Gil: Vuela, gaviota… ¡Vuela!

18:30 a 19:00 – Descanso (30 minutos)

19:00 a 19:10 – Carlos Briones: Invisible a los ojos

19:10 a 19:20 – Álvaro Carmona: El borde del espejo 

19:20 a 19:30 – Elisabete Alberdi: Las matemáticas del glioma

19:30 a 19:40 – Joaquín Sevilla: Una mañana de verano

19:40 a 19:50 – Antonio Martínez Ron: Etiquetar el asombro

19:50 a 20:00 – Oskar González: La última de Vermeer

20:00 a 20:10 – Entrega de los Premios Tesla 2023 y despedida del evento.

 

El artículo Naukas Bilbao 2023 en directo se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Fantasías de colores microscópicos

Thu, 2023/09/14 - 11:59

En Geología, al igual que en otras disciplinas científicas como la Biología o la Medicina, cuando queremos hacer un estudio detallado de cualquier roca para conocer de manera precisa su composición y sus propiedades internas, debemos utilizar un microscopio de luz transmitida. Pero, en nuestro caso, se trata de un microscopio un poco particular, al que llamamos microscopio petrográfico.

Microscopio petrográfico modelo Olympus BHT utilizado para las prácticas de petrología en el Departamento de Geología de la Universidad del País Vasco (UPV/EHU). Imagen: UPV/EHU

La principal diferencia con los microscopios biológicos es que tiene un sistema de luz polarizada formado por dos filtros (o nícoles): el primero se encuentra situado en el foco de luz, por debajo de la muestra, y el segundo está posicionado entre la muestra y el ocular. El primer filtro, que generalmente está fijo, hace que las ondas lumínicas se muevan en una sola dirección para que puedan atravesar la muestra sin desviarse. Pero el segundo filtro, que podemos sacar y meter del microscopio a nuestra voluntad, se coloca de manera perpendicular al primero, de tal manera que, cuando lo activamos, o, para ser más exacta, lo cruzamos, hace de barrera e impide el paso de la luz. Es decir, si miramos por el ocular de un microscopio petrográfico sin colocar ninguna muestra y lo encendemos con el segundo filtro sacado, veremos la luz incidiendo sobre nuestros ojos. Pero si metemos, o cruzamos, el segundo polarizador, lo veremos todo negro.

Seguro que os estaréis preguntando que, entonces, para qué sirve ese segundo polarizador si no nos permite ver nada. Pues la respuesta está en las propiedades ópticas de los minerales. Si ponemos una muestra en el microscopio que sea capaz de cambiar la dirección de la luz polarizada a medida que la atraviesa (esta propiedad se denomina birrefringencia), cuando cruzamos el segundo filtro surgirá la magia, porque entonces la luz no incidirá de manera perpendicular, sino que tendrá un ángulo que se verá reflejado en la aparición de una serie de colores ante nuestros ojos, denominados colores de interferencia. Y esta propiedad óptica es un criterio de identificación de los minerales.

La segunda diferencia más importante con el resto de microscopios es que el petrográfico dispone de una platina, es decir, de una superficie donde se coloca la muestra que puede girarse 360º. Y, aunque parezcamos DJs intentando sacar una buena base musical de la muestra que estamos analizando cuando nos ponemos a girar adelante y atrás la platina, lo que estamos haciendo es comprobar cómo cambian los colores de interferencia de los minerales al modificar el ángulo de incidencia de la luz. En algunos casos, apenas varían y nos encontramos con tonos similares del mismo color. Pero en otras ocasiones parece una imagen psicodélica de los años sesenta del siglo pasado, encontrando variaciones extremas en los colores de interferencia de un mismo mineral. Este rango de variación de los colores de interferencia también es un criterio identificativo de los minerales.

Aspecto de una roca ígnea (gabro) vista al microscopio petrográfico. La imagen de la izquierda se ha obtenido con el segundo polarizador no activado, mientras que la imagen de la derecha se obtiene al cruzar el segundo polarizador, revelando los colores de interferencia de los minerales que componen la muestra analizada. Imagen: Open University / OpenLearn

Pero el estudio de las rocas al microscopio petrográfico no solo nos permite identificar la composición mineral de la misma. También podemos observar estructuras microscópicas de la muestra, como la existencia de fracturas o de poros internos, o la presencia de microfósiles que nos informen sobre la edad de la roca o el ambiente en el que se formó. Características que no podíamos apreciar a simple vista y que son necesarias a la hora de describir el material con el que estamos trabajando.

Vídeo: Variación de los colores de interferencia en varios minerales, principalmente feldespatos, al girar la platina del microscopio petrográfico con los dos polarizadores cruzados

Ahora es cuando nos surge otra cuestión: ¿Cómo podemos hacer que la luz atraviese una roca, si estamos trabajando con una sustancia sólida y, por tanto, opaca? Pues exactamente igual que en Biología o Medicina, cortando una rodaja muy fina de nuestra muestra hasta conseguir transformarla en algo transparente. Para ello usamos una cortadora de rocas, que tiene un disco de diamante, con la que preparamos un pequeño taco con forma de prisma de base rectangular, de unos 2,5 cm de ancho por unos 4 cm de largo, que se pega a un portamuestras de vidrio. Este taco de roca se va puliendo con diferentes abrasivos, también de polvo de diamante, hasta que alcanza un grosor de 0,03 mm, tras lo que se tapa con un cubreobjetos de vidrio. Así se transforma en lo que en Geología denominamos una lámina delgada, o sección pulida de roca si queremos usar un término un poco más serio. Ahora ya podemos poner la muestra sobre el microscopio permitiendo que la luz la atraviese sin problemas.

Proceso de preparación de una lámina delgada desde la muestra de roca hasta que se obtiene la sección pulida que permite el paso de la luz a través de la misma. Imagen: Instituto de Geología de la Universidad Nacional Autónoma de México

El microscopio petrográfico lleva usándose más de un siglo para hacer estudios geológicos a lo largo de todo el mundo, pero la técnica se va perfeccionando año tras año. Los aparatos que usé durante la carrera hace un par de décadas están a años luz, nunca mejor dicho, que los que pueden emplear ahora mismo las nuevas hornadas de profesionales de la Geología que se están cocinando a fuego lento en las facultades españolas. Y esto es una buena noticia, porque, aunque las propiedades ópticas de los minerales sigan siendo las mismas, cualquier avance tecnológico va a permitir que sea mucho más fácil determinarlas, pudiendo así afinar cada vez más y mejor en la identificación de los componentes de las rocas que estemos estudiando, lo cual se agradece mucho durante los exámenes. Aunque lo que tampoco va a cambiar será la impresión que sufrirán estas futuras generaciones cuando vean por primera vez una lámina delgada al microscopio y descubran el maravilloso juego de colores que se oculta en el interior de una oscura y simple roca.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Fantasías de colores microscópicos se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Las matemáticas del bordado sashiko

Wed, 2023/09/13 - 11:59

Las matemáticas definen el sashiko a través de la geometría de los patrones. […] El sashiko y el proceso de coser patrones ejemplifican la relación entre las matemáticas y los textiles.

Lucy Arai

La palabra sashiko viene del japonés 刺し子, que significa “pequeñas puntadas”. Este nombre alude al acto de ir empujando la aguja verticalmente a través de gruesas capas de tela.

Historia del sashiko

Desde el periodo Edo, esta técnica de bordado se utilizaba para reforzar la ropa de trabajo de la población rural japonesa. Las piezas así obtenidas eran más resistentes y aislaban mejor del frío. Gracias al sashiko, los agricultores con escasos recursos podíanhacer durar más tiempo su ropa, remendándola o juntando varias capas de telas viejas con esta técnica.

En esta época, las leyes imperiales imponían a la población los colores, los tejidos y el tipo de vestimenta que podían llevar dependiendo de su clase social. Las clases trabajadoras no podían usar ni colores brillantes, ni grandes estampados, ni tejidos ricos como la seda. Por ello, utilizaban telas de color índigo (había una gran abundancia de telas baratas de este tono) y con motivos pequeños, en particular en sus bordados. Además, como el hilo de algodón blanco era relativamente barato (se retorcía para ser más resistente y para conseguir un acabado mate), el sashiko tiene una apariencia que la caracteriza: el bordado blanco sobre azul.

sashikoDetalle de un kimono de mediados del siglo XIX decorado con sashiko, con hilos de algodón blanco sobre fondo de tejido tafetán teñido de añil. Fuente:  Museo Metropolitano de Arte de Nueva York / Wikimedia Commons.

Durante el periodo Meiji el trabajo de bordado sashiko se tornaba una ocupación relevante durante el invierno, especialmente en las comunidades rurales del norte de Japón, en un momento en el que hacía demasiado frío para trabajar en el exterior. 

Las jóvenes aprendían las técnicas tradicionales de otras mujeres, “porque el rigor y la paciencia necesarios para el bordado son considerados cualidades esenciales para una esposa”.

Esta última frase me recuerda a aquello que se valoraba de las mujeres calculistas en los observatorios astronómicos, o también de las primeras programadoras. Entre los años 1910 y 1921, el Observatorio del Vaticano colaboraba para completar la Carte du Ciel; su responsable pensaba que el trabajo de calcular posiciones de estrellas a partir de placas fotográficas podía ser realizado por “simples” monjas. En julio de 1909, envió una carta a la madre superiora de la orden de Maria Bambina (cercana al Observatorio) comentándole que “necesitaba dos hermanas con visión normal, paciencia y predisposición al trabajo metódico y mecánico”. ¡La paciencia y la precisión pensadas en tantas actividades como cualidades típicas de mujeres!

Las matemáticas del sashiko

Los patrones mayoritariamente utilizados en el bordado sashiko se basan en elementos geométricos (rombos, hexágonos o semicírculos), a veces estilizados en formas de olas, montañas, plantas de bambú o flores.

Algunos diseños tienen un valor simbólico o protector: las estrellas takonomekura de cinco puntas protegerían a los pescadores de los naufragios, los patrones en zigzag ahuyentarían a los espíritus malignos, las puntadas de arroz komezashi (en el caso de los agricultores) o las escamas de pescado urokozashi (en el caso de los pescadores) atraerían la prosperidad.

Los bordados tradicionales se clasifican en dos grandes clases según la manera de coser: los moyōzashi, patrones cuyos puntos no se cruzan, y los hitomezashi (literalmente, sashiko de una sola puntada) trabajados en cuadrícula, con puntos verticales y horizontales, y que pueden cruzarse. 

sashikoMuestrario con diferentes patrones de sashiko en una exposición del Museo de Arte Textil de Canadá. Fuente: Daderot / Wikimedia Commons.

En [Seaton and Hayes, 2023] las autoras analizan precisamente dos aspectos matemáticos de la forma de coser hitomezashi: la codificación de diseños mediante palabras de un alfabeto binario y la dualidad.

Para las personas que alguna vez han bordado consultando las instrucciones en alguna revista de costura, las indicaciones para realizar las puntadas consisten en una serie de símbolos concatenados, una especie de diccionario simbólico que “dirige” la manera de mover la aguja sobre la tela. En el caso del hitomezashi, la puntada única permite indicar si la puntada va del derecho (1) o del revés (0) de la tela. Las instrucciones consistirían entonces en una serie de 0s y 1s (debería indicarse, además, la dirección de la puntada).

Cuando se cose del modo hitomezashi, el anverso y el reverso de la tela poseen patrones duales; en algún caso pueden incluso ser auto-duales (cuando el anverso y el reverso reproducen exactamente el mismo patrón).

Usando estos dos conceptos es posible codificar matemáticamente todos los bordados tradicionales del hitomezashi del sashiko japonés.

En [Seaton and Hayes, 2023] las autoras también analizan las formas de los bordados; estudian en particular los hitomezashi que construyen fractales de la palabra de Fibonacci u otrospoliominós basados en los números de Pell.

He descubierto esta técnica de bordado gracias a mi hermana Inés que la ha conocido a su vez a través de un colega japonés. Este vídeo es una estupenda ilustración.

Muchas artes textiles pueden disfrutarse con mirada matemática: patrones, simetrías, codificación de los dibujos o formas geométricas son claves para coser, bordar o tejer un hermoso objeto cotidiano o una pieza decorativa.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Las matemáticas del bordado sashiko se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El origen de las cascadas electrónicas en las bicapas de grafeno rotado con ángulo mágico

Tue, 2023/09/12 - 11:59

Investigadoras del Instituto de Ciencia de Materiales de Madrid (ICMM), CSIC, han descubierto por qué se forman los sistemas de cascadas electrónicas en bicapas de grafeno rotado con ángulo mágico. Este resultado contradice teorías anteriores sobre esta intrigante propiedad de las bicapas de grafeno con ángulo mágico.

cascadas

Fue hace algo más de cinco años cuando se descubrió que, al girar una capa de grafeno con respecto a la otra solamente 1,1 grados (el llamado ‘ángulo mágico’), este material adquiría nuevas y sorprendentes propiedades por la interacción de sus electrones: se vieron estados aislantes y superconductores que no se esperaban. Posteriormente se encontraron cambios dramáticos en la energía de los electrones en forma de cascadas. Todos estos fenómenos abrieron un nuevo campo de investigación y estos sistemas (simples, a priori, al estar basados solo en carbono) muestran mayor variedad de estados electrónicos que ningún otro.

«En las primeras interpretaciones de las cascadas, se creía que tenían que ver con estados ordenados, tales como estados magnéticos, que se han detectado en el sistema a muy bajas temperaturas, del orden de 5 Kelvin, pero estas cascadas son mucho más resilientes, sobreviven hasta temperaturas de decenas de Kelvin», explica Elena “Leni” Bascones, investigadora en el ICMM y coautora del estudio. Este trabajo apunta a que el origen de este fenómeno es otro.

En concreto, este estudio viene a demostrar que pueden aparecer las cascadas sin necesidad de invocar ningún orden. «No decimos que en las bicapas de ángulo mágico no haya orden, este se ha observado, pero a temperaturas más bajas», señala María José Calderón, investigadora en el ICMM y también coautora del trabajo.

La clave de la nueva investigación radica en la técnica utilizada para su descripción teórica: la teoría de campo medio dinámica combinada con cálculos Hartree. «Es la técnica numérica más avanzada utilizada hasta ahora para estudiar el tipo de efecto que buscamos», explica Bascones. «Es un problema muy complejo, porque en los sólidos hay muchos electrones interaccionando y el comportamiento colectivo es emergente, es decir, no puedes entenderlo trivialmente como la suma del comportamiento de los electrones individuales», añade Calderón.

«Cuando se empezaron a descubrir las propiedades de estas bicapas de grafeno rotadas se quiso ver si podía tener que ver con los superconductores de alta temperatura», explica Bascones.
Aunque en un principio se pensó que la fenomenología detrás de estos materiales no afectaba a las bicapas de grafeno, «lo que nosotras precisamente decimos es que el origen subyacente de estas cascadas está relacionado con el tipo de física que ocurre en otros sistemas correlacionados», como los superconductores a alta temperatura. Esto puede ser clave para lograr comprender cómo funcionan estos superconductores, que a su vez son esenciales para objetivos tecnológicos como la transmisión eficiente de energía o los ordenadores cuánticos.

Referencia:

Datta, A., Calderón, M.J., Camjayi, A. & Bascones, E. (2023) Heavy quasiparticles and cascades without symmetry breaking in twisted bilayer graphene Nat Commun doi: 10.1038/s41467-023-40754-4

Edición realizada por César Tomé López a partir de materiales suministrados por ICMM-CSIC

El artículo El origen de las cascadas electrónicas en las bicapas de grafeno rotado con ángulo mágico se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Los esteroides prenatales, arma de doble filo frente a la prematuridad

Mon, 2023/09/11 - 11:59

La prematuridad es, en la actualidad, la principal causa de muerte infantil en el mundo y la Organización Mundial de la Salud (OMS) lo califica de «emergencia silenciosa». Según el informe «Nacidos demasiado pronto: una década de acción sobre la prematuridad», en el que han participado este organismo y la Organización de las Naciones Unidas, cada año nacen alrededor de 15 millones de bebés prematuros (antes de la semana 37 de embarazo). Es decir, más de uno de cada 10 bebes que nace en el mundo es prematuro. De ellos, casi un millón muere por complicaciones desencadenadas por esta razón y algunos de los que sobreviven se enfrentan a una vida con discapacidad (problemas de aprendizaje, visuales y auditivos, entre otros).

 prematuridadPhoto: Janko Ferlič / Unsplash

En España, según la Sociedad Española de Neonatología (SENEO),  cada año nacen en torno a 28.000 prematuros, lo que supone el 7 % de todos los nacimientos. Un millar de ellos son prematuros extremos, al nacer antes de las 28 semanas de embarazo. Varios son los factores que propician la prematuridad, como una mayor edad de la madre, el consumo de tabaco, la contaminación ambiental y niveles altos de estrés durante el embarazo.

Las probabilidades de que un bebé prematuro salga adelante dependen principalmente de dos factores: el grado de prematuridad (cuanto más prematuro es el nacimiento, mayor riesgo hay de muertes y de secuelas) y el acceso a los servicios sanitarios. En los países en desarrollo es precisamente dónde el pronóstico de los bebés con prematuridad es más sombrío porque muchas familias no pueden conseguir la atención médica que necesitan.

Además de otros tejidos y órganos, en los bebés más prematuros los pulmones no se encuentran totalmente desarrollados,  en parte por el déficit del surfactante pulmonar. Esta sustancia normalmente recubre el interior de los pulmones (concretamente, los alveolos) para disminuir su tensión superficial y facilitar la expansión de estos órganos. Algunos prematuros, al no tener cantidad suficiente de surfactante, deben realizar un gran esfuerzo en la inspiración, para la entrada de aire en los pulmones, por lo que sufren dificultades respiratorias importantes. 

Esteroides contra la prematuridad

Para reducir el riesgo de complicaciones (dificultades respiratorias, infecciones, hemorragias cerebrales…) y muertes en los bebés, un tratamiento ampliamente extendido es la administración de esteroides a aquellas madres que tienen altas probabilidades de tener un parto prematuro, antes de las 34 semanas de embarazo.

Estos fármacos aceleran la maduración de los pulmones, la producción de surfactante pulmonar y de los vasos sanguíneos, por lo que mejoran de forma clara el pronóstico de los bebés que nacen antes de tiempo. Sin embargo, apenas se conocen los efectos a largo plazo que podrían tener estos fármacos en la salud de los neonatos. Dos recientes estudios, publicados en la revista The British Medical Journal, advierten de que los esteroides podrían tener consecuencias negativas más tarde en la vida de los prematuros.

Uno de los estudios analizó la frecuencia de aparición de diversas enfermedades en dos grupos de niños, aquellos que se expusieron a corticosteroides durante el embarazo y aquellos que no,  con un total de 2 millones de niños que nacieron entre 2008 y 2019 en Taiwán. La información se obtuvo a partir de una base de datos nacional. Los investigadores descubrieron que aquellos niños que estuvieron expuestos a los esteroides tenían un riesgo significativamente mayor de sufrir infecciones graves como neumonía y sepsis en el primer año de vida.

El otro estudio consiste en una revisión sistemática de 7 ensayos clínicos y 10 estudios poblaciones que, en total, reúnen datos de 1,6 millones de niños que nacieron a partir del año 2000. Los bebés expuestos a los esteroides tenían un riesgo incrementado de entrar en cuidados intensivos neonatales, tener una menor circunferencia de la cabeza y padecer más trastornos del comportamiento y del neurodesarrollo a largo plazo. Además, los autores comprobaron que en torno al 40 % de los bebés que recibieron corticosteroides durante el embarazo nacieron finalmente a término, por lo que, en realidad, no hubieran necesitado de estos fármacos.

Los hallazgos de ambas investigaciones invitan a reflexionar sobre el uso de los esteroides y a valorar con más cuidado la necesidad de ellos, considerando los potenciales riesgos que podrían tener. Aún es pronto para afirmar con certeza que estos medicamentos son los responsables directos de los citados problemas de salud, ya que una gran parte de los datos proceden de estudios observacionales que no permiten identificar relaciones de causas y efectos. Por tanto, serán necesarios más ensayos clínicos para poder conocer con más rigor los efectos de los esteroides. Sus beneficios clínicos a corto plazo están ampliamente demostrados, pero sus efectos negativos más tardíos siguen siendo todavía bastante desconocidos.

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo Los esteroides prenatales, arma de doble filo frente a la prematuridad se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Filogenia de un cuento

Sun, 2023/09/10 - 11:59

cuento
Simplificando un poco se puede decir que cuanto más se parece el genoma de dos individuos, más próximamente emparentados están. Y cuanto más diferencias hay, más alejados suelen estar. Esto vale para entes tales como virus, para especies de mamíferos o, también, para individuos de una misma especie. Así, dos gemelos idénticos no tendrían diferencias en su genoma, pero un koi-san y un servidor tendremos genomas con un buen número de diferencias. Y no solo con los nucleótidos del genoma, una lógica similar cabe aplicar con la secuencia de aminoácidos de sus proteínas.

Gracias a las técnicas de genética molecular y mediante la aplicación de sofisticados análisis matemáticos, es posible dibujar la trayectoria que han seguido los linajes de organismos en el pasado y se pueden agrupar en conjuntos de especies, géneros, familias, etc., en virtud de su proximidad (filo)genética. En general, se puede decir que cuanto más se parecen entre sí el genoma o las proteínas de un clado (especie, género, familia, etc.), menos tiempo ha transcurrido desde que se separó de otros de los que difiere.

Pues bien, una lógica similar se puede utilizar cuando, en vez de organismos, se desea analizar la historia de un ente cultural, como un cuento, por ejemplo. Por ello, con ese propósito se pueden utilizar métodos matemáticos similares a los que se usan para trazar la historia de organismos biológicos, solo que en este caso no es el genoma lo que difiere o se asemeja entre dos versiones de una misma historia, sino los elementos que contienen. En efecto, del mismo modo que se analiza la secuencia de aminoácidos de determinadas proteínas del SARS-Cov2, por ejemplo, se puede analizar los elementos que contienen las diferentes variantes o versiones de un mismo cuento.

cuentoIlustración de Gustave Doré para Les Contes de Perrault, París, J. Hetzel, 1867.

Hicieron eso, precisamente, con el cuento The Spinning-Woman by the Spring (o The Kind and the Unkind Girls) que se encuentra extendido por toda Europa y parte de Asia. En la colección de los hermanos Grimm aparecen tres variantes, a saber: Los tres enanitos del bosque, San José en el bosque y Madre Nieve (Frau Holle). De acuerdo con el índice de tipos de la clasificación Aarne-Thompson-Uther, se trata de un cuento del tipo 480, con centenares de variantes en Europa.

Analizaron 700 variantes, correspondientes a 31 grupos etnolingüísticos: alemán (61 variantes), armenio (3), búlgaro (8), checo (11), danés (48), escocés (3), esloveno (6), español (11), estonio (16), finlandés (83), flamenco (6), francés (16), griego (11), inglés (8), irlandés (22), islandés (11), italiano (33), letón (13), noruego (48), polaco (45), portugués (2), rumano (4), ruso (32), sueco (101), sueco en Finlandia (25), suizo alemán (3), turco (32) ugrofinés en Rusia (23), valón (3), vasco (2) y yugoslavo (13). Los autores han identificado 393 rasgos binarios, o sea, 393 elementos que pueden estar incluidos en el cuento o no estarlo. Y a continuación, trabajando con pares de variantes, han estimado la distancia que hay entre cada una de las dos. La distancia se determina a partir del índice de Jaccard, que es un índice de similitud (o, si se quiere, de lo contrario) que se calcula dividiendo los elementos que comparten las dos variantes (la intersección) entre los elementos totales que tienen esas variantes.

Además de la similitud entre pares de variantes, calcularon las distancias geográficas entre las localidades de procedencia de las variantes o, en ausencia de ese dato, entre los centroides de las áreas en que se distribuyen las dos variantes. También elaboraron una matriz de disimilitud lingüística entre las diferentes lenguas, para lo que utilizaron las distancias entre pares de lenguas tal y como se pueden determinar a partir de análisis filogenéticos publicados previamente. En el caso de las pertenecientes a una misma familia, ese procedimiento no conlleva especial complicación, pero para estimar la disimilitud cuando se trata de lenguas pertenecientes a diferentes grupos (túrquicas, ugrofinesas y vasco), procedieron asignando, de modo arbitrario, una distancia entre familias equivalente a 1’25 veces la existente entre las dos lenguas menos similares de las indoeuropeas. Y por último, elaboraron una matriz de identidad etnolingüística para las variantes individuales del cuento. Cuando dos variantes pertenecen a una misma comunidad lingüística, la distancia entre ellas en esa matriz sería 0, y 1 si las dos variantes pertenecen a dos comunidades diferentes.

El análisis posterior incluyó dos procedimientos. Por un lado, utilizaron análisis de correlaciones entre las distintas distancias (entre cuentos, geográficas, lingüísticas, y grupos etnolingüísticos); y por el otro, aplicaron análisis de la varianza molecular (AMOVA), que permitió estimar qué proporción de la variación observada corresponde a las diferencias entre poblaciones (comunidades etnolingüísticas, en este caso) y qué proporción corresponde a las diferencias dentro de las poblaciones. Y a continuación construyeron una NeighbourNet (red de vecinos) que permite visualizar los agrupamientos de las distintas comunidades etnolingüísticas, basados en las variantes del cuento, así como las distancias entre ellas.

Entre los factores analizados, la distancia geográfica entre las poblaciones es la que explica una mayor fracción de la variación entre las distintas modalidades del cuento. De hecho, si se tiene en cuenta que una parte sustancial de las diferencias entre las lenguas está muy relacionada con la geografía, cuando el análisis se hace descontando el efecto de la distancia geográfica, resulta que la lengua no explica una fracción significativa de la variación de las variantes.

No ocurre lo mismo con la identidad etnolingüística, ya que este factor sí explica una fracción significativa de la variación en las modalidades del cuento, incluso cuando se tiene en cuenta el efecto de la distancia geográfica. El efecto de este factor es tan importante que el efecto de la barrera cultural que erige la frontera etnolingüística es equivalente a multiplicar la distancia geográfica entre variantes del cuento por un factor de 10. Esto quiere decir que dos cuentos de la misma cultura separados 100 Km son, en promedio, tan parecidos entre sí como lo son dos cuentos de diferentes culturas pero separados entre sí 10 Km.

La NeighbourNet obtenida para el conjunto de poblaciones estudiadas refleja cinco grandes agrupaciones. La primera incluye poblaciones del occidente europeo que hablan lenguas romances (excluyendo Rumanía), y otras como la población vasca, la flamenca y la suiza de lengua alemana. La segunda agrupación incluye las poblaciones del oriente europeo con lenguas eslavas, además de otras comunidades lingüísticas, como la rumana y la de hablantes de lenguas ugrofinesas de Rusia. La tercera incluye poblaciones a caballo entre Europa y Asia (armenios, griegos y turcos). La cuarta agrupación contiene las poblaciones de los países nórdicos, salvo Dinamarca. Y en la quinta se incluyen alemanes, daneses, letones y británicos.

cuento

La imagen general que se obtiene es que las variantes del cuento se agrupan a lo largo del continente europeo de acuerdo con áreas geográficas muy bien definidas, con la única salvedad de la quinta agrupación, que quizás refleje la influencia que tuvo la expansión vikinga que comenzó en el siglo IX en las Islas Británicas, así como la de redes comerciales, como la Liga Hanseática, que comunicaron los países ribereños del Báltico con las Islas Británicas a partir del siglo XIII.

El geográfico es, con diferencia, el factor de diferenciación más importante en términos absolutos. No obstante, al de la geografía se añade también el efecto del grupo etnolingüístico, que es importante; como se ha señalado más arriba, 10 Km de distancia entre dos variantes de diferente grupo etnolingüístico equivalen a 100 Km entre dos variantes del mismo grupo, lo que quiere decir que la identidad etnolingüística constituye una importante barrera a la transmisión de elementos culturales como son los cuentos. El linaje cultural (representado por la lengua de la población), sin embargo, no ejerce un efecto muy marcado sobre la diversidad de variantes del cuento.

Esta es de las pocas investigaciones en que se ha estudiado un proceso de evolución o diferenciación cultural mediante técnicas propias de la genética de poblaciones. En este trabajo no se han analizado los marcadores genéticos de las poblaciones humanas a las que corresponden las variantes del cuento, pero de haberse hecho, sospecho que muy probablemente se habría observado un importante paralelismo entre distancias genéticas y distancias culturales, en un sentido similar al observado en este estudio sobre canciones populares realizado en Taiwán.

Fuente: Ross RM, Greenhill SJ, Atkinson QD (2013): Population structure and cultural geography of a folktale in Europe. Proc R Soc B 280: 20123065

Para saber más: Cuentos de otro tiempo, y de este

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Filogenia de un cuento se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

ZientziaKutxa 2023: Entrevista con el vampiro sobre neurociencia

Sat, 2023/09/09 - 11:59

Kutxa Fundazioa y el Donostia International Physics Center (DIPC) han ofrecido nuevamente en 2023 el ciclo de conferencias ZientziaKutxa, esta vez bajo el título “Rojo vivo”.

vampiro

Prestigiosas científicas y científicos, a su vez grandes comunicadores, se dieron cita en la Sala Ruiz Balerdi de Kutxa Fundazioa para ofrecer charlas de divulgación sobre temas de actualidad científica o interés social.

El rojo en sus formas más intensas y evocadoras adquiere una notable presencia en este nuevo ciclo ZientziaKutxa, de ahí, el nombre “Rojo vivo” de este año. El color rojo produce una notable activación neuronal, efecto que se ve reflejado en diferentes elementos de la naturaleza y ámbitos del conocimiento científico. Por ejemplo, el hipnótico color de la lava de los volcanes en erupción que embelesa a geólogas y geólogas, esconde la presencia de hierro en estado oxidado. Y fue tras la explosión del volcán de Tambora y aquel “año sin verano”, que Polidori, médico personal de Byron, ideó la figura del vampiro, personaje que se ha alimentado de toda la mística en torno a otro ícono del rojo, la sangre. Un color que también se asocia con el calentamiento global y los escenarios en torno al cambio climático, invitando a la reflexión sobre la sostenibilidad de la vida en nuestro planeta.

El neurobiólogo José Ramón Alonso es el ponente de “Entrevista con el vampiro sobre neurociencia”.

El vampiro literario, no el mamífero volador, es uno de los personajes más sugerentes de la mitología moderna. En su imagen actual nace el llamado «año sin verano» cuando Lord Byron y varios amigos deciden escribir historias de miedo. Mary Shelly, de 18 años, creó la criatura del Dr. Frankenstein y John Polidori, el médico de Byron, un vampiro que robaba la sangre y la vida. Esas ideas sobre el depredador vital y sexual vuelan después desde la pluma de Bram Stoker a la cámara dirigida por Francis Ford Coppola. El encéfalo humano es considerado la estructura más compleja del universo conocido. Contiene todo lo que somos. Si pudiésemos conversar con un vampiro nos hablaría probablemente de temas relacionados con nuestro cerebro: el ansia de inmortalidad, la mezcla de atracción y repulsión hacia lo diferente, el miedo al inmigrante, la ansiedad ante la enfermedad, la seducción y el amor o eso que llamamos la fuerza de la sangre. Toda está en ese encéfalo que crea sinfonías, novelas, películas y también monstruos. Recuerda, tú eres tu encéfalo.

Si pudiésemos conversar con un vampiro, nos hablaría probablemente de temas relacionados con nuestro encéfalo: el ansia de inmortalidad, la mezcla de atracción y repulsión hacia lo diferente, la ansiedad ante la enfermedad, la seducción y el amor o eso que llamamos la fuerza de la sangre.

Alonso es catedrático de la Universidad de Salamanca e investigador principal en el Instituto de Neurociencias de Castilla y León, además de un prolífico divulgador con más de 50 libros publicados. Su blog sobre neurociencia recibe millones de visitas al año, siendo una referencia en temas como la depresión o el autismo para la comunidad hispanohablante.

 

Edición realizada por César Tomé López

El artículo ZientziaKutxa 2023: Entrevista con el vampiro sobre neurociencia se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Nuevo método para la producción de alta precisión de nanocintas de grafeno ultralargas

Fri, 2023/09/08 - 11:59

Investigadores del grupo del profesor Aurelio Mateo Alonso, investigador Ikerbasque en el centro POLYMAT de la UPV/EHU, en colaboración con investigadores del Instituto Max Planck de Investigación en Polímeros (Alemania) y la Universidad de Aveiro (Portugal), han desarrollado un nuevo método para la producción de alta precisión de nanocintas de grafeno.

nanocintasFoto: Polymat

El descubrimiento del grafeno ha abierto multitud de posibilidades en el desarrollo de nuevos materiales. Cuando el grafeno se corta en cintas de tamaño nanométrico (nanocintas de grafeno) se pueden obtener materiales con propiedades eléctricas y magnéticas que varían dependiendo de la forma con la que se recortan los bordes de las cintas, y con la anchura y la longitud de las mismas. Por ello, es crucial desarrollar métodos que permitan producir nanocintas de grafeno con precisión atómica de cara al desarrollo de sus potenciales aplicaciones. Se espera que estos nuevos materiales permitan la miniaturización de dispositivos electrónicos y espintrónicos, claves para el desarrollo de nuevas tecnologías en electrónico y en computación cuántica.

El nuevo método para la síntesis de nanocintas de grafeno bate todos los records tanto a nivel de precisión como de longitud. Este nuevo método combina nanocintas complementarias de 2 nanómetros, como si fueran piezas de Lego, generando así nanocintas de 36 nanómetros con total precisión atómica.

La conductividad eléctrica aumenta con la longitud de las cintas, lo que podría permitir el desarrollo de nuevos dispositivos electrónicos más eficientes. Además se han observado propiedades de absorción y de emisión de luz excepcionales que superan las de los puntos cuánticos, por lo que las nanocintas de grafeno podrían expandir su potencial de aplicación a otros campos como la energía, los dispositivos LED, e la imagen médica.

Referencia:

Rajeev K. Dubey, Mauro Marongiu, Shuai Fu, Guanzhao Wen, Mischa Bonn, Hai I. Wang, Manuel Melle-Franco, Aurelio Mateo-Alonso (2023) Accelerated iterative synthesis of ultralong graphene nanoribbons with full atomic precision Chem doi: 10.1016/j.chempr.2023.06.017

El artículo Nuevo método para la producción de alta precisión de nanocintas de grafeno ultralargas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Coordenadas polares

Thu, 2023/09/07 - 11:59

Os voy a confesar una cosa. Tengo un vicio, una pequeña (inofensiva) obsesión. Allá donde voy, saco fotos redondas. ¿Y qué son las fotos redondas, me preguntaréis? Pues bien, algo como esto… y tengo cientos.

Coordenadas polaresFotos: Almudena M. Castro

Todo empezó como un juego hace bastantes años. Siempre que entraba en una iglesia, un palacete o una catedral, a mí me daba por fijarme en el techo. Me llamaba la atención lo siguiente: mientras que la mayoría de los cuadros y pinturas que nos rodean parecen basarse un sistema de representación cartesiano (arriba-abajo, izquierda-derecha), esos ejes se desdibujan en cuanto uno mira hacia arriba.

Coordenadas polaresEsta soy yo haciendo turismo con tortícolis, desde que tengo memoria. Foto: Almudena M. Castro

Es como si el mundo que nos rodea, y las pinturas que lo representan, estuviesen atravesados por finísimas líneas verticales que se extienden hacia el cielo. Esas líneas invisibles cuadriculan todo lo que crece sobre la Tierra, incluida nuestra mirada, que queda atrapada, obligada a girar sobre su eje. Pero se diría que, sobre nuestras cabezas, ese orden desaparece. Basta girar el cuello, colocarse de frente a la gravedad y las columnas invisibles del mundo desaparecen: arriba y abajo ya no ordenan el espacio, derecha e izquierda se desparraman en cualquier dirección.

Coordenadas polaresCapilla Sixtina. Foto: Dennis Jarvis / Wikimedia Commons.

En este plano contrapicado, de hecho, lo más común es encontrarse con simetrías circulares. Por eso, la mayor parte de mis “fotos redondas” están sacadas con el objetivo apuntando hacia arriba. Capturan lámparas, cúpulas, bóvedas de todos los colores, formas y tamaños, pero sometidas casi siempre a algún tipo de simetría circular.

Cúpula de la iglesia del Salvador sobre la Sangre Derramada. Foto: de Almudena M. Castro.

Fue esto lo que me dio una idea inicialmente: ¿y si representase estas imágenes en coordenadas polares, por así decirlo?, ¿sería posible hacer aún más evidente su simetría?

La idea fue creciendo hasta convertirse en un proyecto de fotografía (o una colección obsesiva, según se mire) y un programa de Python, elaborado junto a Iñaki Úcar. Pero para explicar bien en qué consiste, empecemos por la base: ¿qué es esto de las coordenadas polares y por qué debería importarte?

Un puente entre mundos matemáticos

Cuenta la leyenda1 que Descartes inventó las coordenadas cartesianas mientras miraba una mosca. De niño había adquirido el hábito de quedarse en la cama hasta tarde, debido a las frecuentes enfermedades que lo aquejaban. Un día, vio al insecto moviéndose por el techo de su cuarto y se quedó embobado analizando su movimiento. Se preguntó cómo podría describirlo sin dibujar la trayectoria sobre un papel y se le ocurrió que, en cada momento, la posición de la mosca quedaba perfectamente definida por su distancia a dos paredes perpendiculares de la habitación. Esa reflexión le llevó a idear lo que hoy conocemos como geometría analítica, y comieron perdices. Fin.

La verdad es que no está muy claro siquiera que Descartes fuera el primero en describir las coordenadas23 que hoy llevan su nombre. Pero el relato condensa de manera ejemplar la magia de los sistemas de coordenadas. ¡Es un invento que nos permite describir el espacio mediante números!, una idea tan poderosa que logró tender puentes entre dos mundos matemáticos separados durante siglos: el de la aritmética y la geometría.

Las coordenadas cartesianas definen un punto sobre un plano indicando su distancia a dos líneas perpendiculares. Las líneas son las paredes del cuarto de Descartes en el relato, o de manera más general, los ejes x e y (o eje de abscisas y eje de ordenadas). Pero esta no es la única manera de indicar una posición. Grégoire de Saint-Vincent y Bonaventura Cavalieri introdujeron el concepto de coordenadas polares de forma independiente a mediados del siglo XVII. En este sistema, cada punto de una superficie queda definido por su distancia al polo (el origen de coordenadas), y un ángulo que se define entre el eje de referencia, o eje polar y la línea que une el punto con el origen. Estas coordenadas a menudo se conocen como r (el radio) y θ (el ángulo). Podríamos usarlas para indicar la localización de cualquier punto de la Tierra respecto el polo Norte, por ejemplo4. Probablemente de ahí el nombre.

Estos dos sistemas de coordenadas son los que se utilizan más a menudo para describir una superficie plana (aunque no son los únicos, ni mucho menos). Ambos son equivalentes, igualmente poderosos a la hora de describir el espacio mediante números. Pero, a menudo, elegimos uno u otro en función de aquello que queremos describir. El propio sistemas de coordenadas, el lenguaje que usamos para describir el espacio, es capaz de absorber sus simetrías y simplificar así enormemente un problema.

La subnormal polar de una espiral de Arquímedes es constante. Fuente: Wikimedia Commons

Quizás, el ejemplo más paradigmático es el de una espiral. Si queremos describir una espiral de Arquímedes en coordenadas polares, basta con una expresión tan simple como: . A medida que el ángulo de giro aumenta (θ), el punto se va alejando del origen (r). En cartesianas, la ecuación no solo es mucho más farragosa, también se vuelve mucho más difícil de interpretar: . En física es habitual enfrentarse a problemas, donde una condición de contorno, o un campo, se describe mucho más fácilmente en un sistema de coordenadas u otro. xo

Pues bien, si aplicamos esta lógica matemática a cualquier tipo de sistema, decidme: ¿qué sistema utilizaríais para describir una fotografía como esta?

Foto: Alexey Kljatov / Wikimedia Commons.

Fácil, ¿no? La imagen presenta, claramente, una simetría circular. En el próximo artículo os cuento cómo obtener y representar sus coordenadas polares, con un poquito de Python y mucho amor a la simetría.

Referencias y notas:

1Este relato está muy extendido. Se puede encontrar en un montón de sitios de internet, e incluso en el documental “Genios, por Stephen Hawking”. Sin embargo, y tras muchos esfuerzos, no he conseguido localizar su fuente. Es posible que se trate solo de una leyenda, similar a la de la manzana de Newton. Pero si algún lector conoce su origen, ¡sería genial que lo compartiera en los comentarios!

2H., T. (1926) The Geometry of René Descartes. Nature 118, 400–401. https://doi.org/10.1038/118400a0

3Diacu, F. (2016). The use of coordinate systems before Descartes. Crux Mathematicorum, Vol. 42(3)

4Las coordenadas polares de Madrid, desde donde escribo, serían (r, θ) = (5,513 km, – 3.703790º), tomando el meridiano de Greenwich como eje polar.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Coordenadas polares se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Los cuadrados de MacMahon

Wed, 2023/09/06 - 11:59

Ya estamos en septiembre y para la mayoría de las personas que estáis leyendo esta entrada del Cuaderno de Cultura Científica se habrá terminado ya el período vacacional. Por este motivo nada mejor que empezar el mes de septiembre con un entretenido rompecabezas geométrico.

Cartel de la película británica El hombre que conocía el infinito (2015), sobre el matemático indio Srinivasa Ramanujan (1887-1920), y fotograma de la misma en el que aparece el actor Kevin McNally interpretando al comandante (mayor) Percy MacMahon.

Percy Alexander MacMahon (1854–1929) fue un militar y matemático británico, que en su libro New Mathematical Pastimes / Nuevos pasatiempos matemáticos (1921) introdujo, entre otros, el rompecabezas conocido actualmente con el nombre de “Los cuadrados de MacMahon”.

Las piezas del rompecabezas

Lo primero que hizo el matemático Percy MacMahon fue tomar un cuadrado dividido en cuatro partes iguales mediante sus dos diagonales, como se muestra en la siguiente imagen. Es decir, el cuadrado se divide en cuatro regiones con forma de triángulo rectángulo isósceles y cuya hipotenusa es un lado del cuadrado original.

Y se planteó la siguiente cuestión: ¿de cuántas formas distintas, salvo rotaciones, se puede colorear el cuadrado dividido en cuatro partes iguales por sus dos diagonales utilizando tres colores distintos?

Este es un problema sencillo que podéis resolver vosotros mismos utilizando lápiz y papel. De hecho, podéis interrumpir la lectura de esta entrada en este punto y buscar vosotras mismas la respuesta.

Pero si continuáis leyendo la entrada, sin interrupción, entonces os diré que la respuesta es veinticuatro, 24. Es decir, se puede colorear, utilizando tres colores distintos, el cuadrado dividido en los cuatro triángulos rectángulos isósceles iguales de 24 formas distintas, salvo rotación, como se muestra en la siguiente imagen, que es del libro de Percy MacMahon y en la que utiliza números 1, 2 y 3, para representar los colores.

La solución al problema de MacMahon de colorear el cuadrado dividido en cuatro partes iguales por sus dos diagonales, donde cada número es un color

 

Por lo tanto, tras este sencillo análisis, se pueden construir las 24 fichas que serán utilizadas en el rompecabezas y que consisten en un cuadrado dividido por sus dos diagonales en cuatro regiones triangulares iguales, pero cada una de las fichas coloreada de una de las 24 maneras posibles que existen si se utilizan tres colores (por ejemplo, azul, verde y amarillo).

Las 24 fichas que componen el rompecabezas “Los cuadrados de MacMahon”

 

Pero volviendo a la cuestión del coloreado de los cuadrados divididos en cuatro regiones triangulares iguales, mediante sus diagonales, nos podríamos plantear la misma cuestión que antes, pero con cualquier cantidad n de colores. Os dejo como problema que descubráis que la cantidad de formas de colorear, con n colores, viene dada por la siguiente fórmula.

Los cuadrados de MacMahon, el rompecabezas

Si se consideran las 24 fichas construidas a partir del problema de MacMahon, como 24 es el producto de 4 por 6, con ellas se puede formar un rectángulo de 4 filas y 6 columnas, un rectángulo 4 x 6. Por ejemplo, si formamos el rectángulo con las fichas tal cual las teníamos colocadas más arriba, como se muestra en la siguiente imagen.

El matemático británico se planteó construir un rectángulo de 4 filas y 6 columnas que cumpliera ciertas condiciones sobre el color. En concreto, las dos reglas que se deben de cumplir en el denominado rompecabezas de los cuadrados de MacMahon son:

1. Cuando dos fichas tengan un lado en común el color de las regiones triangulares que comparten ese lado, en los dos cuadrados, tienen que tener el mismo color (en la siguiente imagen se muestra un caso positivo, a la izquierda, y uno negativo, a la derecha);

2. Todo el perímetro tiene que ser de un mismo color, es decir, todas las regiones triangulares cuya hipotenusa forma parte del perímetro del rectángulo tienen que tener el mismo color, ya sea azul, verde o amarillo, con los colores que nosotros hemos elegido.

Por ejemplo, una solución al rompecabezas de los cuadrados de MacMahon es la siguiente.

Una de las soluciones de los cuadrados de MacMahon

 

En 1964 se probó, con ayuda de un programa de ordenador, que existen 12.261 soluciones (fijado un color para el borde), excluyendo simetrías, es decir, rotaciones y reflexiones. Sin embargo, por lo que he podido leer en algunas fuentes (como el libro The Art of Computer Programming / El arte de programar ordenadores del matemático y experto en programación estadounidense Donald Knuth) ese resultado no es correcto y en la década de los años 1970 se demostró que existían 20 configuraciones distintas para el borde y 13.328 soluciones al rompecabezas, excluyendo simetrías.

El rompecabezas de los cuadrados de MacMahon tiene la ventaja de que puede construirse físicamente, con papel (si prefieres imprimirlas te dejamos aquí el pdf Las piezas del rompecabezas con las 24 fichas), cartulina o madera, por ejemplo, y se puede jugar con sus 24 piezas buscando soluciones del mismo. El utilizar las piezas físicas nos permitirá además observar algunas claves del juego que nos llevarán a obtener soluciones o incluso el camino para obtener todas ellas.

Por ejemplo, podemos darnos cuenta de que, si el color del borde es el azul, como en el ejemplo anterior, puede probarse que la ficha monocolor azul (la que tiene sus cuatro triángulos azules) tiene que estar colocada en el borde y no en el interior del rectángulo. Esto se puede probar fácilmente de la siguiente forma:

a) Cada color (por ejemplo, el azul) está en 18 de las 24 fichas, es decir, hay 18 fichas que tienen 1, 2, 3 o 4 triángulos de ese color (azul);

b) En cada solución del rompecabezas, de esas 18 fichas con algún triángulo azul (los mismo para cualquier otro color), 16 de ellas estarán en el borde del rectángulo 4 x 6 (4 filas y 6 columnas), puesto que el perímetro del rectángulo está formado por 16 cuadrados, por lo tanto, sólo 2 de las fichas azules estarán en el interior;

c) Si en una solución del rompecabezas la ficha monocolor azul estuviese en el interior (que sería una de las 2 únicas que están en el interior en esa solución, como hemos explicado en el apartado b) se necesitarían 2 o 3 fichas azules interiores que estuviesen pegadas a esta por sus lados, pero sólo puede haber una más, luego es imposible.

Llegados a este punto os animo a que juguéis a los cuadrados de MacMahon, buscando soluciones al mismo, es decir, construyendo rectángulos 4 x 6 de forma que las fichas que estén una al lado de la otra compartan color y que el perímetro sea todo de un mismo color (por ejemplo, azul).

Un rectángulo de 3 filas y 8 columnas

Volviendo a las fichas del rompecabezas, resulta que 24 también puede expresarse como el producto de 3 por 8. Por lo tanto, se puede formar con ellas un rectángulo de tamaño 3 x 8 (3 filas y 8 columnas) y plantearnos también el rompecabezas para este tamaño.

Podemos encontrar soluciones al rompecabezas 3 x 8 si le pedimos solo la primera condición, la de que, cuando dos fichas tengan un lado en común, el color de las regiones triangulares que comparten ese lado sean del mismo color, como en la siguiente imagen.

La cuestión es si existe alguna solución para el rompecabezas de los cuadrados de MacMahon para el rectángulo 3 x 8, exigiendo que se cumplan las dos condiciones del rompecabezas, es decir, también que todo el perímetro sea de un mismo color. La respuesta es negativa. La justificación también tiene que ver con las fichas interiores y exteriores (en el borde) del rectángulo. Veámoslo.

a) Como ya se ha comentado anteriormente, cada color (por ejemplo, el azul) está en 18 de las 24 fichas, es decir, hay 18 fichas que tienen 1, 2, 3 o 4 triángulos azules;

b) En cada solución, si la hubiese, del rompecabezas para el rectángulo 3 x 8, las 18 fichas con algún triángulo azul tendrían que estar en el borde del rectángulo, puesto que el perímetro del rectángulo está formado por 18 cuadrados (véase la imagen anterior);

c) Existen tres fichas con dos triángulos azules contrapuestos, las que aparecen en la siguiente imagen, que al tener que estar en el borde del rectángulo obligarían a que existiera una ficha azul interior (para compartir el color en el lado que no está pegado al exterior), lo cual no es posible, ya que las 18 están en el borde.

No lo hemos comentado, pero trivialmente no es posible resolver el rompecabezas de los cuadrados de MacMahon si el rectángulo fuese de tamaño 2 x 12, ya que todas las fichas tendrían que ser exteriores, luego no podría cumplirse la condición de que el perímetro sea monocolor.

Por hoy nada más, solo que os lo paséis bien jugando a los cuadrados de MacMahon, e incluso planteando nuevos rompecabezas con dichas fichas, por ejemplo, construir un cuadrado 5 x 5, pero con un agujero en medio (es decir, un hueco para una ficha más, por ejemplo, si añadimos una ficha completamente blanca).

Bibliografía

1.- Percy A. MacMahon, New Mathematical Pastimes, Cambridge University Press, 1921 (puede obtenerse una copia en pdf a través de la biblioteca digital Internet Archive [archive.org]).

2.- Martin Gardner, Nuevos pasatiempos matemáticos, Alianza editorial, 2018.

3.- Feldman, Gary, Documentation of the MacMahon Squares Problem [https://exhibits.stanford.edu/stanford-pubs/catalog/nv052jg0055], AIM-012, Stanford Artificial Intelligence Laboratory, 1964.

4.- Kate Jones, The Surprising Versatility of Edge-Matching Tiles, Bridges Conference, 2017.

5.- Donald Knuth, The Art of Computer Programming, volumen 4, Springer, 2019.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los cuadrados de MacMahon se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Una prueba matemática establece nuevos límites a la formación de agujeros negros

Tue, 2023/09/05 - 11:59

Durante medio siglo, los matemáticos han intentado definir las circunstancias exactas en las que un agujero negro está destinado a existir. Una nueva prueba muestra cómo un cubo puede ayudar a responder la cuestión.

Un artículo de Steve Nadis. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

agujero negroUna conjetura de hace 51 años dice que si la materia se comprime en un aro de cierto tamaño, seguramente se formará un agujero negro. Ilustración: Allison Li / Quanta Magazine

La noción moderna de agujero negro ha estado con nosotros desde febrero de 1916, tres meses después de que Albert Einstein revelara su teoría de la gravedad. Fue entonces cuando el físico Karl Schwarzschild, en medio de los combates en el ejército alemán durante la Primera Guerra Mundial, publicó un artículo con implicaciones sorprendentes: si se confina suficiente masa dentro de una región perfectamente esférica (delimitada por el “radio de Schwarzschild”), nada puede escapar de la intensa atracción gravitacional de un objeto así, ni siquiera de la propia luz. En el centro de esta esfera se encuentra una singularidad donde la densidad se acerca al infinito y la física conocida descarrila.

En los más de 100 años transcurridos desde entonces, físicos y matemáticos han explorado las propiedades de estos enigmáticos objetos desde la perspectiva tanto de la teoría como de la experimentación. De ahí que puede resultar sorprendente escuchar que «si tomamos una región del espacio con un montón de materia esparcida en ella y le preguntamos a un físico si esa región colapsaría para formar un agujero negro, todavía no tenemos las herramientas para responder esa pregunta”, afirma Marcus Khuri, matemático de la Universidad Stony Brook.

No hay que desesperar. Khuri y tres colegas (Sven Hirsch del Instituto de Estudios Avanzados, Demetre Kazaras de la Universidad Estatal de Michigan y Yiyue Zhang de la Universidad de California, Irvine) han publicado un nuevo artículo que nos acerca a poder determinar la presencia de agujeros negros basándose únicamente en la concentración de materia. Además, su artículo demuestra matemáticamente que pueden existir agujeros negros de dimensiones superiores (los de cuatro, cinco, seis o siete dimensiones espaciales), algo que antes no se podía afirmar con seguridad.

Para poner el nuevo artículo en contexto valdría la pena retroceder hasta 1964, el año en que Roger Penrose comenzó a presentar los teoremas de singularidad que le valieron una parte del Premio Nobel de Física de 2020. Penrose demostró que si el espaciotiempo tiene algo llamado una superficie atrapada cerrada (una superficie cuya curvatura es tan extrema que la luz que sale se envuelve y se gira hacia adentro), entonces también debe contener una singularidad.

Fue un resultado monumental, en parte porque Penrose aportó nuevas y potentes herramientas de la geometría y la topología al estudio de los agujeros negros y otros fenómenos de la teoría de Einstein. Pero, para empezar, el trabajo de Penrose no explica en detalle qué se necesita para crear una superficie atrapada cerrada.

agujero negroKip Thorne en 1972, el mismo año en que presentó su “conjetura del aro”. Fuente: Wikimedia Commons

En 1972, el físico Kip Thorne dio un paso en esa dirección al formular la conjetura del aro. Thorne reconoció que determinar si un objeto no esférico (que carecía de la simetría supuesta en los esfuerzos pioneros de Schwarzschild) colapsaría en un agujero negro sería “mucho más difícil de calcular [y] de hecho, mucho más allá de mis capacidades”. (Thorne ganaría el Premio Nobel de Física de 2017). Sin embargo, sentía que su conjetura podría hacer que el problema fuera más manejable. La idea básica es determinar primero la masa de un objeto dado y a partir de ahí calcular el radio crítico de un aro en el que debe encajar el objeto (sin importar cómo esté orientado el aro) para hacer inevitable la formación de un agujero negro. Sería como demostrar que un hula-hoop que se ajusta alrededor de la cintura también podría, si se gira 360 grados, adaptarse a todo lo largo del cuerpo, incluidos los pies y la cabeza. Si el objeto encaja, colapsará y se convertirá en un agujero negro.

«La conjetura del aro no está bien definida», comenta Kazaras. «Thorne utilizó intencionadamente una redacción vaga con la esperanza de que otros proporcionaran una expresión más precisa».

En 1983, los matemáticos Richard Schoen y Shing-Tung Yau cumplieron, demostrando una versión importante de la conjetura del aro, posteriormente denominada teorema de existencia del agujero negro. Schoen y Yau demostraron (en un argumento matemático claro) cuánta materia debe acumularse en un volumen dado para inducir la curvatura espacio-temporal necesaria para crear una superficie atrapada cerrada.

Kazaras elogia el trabajo de Schoen-Yau por su originalidad y generalidad; su técnica podría revelar si cualquier configuración de la materia, independientemente de consideraciones de simetría, está destinada a convertirse en un agujero negro. Pero su enfoque tiene un gran inconveniente. La forma en que miden el tamaño de una región determinada del espacio (determinando el radio del toro o dónut más grueso que podía caber en su interior) es, para muchos observadores, “engorrosa y poco intuitiva”, afirma Kazaras, y por lo tanto poco práctica.

El nuevo artículo ofrece una alternativa. Una de las principales innovaciones de Schoen y Yau fue reconocer que una ecuación ideada por el físico Pong Soo Jang, que originalmente no tenía nada que ver con los agujeros negros, puede «explotar» (llegar al infinito) en ciertos puntos del espacio. Sorprendentemente, el lugar donde explota coincide con la ubicación de una superficie atrapada cerrada. Entonces, si se desea encontrar dicha superficie, primero hay que averiguar dónde llega al infinito la ecuación de Jang. “En la escuela secundaria a menudo intentamos resolver una ecuación cuya solución es igual a cero”, explica el matemático Mu-Tao Wang de la Universidad de Columbia. «En este caso, estamos tratando de resolver la ecuación [de Jang] de modo que la solución sea infinita».

Hirsch, Kazaras, Khuri y Zhang también se basan en la ecuación de Jang. Pero además de un toro, utilizan un cubo, uno que puede deformarse considerablemente. Este enfoque “es similar a la idea de Thorne, que utiliza aros cuadrados en lugar de los tradicionales aros circulares”, afirma Khuri. Se basa en la “desigualdad del cubo” desarrollada por el matemático Mikhail Gromov. Esta relación conecta el tamaño de un cubo con la curvatura del espacio dentro y alrededor de él.

El nuevo artículo muestra que si puedes encontrar un cubo en algún lugar del espacio donde la concentración de materia sea grande en comparación con el tamaño del cubo, entonces se formará una superficie atrapada. «Esta medida es mucho más fácil de comprobar» que una en la que se usa un toro, afirma Pengzi Miao, matemático de la Universidad de Miami, «porque todo lo que necesitas calcular es la distancia entre las dos caras opuestas más cercanas del cubo».

Los matemáticos también pueden construir dónuts (toros) y cubos en dimensiones superiores. Para extender su prueba de la existencia de los agujeros negros a estos espacios, Hirsch y sus colegas se basaron en conocimientos geométricos que se han desarrollado en las cuatro décadas posteriores al artículo de Schoen y Yau de 1983. El equipo no pudo ir más allá de siete dimensiones espaciales porque comienzan a aparecer singularidades en sus resultados. «Solucionar esas singularidades es un punto de conflicto común en geometría», explica Khuri.

El siguiente paso lógico, añade, es demostrar la existencia de un agujero negro basándose en una “masa cuasi local”, que incluye la energía proveniente tanto de la materia como de la radiación gravitacional, en lugar de solo de la materia. No es una tarea sencilla, en parte porque no existe una definición universalmente aceptada de masa cuasi local.

Mientras tanto, surge otra pregunta: para crear un agujero negro de tres dimensiones espaciales, ¿se debe comprimir un objeto en las tres direcciones, como insistió Thorne, o podría ser suficiente la compresión en dos direcciones o incluso en una sola? Todas las pruebas apuntan a que la afirmación de Thorne es cierta, apunta Khuri, aunque aún no está probada. De hecho, es solo una de las muchas preguntas abiertas que persisten sobre los agujeros negros después de que apareciesen por primera vez hace más de un siglo en el cuaderno de notas de un soldado alemán.

 

El artículo original, Math Proof Draws New Boundaries Around Black Hole Formation, se publicó el 16 de agosto de 2023 en Quanta Magazine.

Traducido por César Tomé López

El artículo Una prueba matemática establece nuevos límites a la formación de agujeros negros se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Las dunas como registro de cambio climático y ambiental

Mon, 2023/09/04 - 11:59

Las dunas son una de las morfologías más abundantes y reconocibles en nuestro Sistema Solar. No solo las conocemos en la Tierra, sino que también las hemos observado en otros planetas como Marte o Venus, así como en lugares más exóticos como pueden ser en Ío o el cometa 67P/Churyumov-Gerasimenko que, a pesar de no tener una atmósfera como la nuestra, son capaces de generar estas formas.

Incluso en Titán -el satélite de Saturno- observamos dunas en las que los granos que las conforman ni siquiera son de arena y probablemente lo sean de cristales de compuestos orgánicos -formados gracias a las bajas temperaturas-, algo realmente exótico e imposible bajo las condiciones de nuestro planeta, pero cuyo comportamiento es similar al de los granos de arena a los que estamos tan acostumbrados.

La arena que forma las dunas es un material granular capaz de autoorganizarse de tal manera que puede llegar a formar patrones ordenados y estructuras de manera espontánea, algo que podemos ver en la manera en la que las dunas se organizan y evolucionan en respuesta a factores ambientales tales como el suministro de sedimentos o a la velocidad y la dirección del viento.

A la izquierda, dos campos de dunas en Titán. A la derecha, dos en la Tierra. Como podemos ver a través de estas imágenes, las morfologías son tan diferentes que más allá de la resolución y la calidad de las imágenes, tendríamos grandes dificultades para distinguir las dunas de Titán de las de nuestro propio planeta. Imagen cortesía de NASA/JPL–Caltech/ASI/ESA and USGS/ESA.

Y es que quizás cabría esperar que cuando sopla el viento sobre una superficie más o menos plana, la arena iría dispersándose de una manera aleatoria, pero cualquier perturbación, como la presencia de un obstáculo, permite que la arena empiece a amontonarse y poco a poco dar lugar a la formación de las dunas.

Siendo estas una forma tan ubicua en nuestro entorno planetario, ¿podrían ser usadas de alguna manera las dunas para comprender mejor los cambios climáticos y ambientales? Un equipo de la Universidad de Stanford acaba de publicar un estudio en la revista Geology titulado “Dune Interactions Record Changes in Boundary Conditions” que propone el uso de una serie de medidas y técnicas que aplicadas sobre las imágenes de dunas tomadas desde la órbita pueden ayudarnos a desentrañar los cambios que han ocurrido en los planetas y, quien sabe, si incluso poder llegar a correlacionar algunos con los observados en el nuestro propio.

El estudio de la morfología de las dunas ofrece una clara ventaja frente a otras técnicas de que requieren o bien contacto o instrumentos más complejos, y es que las dunas son visibles con cámaras “convencionales” -en el sentido del rango de luz visible- y en el caso de las misiones orbitales se pueden tomar numerosas imágenes que incluso nos pueden llegar a permitir reconstruir su forma tridimensional y si la misión dura lo suficiente, estudiar su movimiento en la actualidad.

Imagen de un campo de dunas en el interior del cráter Proctor, en Marte tomada por el instrumento HiRISE de la Mars Reconaissance Orbiter. Imagen cortesía de NASA/JPL-Caltech/UArizona.

En este nuevo artículo los investigadores han trabajado sobre 46 campos de dunas existentes en la Tierra y en Marte midiendo la longitud y cresta de las dunas, así como los puntos donde dos o más dunas interactúan entre sí. Para este equipo, un gran número de interacciones entre las dunas suponen un reciente cambio en las condiciones ambientales del campo de dunas, algo que puede reflejar cambios en el patrón de los vientos dominantes o en el suministro de arena, por ejemplo. Y al revés, cuantas menores son las interacciones hay entre las dunas, lo que reflejan es un estado de equilibrio del campo de dunas con las condiciones ambientales actuales.

Además, las orientaciones de la cresta de las dunas suelen mostrar su dirección de movimiento dominante sobre escalas temporales relativamente largas -a veces incluso de varios miles de años-, pero también se pueden estudiar fenómenos de una mayor escala temporal como los ciclos de Milankovitch -variaciones periódicas en los parámetros orbitales de los planetas y satélites que tienen como consecuencia la alteración del clima a lo largo de escalas de decenas o cientos de miles de años y que suelen estar relacionados con la excentricidad orbital, la precesión y la inclinación del eje de rotación- o incluso menores, en el caso de grandes sistemas tormentosos capaces de alterar el estado de equilibrio de los campos de dunas, a partir de la formación de otras morfologías dunares.

Algunas de las líneas que cruzan de manera plana y diagonal el afloramiento en primer plano representan parte de la estructura interna de unas dunas del Jurásico que quedaron fosilizadas permitiéndonos hoy que podamos estudiarlas. En concreto este afloramiento corresponde con la Navajo Sandstone presente en el Zion National Park de los Estados Unidos. Cortesía de Annie Scott y el USGS.

Estos estudios sobre las dunas nos podrían ayudar en el futuro a conocer, por ejemplo, como ha cambiado el clima en Marte, permitiendo a los científicos buscar zonas más prometedoras donde puedan existir depósitos de hielo que pudieran ser accesibles para las misiones humanas que viajen al planeta rojo, pero también a comprender mejor la dinámica de las dunas en nuestro planeta.

Este último punto nos abriría una puerta a interpretar de una manera más acertada el registro rocoso de la Tierra, ya que en la actualidad no solo vemos las dunas activas en la superficie, sino que también somos capaces de estudiar los campos de dunas fósiles gracias a la estructura interna de estas que a veces ha fosilizado y pasado a formar parte de las rocas, permitiéndonos hacer mejores interpretaciones ambientales.

Sin duda, y aunque a veces parezca difícil, a través de la geología planetaria no solo podemos conocer mejor otros lugares del Sistema Solar, sino también, aplicando las mismas técnicas y conocimientos, mejorar lo que sabemos sobre la historia de la Tierra.

Referencias:

Marvin, M. Colin, Mathieu G.A. Lapôtre, Andrew Gunn, Mackenzie Day, y Alejandro Soto (2023) Dune Interactions Record Changes in Boundary Conditions Geology doi: 10.1130/G51264.1.

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Las dunas como registro de cambio climático y ambiental se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Lo que ‘Oppenheimer’ no cuenta

Sun, 2023/09/03 - 11:59

numérica

J. Robert Oppenheimer (izquierda) y el matemático John von Neumann (derecha), cuyos trabajos sentaron las bases de la simulación numérica moderna.

Uno de los grandes avances tecnológicos de la Segunda Guerra Mundial fue la creación de la bomba atómica. La película de Christopher Nolan Oppenheimer recoge ese momento histórico en el que la ciencia ocupó las portadas de todos los periódicos del mundo. Para conseguir un bomba tan mortífera, el gobierno de los EE. UU. reclutó a los mejores científicos de la época en unas instalaciones secretas (Los Alamos Scientific Laboratory, actualmente Los Alamos National Laboratory_). Allí dieron forma al Proyecto Manhattan (1942-1946).

La primera detonación de la bomba atómica, la prueba Trinity se produjo el 16 de julio de 1945.

Pero en Los Álamos ocurrieron muchas más cosas. Entre ellas, el avance tecnológico que hizo posible el uso de computadoras para la simulación numérica, algo que permitiría predecir el efecto de las potentísimas ondas de choque del artefacto que estaban creando. Sobre el papel, existía una mínima probabilidad de que generaran un efecto en cadena que acabaría con el mundo.

Evolución de la bola de fuego de la prueba Trinity, comparada con el Empire State Building a escala.
Alex WellersteinCálculo de las ondas de choque de la bomba

Lo menos conocido de lo que ocurrió en Los Álamos es que el desarrollo de la bomba atómica (y años posteriores) fue el origen de la dinámica de fluidos computacional (término acuñado por Chia-Kun Chu probablemente a partir de 1960). Esta rama de la Mecánica de Fluidos se basa en el uso de computadoras –a través de algoritmos– para resolver problemas hidrodinámicos. Entre ellos, claro, las ondas de choque que genera una bomba atómica.

Gran explosión convencional. La onda de choque aparece como una línea nítida alejada de la bola de fuego.
Stuhmiller J.H., Phillips Y.Y., and Richmond D.R. (1991) The Physics and Mechanisms of Primary Blast Injury. In: Bellamy R.F., Zajtchuk R., eds. Conventional Warfare: Ballistic, Blast, and Burn Injuries. Washington DC: Office of the Surgeon General of the US Army; 241-270.

Los científicos del Proyecto Manhattan no solo desarrollaron las herramientas numéricas para describir las ondas de choque debido a las explosiones. También el uso de computadoras para realizar la complejidad de los cálculos. Los trabajos del matemático John von Neumann sentaron las bases para la fundación moderna de la simulación numérica.

John von Neumann trabajó en el Proyecto Manhattan como asesor en la División Teórica. El líder de dicha división fue Hans Bethe. De 1941 a 1943, Von Neumann elaboro varios informes para el gobierno de los EE. UU. sobre teoría de ondas de choque, detonaciones y ondas de choque oblicuas.

“Estoy pensando en computadoras”

Recordemos que la bomba desarrollada (de tipo implosión) consistía en una esfera de plutonio rodeada de explosivos. Las cargas, al explosionar, comprimían el núcleo causando la fisión de los átomos. La reacción nuclear descontrolada provocaba la explosión y destrucción total del perímetro.

El mayor desafío de la implosión del núcleo fue diseñar los explosivos que garantizaran una onda de choque simétrica. Los científicos se percataron de que las simplificaciones teóricas eran totalmente inadecuadas. La manera de tratar las complejas ecuaciones era resolverlas numéricamente.

“Estoy pensando en algo mucho más importante que las bombas. Estoy pensando en computadoras”.

John von Neumann.

La aportación más ingeniosa del matemático se produjo en 1944. John von Neumman se percato del potencial que podrían tener las computadoras electrónicas. Por aquellos años la Universidad de Pensilvania también desarrollaba el ENIAC, el primer ordenador digital de propósito general de la historia. Hasta aquel momento el término “computadora” se refería a “persona que realiza cálculos matemáticos”.

Equipo de tabulación de tarjetas de IBM 601 durante el proyecto Manhattan.
Los Alamos National Laboratory

En abril de ese año llegaron a Los Álamos las primeras computadoras IBM 601, calculadoras basadas en tarjetas perforadas. Para resolver numéricamente las ecuaciones fluido-dinámicas, primero se traducían a un sistema de ecuaciones algebraicas. Luego dicho sistema se codificaba en las tarjetas y se enviaban en lotes a través de una secuencia de computadoras.

John von Neumann pasó dos semanas cableando las computadoras y familiarizándose con los cálculos. Richard Feynmann estuvo a cargo de la codificación. Finalmente, el primer informe sobre simulación numérica fue publicado el 20 de junio de 1944.

Los físicos John von Neumann, Richard Feynman y Stanisław Ulam (de izquierda a derecha).
Los Alamos National LaboratoryLa importancia de la estabilidad numérica

Se utilizaron dos métodos numéricos para el cómputo de las ondas de choque: el shock fitting desarrollado por Rudolf Peierls y el shock capturing por Von Neumann. Sin embargo, el método de Von Neumann falló catastróficamente. Era necesario añadirle disipación a la onda de choque para que fuera estable.

A raíz de esto, en 1950 logro mejorar su método (artificial viscosity method) y formalizar una teoría para la estabilidad numérica (Von Neumann stability analysis).

Tras el Proyecto Manhattan y hasta su muerte en 1957, Von Neumann participó en el diseño de la EDVAC. Desarrolló una arquitectura de computadoras propia y la IAS machine. Finalmente, encontró un uso hoy sobradamente conocido para las computadoras: la predicción meteorológica.

El MANIAC y la era IBM

Finalizada la Segunda Guerra Mundial, Los Álamos siguió trabajando en el diseño y perfeccionamiento de armas nucleares. También la construcción de la computadora MANIAC I en 1949. Uno de los objetivos era simular las condiciones necesarias para detonar una bomba H tipo Teller-Ulam. Los cálculos previos se realizaron con el ENIAC, pero no fueron concluyentes.

Con la llegada de las grandes computadoras de la compañía IBM en 1953 a los Álamos, el grupo T-3, liderado por Francis Harlow, propició otra gran revolución en la dinámica de fluidos computacional.

La revolución numérica tras la bomba atómica

Durante más de tres décadas desarrollaron métodos numéricos que aún a día de hoy son referentes. Destacan la formulación Streamfunction-Vorticity para flujos incompresibles 2D, el método Marker-and-cell para flujos con lámina libre y el modelo de turbulencia k-epsilon. Aunque la versión final de este modelo se debe a Launder y Spalding (1972), del Imperial College London.

Simulación del flujo de aire en una calle encajonada.
Hotchkiss R.S. and Harlow F.H. (1973), Air pollution transport in street canyons, EPA-R473-029.

La aplicación de los métodos desarrollados por el grupo fue diversa. Desde la refracción de ondas de choque sobre interfaces oblicuas, formación de resaltos hidráulicos, hasta flujo relativista para colisiones de iones pesados.

Merece la pena destacar el trabajo de Reed y Hill en 1973. Desarrollaron la primera versión de un método de Galerkin discontinuo para resolver la ecuación de transporte de neutrones, e,cuación que describe el flujo de neutrones a través de un medio fisible no homogéneo, como en un reactor nuclear.

Lo vivido en Los Álamos desde su creación fue una verdadera explosión –tanto metafórica como literal– de ingenio para resolver los complejos cálculos. Allí, grandes genios desarrollaron una nueva manera de proceder con los problemas hidrodinámicos e inspiraron a muchos otros científicos sobre la modelización numérica sin la que hoy en día difícilmente podríamos explicar el mundo.The Conversation

Sobre el autor: Víctor Javier Llorente Lázaro, Investigador en Matemática Aplicada, Universidad de Granada

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Lo que ‘Oppenheimer’ no cuenta se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

ZientziaKutxa 2023: Volcanes que cambian la vida

Sat, 2023/09/02 - 11:59

Kutxa Fundazioa y el Donostia International Physics Center (DIPC) han ofrecido nuevamente en 2023 el ciclo de conferencias ZientziaKutxa, esta vez bajo el título “Rojo vivo”.

Prestigiosas científicas y científicos, a su vez grandes comunicadores, se dieron cita en la Sala Ruiz Balerdi de Kutxa Fundazioa para ofrecer charlas de divulgación sobre temas de actualidad científica o interés social.

El rojo en sus formas más intensas y evocadoras adquiere una notable presencia en este nuevo ciclo ZientziaKutxa, de ahí, el nombre “Rojo vivo” de este año. El color rojo produce una notable activación neuronal, efecto que se ve reflejado en diferentes elementos de la naturaleza y ámbitos del conocimiento científico. Por ejemplo, el hipnótico color de la lava de los volcanes en erupción que embelesa a geólogas y geólogas, esconde la presencia de hierro en estado oxidado. Y fue tras la explosión del volcán de Tambora y aquel “año sin verano”, que Polidori, médico personal de Byron, ideó la figura del vampiro, personaje que se ha alimentado de toda la mística en torno a otro ícono del rojo, la sangre. Un color que también se asocia con el calentamiento global y los escenarios en torno al cambio climático, invitando a la reflexión sobre la sostenibilidad de la vida en nuestro planeta.

Esta conferencia (“Volcanes que cambian la vida”, en castellano, aunque la presentación inicial sea en euskera) corre a cargo de Juana Vegas, geóloga y coordinadora del equipo de investigación en Patrimonio y Geodiversidad en el Instituto Geológico y Minero de España (IGME-CSIC).

Vegas ha participado en la emergencia de la erupción del volcán de la isla de La Palma (2021), y en la actualidad, está involucrada en la fase de recuperación con diversos proyectos de investigación. La conferencia muestra la importancia de convivir con los volcanes activos, comprender sus procesos y sus tiempos para la recuperación económica y social de los territorios volcánicos en el siglo XXI.

Edición realizada por César Tomé López

 

El artículo ZientziaKutxa 2023: Volcanes que cambian la vida se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El análisis de la microfauna en los sedimentos marinos permite conocer presente y pasado

Fri, 2023/09/01 - 11:59

En dos trabajos publicados recientemente, sendos grupos del Departamento de Geología de la UPV/EHU han demostrado la versatilidad del análisis de la microfauna presente en los sedimentos marinos. Por un lado, han visto que aportan información oceanográfica actual del Golfo de Bizkaia, y por otro, han podido inferir las condiciones marinas de la época en la que se formó el conocido como flysch negro de Armintza (sedimentos de entre 113 y 94 millones de años).

microfaunaFlysch negro de Armintza, en la costa del mar Cantábrico. Foto: Departamento de Geología UPV/EHU

Los grupos de investigación Harea-Geología Litoral y Grupo de estudio del Cretácico y Paleógeno, ambos del Departamento de Geología de la UPV/EHU, han publicado dos investigaciones donde extraen información oceanográfica actual y del período Cretácico de la costa vasca basándose en el análisis de la microfauna presente en los sedimentos. Estas dos publicaciones son un claro ejemplo de un principio de la Geología que afirma que “el presente es la clave del pasado. Es decir, estudiamos muy a fondo los organismos actuales, y con esa información, extrapolamos las condiciones que se dieron en el pasado mediante el estudio del registro fósil”, explica Ana Pascual, investigadora del grupo Harea-Geología Litoral y participante en ambos estudios.

“Llevamos cerca de 30 años trabajando en micropaleontología, estudiando parte de la microfauna presente en los sedimentos para determinar las condiciones oceanográficas del pasado (profundidad, oxigenación del fondo marino, influencia de las masas de agua, etc.). Siempre hemos trabajado con dos grupos de organismos: los ostrácodos, unos crustáceos muy pequeños, muchas veces microscópicos, y los foraminíferos bentónicos, un grupo de protistas u organismos unicelulares que segregan un caparazón y viven en el fondo marino”, detalla la investigadora. Aunque también han estudiado diferentes eventos oceánicos actuales analizando estos organismos; según las condiciones que se den en un lugar varía la composición y distribución de las diferentes especies que componen estos numerosísimos grupos de organismos marinos.

En esta ocasión, sin embargo, decidieron incluir en sus análisis los foraminíferos planctónicos, es decir, los que viven en las masas de agua formando parte del plancton y se desplazan con las corrientes marinas. Así lo describe la doctora Pascual: “Al ser la primera vez que trabajábamos con estos foraminíferos, nuestra única intención era conocer la biodiversidad, la composición y distribución de las especies en la actualidad, y ver si este conocimiento sobre los organismos actuales serviría para poder hacer futuras reconstrucciones paleoclimáticas y paleoceanográficas”. Para ello, analizaron los foraminíferos planctónicos presentes en unas muestras de sedimentos recientes que tenían conservadas de un estudio anterior.

Los resultados obtenidos, no obstante, les reportaron información adicional: vieron que los conjuntos de foraminíferos planctónicos “son buenos indicadores de las corrientes oceánicas y de las masas de agua que llegan hoy en día a la plataforma continental vasca”, afirma Pascual. Por ejemplo, observaron una acumulación preferente de foraminíferos planctónicos en el margen oriental de la plataforma vasca, lo que se corresponde con la corriente superficial general de la costa vasca, que fluye hacia el Este durante la mayor parte del año. La presencia de especies típicas de aguas subtropicales, así como de zonas subpolares también indican la entrada de diferentes corrientes marinas en el Golfo de Bizkaia, incluyendo las de upwelling (el ascenso de masas profundas de agua), tan importantes para la pesca actual.

El paleoambiente del flysch negro de Armintza

El conocimiento de los foraminíferos planctónicos y bentónicos y de ostrácodos les ha servido a estos dos grupos de geología de la UPV/EHU para la reconstrucción del ambiente o las condiciones oceánicas que existían cuando se acumularon los sedimentos que dieron lugar a lo que hoy en día conocemos como flysch negro de Armintza, en el Cretácico inferior (Albiense), que se inició hace 113 millones de años, así como en el siguiente periodo (Cenomaniense), del Cretácico superior, que tuvo lugar hace 94 millones de años.

Al igual que todos los flysch, el de Armintza también es una formación geológica de origen sedimentario, en la que se alternan capas duras de roca y capas de materiales más blandos, de forma que aparecen como si fueran las hojas de un libro. “La particularidad del flysch de Armintza es que es un sedimento oscuro, y el doctor Luis Miguel Agirrezabala, del Grupo de estudio del Cretácico y Paleógeno, quiso determinar qué condiciones fueron las que dieron lugar a esta característica, que normalmente se asocia con entornos donde no hay oxígeno, y la materia orgánica se deposita y adquiere ese color oscuro”, comenta la investigadora.

Basándose en la elevada proporción y composición de foraminíferos planctónicos y bentónicos, han estimado que la profundidad del mar en aquella época era de unos 600 metros. Los sedimentos del flysch negro son ricos en materia orgánica y la gran mayoría (más del 90 %) de los organismos son foraminíferos planctónicos, “lo cual indica que en la época en la que se acumularon esos sedimentos existió una masa de agua superficial oxigenada encima de una masa de agua más profunda estancada con niveles de oxígeno muy bajos. En la siguiente fase, sin embargo, se observa un incremento en los organismos bentónicos y la aparición de foraminíferos planctónicos propios de aguas más profundas, lo que apunta a que el agua dejó de estar estancada, aunque había cierto déficit de oxígeno en el fondo. Este artículo aporta una importante información sobre la formación del flysch negro, ya que hasta la fecha nunca se había abordado el estudio ambiental de esta formación”, concluye Pascual.

Referencias:

B. Martínez-García, A. Pascual, J. Rodríguez-Lázaro, A. Bodego (2023) Distribution of recent planktonic foraminifera in surface sediments of the Basque shelf (S Bay of Biscay): Oceanographic implications Continental Shelf Research doi: 10.1016/j.csr.2023.105011

L.M. Agirrezabala, A. Malaxetxebarria, A. Pascual, J. Rodríguez-Lázaro (2023) Deep-sea paleoenvironmental evolution in the mid-Cretaceous of the Basque Pyrenees based on microfaunal analysis (Armintza section) Continental Shelf Research doi: 10.1016/j.csr.2023.105001

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El análisis de la microfauna en los sedimentos marinos permite conocer presente y pasado se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La rebelión de las aguas

Thu, 2023/08/31 - 11:59

El pasado 26 de agosto se cumplió el 40 aniversario de las inundaciones de Bilbao. Era plena Semana Grande (o Aste Nagusia en euskera), las fiestas multitudinarias de Bilbao. Fueron unas fiestas pasadas por agua, en las que llovió todos los días, pero ese sábado 26 de agosto de 1983, sería diferente. Se produjo lo que entonces se conocía coloquialmente como un episodio de gota fría, al que hoy denominamos DANA (Depresión Aislada en Niveles Altos), que provocó hasta tres episodios tormentosos intensos con abundante precipitación. Un «reventón» en toda regla, o un diluvio repentino como dijeron muchos vecinos en aquel momento. La ría de Bilbao, esa zona de desembocadura del río Nervión que atraviesa la ciudad, ya iba cargada de agua, el terreno de la cabecera del río estaba empapado y no podía infiltrar más agua de lluvia y, encima, se sumó la marea alta. Así se produjo el desastre, la ría acabó desbordándose inundando el Casco Viejo de Bilbao y otras zonas cercanas. Y he usado la palabra desastre porque provocó la pérdida de vidas humanas, no solo daños materiales [*]. (

inundacionesImagen de archivo de Radio Televisión Española de las inundaciones de Bilbao del 26 de agosto de 1983.

Las inundaciones y riadas en zonas urbanas, desgraciadamente, siguen siendo noticia todos los veranos y otoños, no solo en nuestro país. Pero tenemos que ser conscientes de que los ríos no son nuestros enemigos. El hecho de que, de manera periódica, el agua desborde el cauce de un río y acabe inundando las zonas de su alrededor, es un proceso meramente natural. De ahí el nombre geológico que reciben estas zonas que bordean los cauces: llanura aluvial o llanura de inundación. El problema surge cuando los seres humanos decidimos colonizar estas áreas, porque entonces una inundación se convierte en un riesgo geólogo que nos afecta de manera directa, tanto a nuestras infraestructuras como a nuestras propias vidas.

Desde hace milenios, cuando una sociedad humana decide asentarse en un lugar fijo, elige un lugar en el que tenga disposición permanente de agua. Y, en muchas ocasiones, los ríos son los elegidos. Por poneros un ejemplo, seguro que al igual que yo habréis estudiado que las primeras civilizaciones humanas surgieron entre dos ríos, el Tigris y el Éufrates. Pero el agua no es lo único importante que nos aportan los ríos para decidir construir nuestros hogares en sus márgenes. Cuando esta agua se desborda en la llanura de inundación, arrastra sedimentos de diferentes tamaños, desde los más finos como la arcilla y el limo hasta los más gruesos como arenas y gravas, que se pueden convertir en materiales de construcción para nuestros hogares, enseres o infraestructuras. Además, esos sedimentos suelen tener mucha materia orgánica en descomposición, lo que los convierte en excelentes tierras de cultivo para la agricultura y la ganadería. La necesidad (o la avaricia, en muchas ocasiones) de aprovechar estas zonas para nuestro desarrollo económico y social, nos lleva a modificar el medio natural para adaptarlo a nuestros objetivos, llegando a desecar humedales próximos a los ríos, a modificar el recorrido de sus cauces para que discurra por donde nos interesa o, incluso, a encauzar el curso fluvial entre canales y diques artificiales.

Pero la naturaleza siempre sigue su curso, por mucho que nos empeñemos en luchar contra ella. El agua de un río buscará el camino más fácil para fluir desde su zona de cabecera hasta la desembocadura y, por mucho que lo modifiquemos de manera artificial, en cuanto tenga suficiente energía para superar nuestras barreras y canalizaciones, regresará a su cauce original. Y el agua que no pueda seguir en ese cauce se desbordará en su llanura de inundación, llevando consigo abundantes sedimentos que se pueden convertir en un gran flujo de lodo. Si en esa antigua llanura de inundación hoy se levanta una gran ciudad, no es culpa del río.

inundacionesEjemplos de mapas de riesgos en zonas inundables, con detalle de los calados máximos y de las áreas más afectadas, para una probabilidad de inundación de la zona de 500 años. Imagen tomada de: Díez-Herrero, Andrés, Garrote, Julio, Bernal López, Néstor, Martins, Luciano, Hernández Ruiz, Mario y Bodoque, J. (2018). Peligrosidad y riesgo de inundaciones en Pajares de Pedraza (Arahuetes, Segovia) y su incorporación al planeamiento urbanístico. En: Geomorfología del Antropoceno. Efectos del Cambio Global sobre los procesos geomorfológicos. Universitat de les Illes Balears, Sociedad Española de Geomorfología. pp. 37-40.

La Geología nos permite evitar que estos eventos naturales, las inundaciones o riadas, se conviertan en riesgos para el ser humano. Cada vez que un río se desborda, deja una marca a su alrededor debido al depósito de una nueva capa de sedimentos. Si podemos cartografiar el área cubierta por estos materiales y darle una edad absoluta a cada uno de los niveles, gracias a técnicas de datación como el C14, podremos delimitar con precisión la llanura de inundación y calcular periodicidades temporales, es decir, sabremos cada cuánto tiempo se cubre de agua toda esa zona. Así elaboramos mapas de riesgos de inundaciones en donde describimos la probabilidad temporal de que sufran riadas. Por ejemplo, podemos señalar en rojo las partes de la llanura de inundación que se van a inundar, al menos, una vez cada cincuenta años, mientras marcamos en verde aquellas que se cubrirán de agua una vez cada quinientos años. Gracias a estos mapas de riesgos se pueden hacer planificaciones urbanísticas adecuadas y exentas de peligro para la población.

Pero, ¿qué sucede en zonas ya construidas? No podemos tirar abajo media ciudad de Bilbao, o de Valladolid, o de Segovia, porque en el pasado se construyese donde no se debía. Entonces actuamos en el curso alto del río. Se pueden realizar acciones en el medio natural, recuperando las zonas de ribera del río para que actúen de nuevo como llanuras de inundación que recojan el exceso de agua y sedimentos. Y también se puede trabajar en el propio cauce, poniendo barreras artificiales dentro del mismo para que reduzcan la energía del agua, es decir, disminuyan su velocidad, y retengan los materiales que transporte para evitar que lleguen hasta zonas urbanas y se conviertan en esos temibles flujos de lodo. Todo ello sumado a la colocación de dispositivos que miden, en tiempo real, la velocidad y el volumen de agua de los ríos, para poder emitir alertas tempranas de posibles desbordamientos y tomar las medidas de protección más adecuadas.

https://culturacientifica.com/app/uploads/2023/08/video-4.mp4 Ejemplo de la reducción del riesgo asociado a una avenida de agua cargada de sedimento en la zona baja de un río mediante la construcción de barreras artificiales en el cauce. Vídeo del Servicio Geológico de Japón.

Tenemos que aprender a convivir con estos eventos naturales y utilizar nuestro conocimiento geológico para evitar los riesgos, porque las riadas van a seguir produciéndose, lo importante es cómo nos afectan a los seres humanos. Y un último consejo, nunca os acerquéis a una rambla seca durante períodos de lluvia intensa o fuertes tormentas, porque si una vez corrió agua por esos cauces, volverá a hacerlo, y no querréis estar ahí cuando suceda. Más vale prevenir que curar, porque la naturaleza tiene las de ganar.

Nota:

[*] Véase este reportaje/ infografía de El Correo para más detalle

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo La rebelión de las aguas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Karen Uhlenbeck: elogio a la imperfección

Wed, 2023/08/30 - 11:59

Soy consciente de que soy un modelo para las jóvenes matemáticas, y en parte para eso estoy aquí. Sin embargo, es difícil ser un modelo a seguir, porque lo que realmente hay que hacer es mostrar a los estudiantes lo imperfecta que puede ser la gente y aun así triunfar. Todo el mundo sabe que, si una persona es inteligente, divertida, guapa o va bien vestida, triunfará. Pero también es posible tener éxito con todas tus imperfecciones.

Karen Uhlenbeck, en Susan A. Ambrose et al. (1997).

UhlenbeckKaren Keskulla Uhlenbeck. Fuente: Andrea Kane /Institute for Advanced Studies / Agencia SINC.

En su Elogio a la imperfección, la premio Nobel Rita Levi-Montalcini afirmaba que la imperfección es lo que más se ajusta a la naturaleza humana. El título de esta anotación alude a este pensamiento de la neurocientífica y a la anterior cita de la matemática Karen Uhlenbeck (1942), a la que rendimos homenaje a través de este retrato alfabético.

ABEL (PREMIO)

En 2002, la Academia Noruega de Ciencias y Letras otorgó por primera vez el Premio Abel coincidiendo con el bicentenario del nacimiento del matemático noruego Niels Henrik Abel (1802-1829). Este galardón, que reconoce los logros científicos pioneros en matemáticas, se otorga anualmente y tiene una recompensa económica de 7,5 millones de coronas noruegas, semejante a la del Premio Nobel. Por ello, el Premio Abel puede considerarse “el Nobel de las matemáticas”.

En 2019 Uhlenbeck recibió el Premio Abel, “por sus logros pioneros sobre ecuaciones en derivadas parciales geométricas, teoría de gauge y sistemas integrables, y por el impacto fundamental de su trabajo en temas de análisis, geometría y física matemática”.

BARRERAS

Karen Uhlenbeck ha roto muchas barreras, algunas sutiles, que impiden a las mujeres progresar, en particular en ciencia. Y, con su ejemplo y su apoyo económico (ver la letra D), ha ayudado además a que otras mujeres puedan progresar en sus estudios en matemáticas.

CÁLCULO (DE VARIACIONES)

Uhlenbeck comenzó a trabajar en cálculo variacional, después se centró en ecuaciones en derivadas parciales no lineales y en diferentes problemas geométricos y físicos.

DONATIVO

Uhlenbeck donó la mitad del montante económico del Premio Abel (en 2019 ascendía a 6 millones de coronas noruegas) para establecer el Karen EDGE Fellowship Program y para colaborar con el Programa Women and Mathematics del Institute for Advanced Study.

ECUACIONES (EN DERIVADAS PARCIALES)

Es uno de los temas centrales en la investigación de Karen Uhlenbeck y, en parte, por los resultados obtenidos en este campo recibió el Premio Abel.

FUNDADORA

Según declaró en 2019 el matemático Hans Munthe-Kaas, presidente del Comité del Premio Abel, «Karen Uhlenbeck es una de las fundadoras del análisis geométrico moderno«.

GEORGE GAMOW

Cuando era pequeña, su padre empezó a llevar a casa libros de ciencia y de divulgación científica, como el famoso e inspirador Un, dos, tres… infinito del físico y astrónomo George Gamow (1904-1968). Karen experimentó una gran emoción con la lectura de este ensayo, porque gracias a él entendió que existen distintos tipos de infinito.

HUMANA

Uhlenbeck afirmaba (ver [Susan A. Ambrose et al.]): “Ser un modelo a seguir es una posición muy poco glamurosa en la que mostrar a la gente todos tus lados malos. Puede que sea un matemática maravillosa y famosa por ello, pero también soy muy humana”.

INSTANTONES

Junto a Daniel S. Freed publicó en 1984 el libro Instantons and Four-Manifoldscentrado en el estudio topológico de la estructura diferenciable de variedades compactas de cuatro dimensiones.

JULIA (CHILD)

En conversaciones informales con sus colegas tras recibir el Premio Abel, comentó que, debido a la falta de modelos femeninos destacados durante sus estudios en matemáticas, había emulado a la chef Julia Child: “Ella sabía recoger el pavo del suelo y servirlo”.

KESKULLA

Era su apellido familiar, antes de cambiarlo por matrimonio. Su madre, Carolyn Windeler Keskulla era artista y maestra de escuela, y su padre, Arnold E. Keskulla, ingeniero.

LEER

En su niñez Karen no estaba especialmente interesada por las matemáticas, pero era una ávida lectora.

MEDALLA (NACIONAL DE LA CIENCIA)

Uno de los muchos reconocimientos recibidos por Karen Uhlenbeck es la National Medal of Science, que le fue concedida en el año 2000 “por sus muchas contribuciones pioneras a la geometría global que han dado lugar a avances en la física matemática y la teoría de ecuaciones diferenciales parciales. Sus logros de investigación se combinan con su liderazgo y su apasionada participación en la formación y la educación en matemáticas”.

NOETHER

En 1988, fue la conferenciante Noether de la Association for Women in Mathematics. En 1990, fue ponente plenaria en el International Congress of Mathematicians celebrado en Kyoto, siendo la segunda mujer (tras Emmy Noether, en 1932) en impartir una conferencia en este congreso.

ONE (Two Three… Infinity: Facts and Speculations of Science)

Es el título del libro de divulgación científica de Gamow, publicado por primera vez en 1947, que inspiró a Karen cuando era una niña. El libro explora una amplia gama de conceptos fundamentales en matemáticas y ciencias.

PALAIS (RICHARD)

En 1968, Karen defendió su tesis doctoral en Brandeis, The Calculus of Variations and Global Analysis, bajo la supervisión del prestigioso geómetra diferencial Richard Palais (1931).

QUEDARSE (EN CASA)

Los centros interesados en contratar a su marido, Olke Cornelis Uhlenbeck, –el MIT, o las Universidades de Stanford y Princeton– no deseaban emplearla a ella. Lo justificaban aludiendo a las reglas contra el nepotismo que impedían que fuera contratada. Aunque aquellas normas, según ha constatado Karen en alguna de sus entrevistas, no estaban realmente escritas. Ella opinaba (y opina) que le mintieron y que, simplemente, no la contrataron en unos tiempos en los que el destino de las mujeres consistía en quedarse en casa para dedicarse exclusivamente al cuidado de su familia.

RETOS

Las personas que obtienen un Premio Abel, como Karen Uhlenbeck, son capaces de abordar cada problema de múltiples maneras. Para ello se necesitan grandes conocimientos que requieren tiempo y esfuerzo, y habilidades especiales que permiten afrontar los retos planteados de maneras inusuales.

SIBNER (LESLEY)

Karen encontró un gran apoyo en la geómetra diferencial Lesley Sibner (1934-2013), quien fue para ella un modelo a seguir, además de su asesora durante muchos años.

TOPOLOGÍA

Uhlenbeck ha contribuido a la teoría topológica de campos cuánticos.

UHLENBECK

Es el apellido de su primer marido, el bioquímico Olke Cornelis Uhlenbeck (1942).

VARIACIONES

Su tesis doctoral, The Calculus of Variations and Global Analysis, trataba sobre cálculo variacional, área de las matemáticas que busca extremos relativos de funcionales continuos definidos sobre algún espacio de funciones.

WILLIAMS

Es el apellido de su segundo y actual marido, el matemático Robert F. Williams.

(E)XTRAORDINARIA

Como se comenta en este artículo de opinión para SINC: “Karen Uhlenbeck es un referente científico extraordinario para mujeres y para hombres. ¿Por qué? Porque es una persona “normal”. Porque habla con pasión de su investigación en matemáticas. Porque rezuma entusiasmo cuando habla de los retos que ha abordado. Porque cuando ella denuncia las discriminaciones que ha sufrido, nadie puede argumentar que se queja por victimismo. Porque agradece al movimiento feminista la lucha que ha permitido a tantas mujeres, como ella, mejorar sus condiciones laborales y sociales. Porque se considera “imperfecta” y con estas sencillas palabras ayuda a derribar el mito de que las matemáticas solo están destinadas a personas con especiales dones”.

YANG-MILLS

En 1989 publicó junto a Lesley y Robert J. Sibner el artículo Solutions to Yang-Mills equations that are not self-dual. Las ecuaciones de Yang-Mills son un sistema de ecuaciones en derivadas parciales para una conexión en un fibrado vectorial o un fibrado principal.

ZIPPY

Zippy, enérgica. Así la imagino.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Karen Uhlenbeck: elogio a la imperfección se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Pages