Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 28 mins 53 segs

Pulpos, una reproducción que les cuesta la vida

Dom, 2022/03/27 - 11:59

Eduardo Almansa Berro y Catalina Perales-Raya

PulposImagen submarina de un pulpo en su medio natural. Lugar: Islas Canarias. Foto: C. Perales-Raya.

 

Una vez en la vida, así se reproducen los pulpos. El pulpo común vive apenas un año, y su ciclo vital queda completado tras un único evento reproductivo.

No es algo único de los pulpos, sino una estrategia que sucede en la mayoría de las especies de cefalópodos, con la única excepción de los nautilos (se reproducen varias veces a lo largo de su vida, que puede durar más de 20 años).

La maduración sexual en cefalópodos es poco conocida aunque se sabe que está controlada por hormonas producidas en una parte del cerebro llamada glándula óptica.

Al igual que en muchos otros animales, esta glándula integra información sobre el crecimiento del animal, reservas corporales y factores ambientales como el fotoperíodo y la temperatura que permiten seleccionar el momento adecuado, tanto para iniciar la maduración como para depositar los huevos.

La hembra deja de comer y muere tras cuidar los huevos

Sin embargo, una característica que diferencia a los cefalópodos de la mayoría de los animales es que esta regulación está muy integrada con la regulación del apetito, hasta el punto de que la hembra deja de alimentarse una vez depositados los huevos, lo que conduce inevitablemente a su muerte por inanición tras cuidar de la puesta.

Esta especie de “suicidio programado” parece ocurrir también en los machos, pues una vez cumplida su edad máxima programada (normalmente un año o año y medio) también dejan de alimentarse.

Almacenan espermatóforos de varios machos

El cortejo en los cefalópodos se produce con ayuda de llamativos y elaborados cambios en su coloración y patrón corporal, aunque en el caso de los pulpos no suele haber tanto juego previo.

Los machos “empaquetan” el esperma en unas cápsulas llamadas espermatóforos, que son transferidas a la hembra gracias a la modificación de uno de sus brazos (hectocótilo).

En el pulpo común, el hectocótilo del macho se forma en el extremo del tercer brazo derecho y permite depositar los espermatóforos en la glándula oviductal de la hembra, donde permanecerá almacenada hasta que se den las condiciones adecuadas para la reproducción.

Observaciones llevadas a cabo en nuestro laboratorio han mostrado que las hembras son capaces de almacenar el esperma durante varios meses antes de usarlo para fecundar los ovocitos e iniciar la puesta.

Estudios genéticos han mostrado que una hembra puede almacenar esperma de varios machos, dando lugar a puestas con múltiple paternidad, aunque cada uno de ellos intentará eliminar los espermatóforos depositados por los machos anteriores.

Una progenie numerosa y huérfana

El cuidado y dedicación que la hembra de pulpo aplica a su puesta es otro comportamiento que no suele encontrarse en el reino animal.

Paralarva de pulpo común en el momento de la eclosión bajo luz polarizada. La ampliación total del microscopio es de 80X. Autor C. Perales-RayaParalarva de pulpo común en el momento de la eclosión bajo luz polarizada. Ampliación: 80X. Foto: C. Perales-Raya.

Las hembras cuelgan los huevos (varios cientos de miles) agrupados en racimos dentro en un lugar seguro. Normalmente utilizan un hueco u oquedad de la roca con el tamaño y oscuridad adecuados, pero pueden usar cualquier lugar con similares características, como algunas trampas para pulpo frecuentes en pesquerías artesanales dirigidas a esta especie.

Durante varias semanas la hembra protege los huevos de posibles depredadores, a la vez que los limpia con sus ventosas y los mantiene aireados y en movimiento mediante chorros de agua producidos con su sifón. Este proceso se ha conseguido replicar en laboratorio sin la presencia de la hembra.

La temperatura es fundamental y afecta tanto a la duración como a la calidad del desarrollo embrionario. Se ha observado que aumentos de temperatura compatibles con el cambio climático reducen la calidad de la puesta.

Detalle de la mandíbula de una paralarva de pulpo, bajo el microscopio electrónico. Foto: I. Molto y A. Lancha

Una vez terminado el desarrollo embrionario, eclosionan miles de pequeñas “paralarvas” de unos 2 mm de longitud, dotadas de mandíbulas (o picos) con dientes para cazar, y que viajarán en mar abierto llevadas por las corrientes oceánicas hasta su asentamiento final como juveniles.

Avances hacia una producción sostenible

El aumento de la demanda en el consumo de pulpo en el mundo se suma a otras amenazas sobre las poblaciones salvajes como la sobrepesca, la contaminación o el cambio climático. Todo ello ha llevado a la búsqueda de alternativas que garanticen una producción sostenible, entre las que se incluye el desafío afrontado en las últimas décadas: su producción acuícola.

El principal cuello de botella para conseguirlo han sido desde siempre las primeras fases de vida. En esos primeros momentos, es muy complejo conseguir que las paralarvas tengan alimentación y nutrición adecuadas. También tienen requerimientos especiales que tienen que ver con factores ambientales como la luz.

Siguiendo estas líneas de investigación, los últimos avances llevados a cabo por el Instituto Español de Oceanografía en sus centros de Vigo y Tenerife han permitido mejorar su cría en cautividad. Lograr su reproducción en cautividad abre la puerta a una mejor gestión de su producción para el consumo humano, tanto a nivel acuícola como pesquero, ya que también facilita el estudio de su biología y ecología.

No obstante, aún quedan importantes retos relacionados con una producción sostenible y que asegure el bienestar animal. Este ha sido en todo momento el objetivo de proyectos científicos de nuestro grupo OCTOWELF o la red europea CephsInAction. La producción sostenible y el bienestar animal han de seguir siendo un objetivo prioritario en futuros proyectos de investigación.The Conversation

Sobre los autores: Eduardo Almansa Berro es Científico Titular y Catalina Perales-Raya, Científica Titular, del Instituto Español de Oceanografía (IEO – CSIC)

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Pulpos, una reproducción que les cuesta la vida se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Día de PI con BCAM NAUKAS 2022: Pablo Rodríguez Sánchez – Con matemáticas en los ojos

Sáb, 2022/03/26 - 11:59

matematicas en los ojos

La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.

Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU se han suamdo a la celebración, organizando la tercera edición del evento BCAM-NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de la UPV/EHU.

La visión humana es básicamente un conjunto de problemas matemáticos. Pablo Rodríguez Sánchez, que es matemático aplicado en el Netherlands eScience Center, nos lo cuenta en esta interesantísima charla.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Día de PI con BCAM NAUKAS 2022: Pablo Rodríguez Sánchez – Con matemáticas en los ojos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Respuestas a preguntas en lenguaje natural, el nuevo paradigma de los buscadores basados en inteligencia artificial

Vie, 2022/03/25 - 11:59
lenguaje natural buscadores basados en inteligencia artificialVIGICOVID es un prototipo para extraer información mediante preguntas y respuestas en lenguaje natural de un conjunto actualizado de artículos científicos publicados por la comunidad investigadora mundial. Fuente: 123rf

La comunidad investigadora biosanitaria mundial está realizando un gran esfuerzo en la generación de conocimiento en torno a la COVID-19 y al SARS-CoV-2. Este esfuerzo se traduce en una producción ingente y muy rápida de publicaciones científicas, lo cual dificulta la consulta y el análisis de toda esa información. Por ello, resulta necesario proporcionar sistemas de información a las personas expertas y a las autoridades responsables en la toma de decisiones, que les permitan adquirir el conocimiento necesario.

Eso es, precisamente, lo que han desarrollado en el proyecto VIGICOVID un equipo de investigación del Centro HiTZ de la UPV/EHU, del grupo NLP & IR de la UNED y de la Unidad de Inteligencia Artificial en el ámbito lingüístico de Elhuyar, gracias a la financiación a través del Fondo Supera COVID-19 otorgada por la CRUE. Con la coordinación del grupo de investigación de la UNED, el resultado ha sido un prototipo para extraer información mediante preguntas y respuestas en lenguaje natural de un conjunto actualizado de artículos científicos publicados por la comunidad investigadora mundial en torno a la COVID-19 y el SARS-CoV-2.

“El paradigma de las búsquedas de información está cambiando gracias a la inteligencia artificial. Hasta ahora, para buscar información en la red, se introduce una pregunta, y la respuesta se debe buscar en los documentos que nos muestra el sistema. Sin embargo, en función del nuevo paradigma, cada vez están más extendidos los sistemas que ofrecen directamente la respuesta, sin necesidad de leer todo el documento”.

Eneko Agirre, director del Centro HiTZ de la UPV/EHU

En este sistema, “la persona usuaria no solicita la información mediante palabras clave, sino que formula directamente una pregunta”, explica el investigador de Elhuyar Xabier Saralegi. El sistema busca las respuestas a esa pregunta en dos fases: “En primer lugar, recupera los documentos que pueden contener la respuesta a la pregunta realizada, utilizando una tecnología que combina palabras clave y preguntas directas. Para eso hemos investigado arquitecturas neuronales”, añade el doctor Saralegi. Han utilizado arquitecturas neuronales profundas alimentadas con ejemplos: “Eso significa que los modelos de búsqueda y los modelos de respuesta a las preguntas se entrenan a través del aprendizaje automático profundo”.

Una vez extraída la serie de documentos, se vuelven a procesar mediante un sistema de preguntas y respuestas, para así obtener respuestas concretas: “Hemos construido el motor que responde a las preguntas; proporcionándole una pregunta y un documento, el motor es capaz de detectar si la respuesta se encuentra o no en el documento, y en caso afirmativo, dice exactamente dónde se encuentra”, explica el doctor Agirre.

Un prototipo fácilmente comercializable

Los investigadores creen que los resultados obtenidos son muy prometedores: “De las técnicas y las evaluaciones que hemos analizado en nuestros experimentos, hemos llevado al prototipo aquellas que han dado mejores resultados”, señala el investigador de Elhuyar. Han establecido una base tecnológica sólida, y han publicado varios artículos científicos al respecto. “Hemos conseguido otra manera de realizar búsquedas para casos de necesidad de información urgente, que facilita el proceso de consumo de información. A nivel de investigación hemos demostrado que la tecnología propuesta funciona, y que el sistema da buenos resultados”, apunta Agirre.

“Nuestro resultado es un prototipo de un proyecto de investigación básica. No se trata de un producto comercial”, destaca Saralegi. Pero este tipo de prototipos se puede escalar fácilmente y en poco tiempo, lo que permitiría comercializarlos y ponerlos al alcance de la sociedad. Los resultados abundan en la tendencia de que la inteligencia artificial permitirá disponer de instrumentos cada vez más potentes para trabajar con grandes bases de documentos. “Estamos avanzando muy rápidamente en este ámbito. Y, además, todo lo que se investiga llega fácilmente al mercado”, concluye el investigador de la UPV/EHU.

Referencia:

Arantxa Otegi, Iñaki San Vicente, Xabier Saralegi, Anselmo Peñas, Borja Lozano, Eneko Agirre (2022) Information retrieval and question answering: A case study on COVID-19 scientific literature Knowledge-Based Systems doi: 10.1016/j.knosys.2021.108072

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Respuestas a preguntas en lenguaje natural, el nuevo paradigma de los buscadores basados en inteligencia artificial se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El mapa de historias de las estrellas

Jue, 2022/03/24 - 11:59

El primer sistema de clasificación estelar del Observatorio de Harvard atendía principalmente a su color. Fue definido por la astrónoma Annie Jump Canon y utilizaba siete letras (OBAFGKM) que, según se supo más tarde, identificaban la temperatura de las estrellas. Sin embargo, pronto resultó evidente que aquel catálogo unidimensional resultaba insuficiente para representar la diversidad del cielo nocturno y Antonia Maury fue la primera astrónoma que se atrevió a ampliarlo. Reparó en que las líneas espectrales de algunas estrellas estaban mucho más definidas que otras. Aunque en un primer momento el origen de aquellas diferencias no estaba claro, su apreciación permitió añadir una segunda dimensión al catálogo astronómico de Harvard. Y fue entonces cuando todas las piezas empezaron a encajar. Como un mapa que se despliega y revela rutas insospechadas, las estrellas empezaron a dibujar sus historias sobre el papel.

Esto es precisamente lo que representa el diagrama Hertzsprung-Russell. Se trata de un mapa de historias estelares, la foto de los caminos que comparten. En él, las estrellas aparecen representadas en función de su color (en horizontal) y su magnitud absoluta (en vertical). Las letras del sistema de Harvard sirven para graduar el eje horizontal, mientras que el eje vertical es el que ayudó a descubrir Maury.

Resultó que las diferencias que había observado en las líneas espectrales de las estrellas dependían, precisamente, de su luminosidad. En concreto, cuando una estrella es más densa y tiene más presión en su atmósfera, presenta un ensanchamiento de las líneas espectrales correspondientes al gas que se encuentra en su superficie. Existen otros factores que pueden producir este efecto, como la abundancia de cierto elemento químico, por ejemplo, no es un puzzle que se pueda resolver a partir de una única variable. Pero aquella observación fue la primera pista que más tarde permitiría identificar diferencias en la gravedad, la densidad y la presión atmosférica de una estrella, en función de su espectro.

mapa historias estrellasDiagrama de Hertzsprung-Russell. Fuente: Wikimedia Commons

Un mapa de historias

¿Pero por qué digo que este diagrama es un mapa de historias? Bien, resulta que no todas las estrellas tienen el mismo ciclo de vida. Todas nacen, se consumen y mueren, pero lo que les sucede en el camino y el modo en que finalmente desaparecen depende crucialmente de su masa. De hecho, cuando uno representa las estrellas en función de su magnitud y su temperatura, es fácil ver que no se distribuyen al azar. La mayoría se sitúan sobre ciertas líneas o ramas.

Son estas líneas las que nos cuentan su evolución y las que recoge el sistema de clasificación de Yerkes. Se trata de un sistema de clasificación que fue introducido en 1943 por William Wilson Morgan, Philip C. Keenan y Edith Kellman (se lo conoce también como MKK, por las siglas de estos autores) y cataloga las estrellas en varios tipos y subtipos situados sobre distintas ramas sobre el diagrama.

En el extremo superior, por ejemplo, encontramos las estrellas hipergigantes (tipo 0). Son las estrellas más luminosas que existen, al menos 30 veces más masivas que el Sol y son extremadamente raras. Queman combustible a una gran velocidad, hasta que colapsan bajo su propio peso y estallan en forma de supernova. Con semejante ritmo de vida, son estrellas con una esperanza de vida muy corta (corta para una estrella, se entiende). Mueren tras unos pocos millones de años, cerca de su lugar de formación, y pueden dejar como remanente un agujero negro tras de sí. Nuestro Sol, por comparación, vivirá miles de millones de años.

En el extremo opuesto encontramos las enanas blancas. Su historia es muy diferente. Suelen ser el núcleo inerte de estrellas viejas que han agotado sus fuentes de energía. Como ya han alcanzado pacíficamente la jubilación, estas estrellas se enfrían lentamente a lo largo de miles de millones de años moviéndose hacia la derecha del diagrama.

De entre todas las estrellas, las más frecuentes son las estrellas enanas (tipo V) que dan forma a la línea más visible del diagrama Hertzsprung-Russell. Se trata de la secuencia principal, que acoge a nuestro propio Sol desde hace 4500 millones de años y que lo seguirá haciendo durante al menos otro 4500 millones más. Sobre esta rama se encuentra la infancia de todas las estrellas, la época inicial de su vida donde se alimentan principalmente de hidrógeno. Pero hablaremos de ellas con más detalles en la próxima y última entrada de esta serie.

mapa historias estrellasEvolución de las estrellas a lo largo de la Secuencia Principal. Fuente: Wikimedia Commons.

 

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El mapa de historias de las estrellas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Fútbol, sorteos y matemáticas

Mié, 2022/03/23 - 11:59

El fútbol es un deporte que levanta pasiones. Por este motivo, no es de extrañar que cuando un equipo de fútbol se clasifica para una final, las personas aficionadas de ese equipo muevan cielo y tierra para conseguir una entrada para el partido. Una entrada para la final se convierte en un pequeño tesoro.

sorteos fútbolDiego Maradona levantando la Copa Mundial de Fútbol de 1986 en México. Foto: El Gráfico / Wikimedia Commons

 

La historia que vamos a contar en esta entrada del Cuaderno de Cultura Científica tuvo lugar hace ya unos años, cuando cierto equipo de fútbol se clasificó para una final importante. Como es comprensible, su afición estaba deseosa de asistir a la misma, pero las entradas para el partido escaseaban. El Club, que disponía de una cierta cantidad de entradas para la final, realizó un sorteo de las mismas entre sus socios, en el que me vi implicado sin ser yo una persona muy aficionada al fútbol.

Al día siguiente del sorteo, un periodista que había estado presente en el desarrollo del mismo se puso en contacto conmigo para que analizáramos juntos algunas de sus cifras, ya que no le cuadraban. A pesar de que yo estaba preparándome para asistir esa misma tarde a un espectáculo del Circo del Sol, saqué el tiempo suficiente para que nos reuniéramos y me explicara todo el asunto.

sorteos fútbolImagen del cartel del espectáculo Varekai del Circo del Sol

 

El club sorteaba 14.800 entradas y se inscribieron 33.301 socios a través de 25.746 solicitudes, ya que cada solicitud podía llevar agrupados hasta cuatro socios distintos, con lo cual si salía elegido su número de solicitud les corresponderían tantas entradas como socios agrupados. De esta forma, puesto que se contabilizaron 25.746 solicitudes de 33.301 socios, se sabía de inicio que había 33.301 – 25.746 = 7.555 socios agrupados como segundo, tercero o cuarto socio de alguna de las solicitudes (que podemos denominar “socios agrupados extra”).

Algo andaba mal

La siguiente información que me proporcionó el periodista, fue que el club había informado el segundo día del plazo para la inscripción que ya se habían apuntado 19.654 socios en un total de 13.449 solicitudes, es decir, ya había 6.205 agrupados extra. La primera conclusión que se podía extraer de esta información, puesto que había en total 7.555 socios agrupados extra, fue que entre los números de las solicitudes 13.450 y 25.746 – es decir, después del segundo día- solamente podía haber 7.555 – 6.205 = 1.350 socios agrupados extra. Este dato resultó ser trascendental para descubrir que algo andaba mal.

Además, el sorteo fue un poco enrevesado. En el mismo se sacaban cinco números y se entregaban 2.960 entradas (1/5 de las 14.800 entradas en total a repartir) a partir de cada uno de ellos, teniendo además en cuenta que había solicitudes con socios agrupados y para una misma solicitud podían corresponderle hasta cuatro entradas. Por lo que las cuentas no cuadraban y así lo reflejó el periodista –que realizó un magnífico trabajo de investigación- en el artículo publicado al día siguiente en el periódico para el que trabajaba:

Las entradas repartidas entre el número 18.428 y el 19.956 (ambos inclusive) son, según las bases del sorteo, 2.960. Como quiera que ahí solo aparecen 1.529 números de agraciados resulta que en teoría hay 1.431 agrupadas en esta horquilla. Aquí aparece el primer problema matemático. Son 81 más de las en teoría 1.350 asignadas para todos los números situados por encima del registro 13.449.

Entre los números 20.299 y el 24.903, ambos inclusive, hay un total de 4.605 solicitudes para 8.880 entradas, dado que al haberse superpuesto tres números agraciados (20.299, 21.549 y 22.496) a este grupo le corresponden el triple. La resta entre el número disponible y la cifra de solicitudes afortunadas revela que aquí se han agrupado 4.275 personas. Si sumamos esta cifra a los agrupados entre el 18.428 y el 19.956 resulta que los socios ‘concentrados’ desde el segundo día son 5.706, cuando según datos oficiales del club en ningún caso podía ser mayor de 1.350.

Es decir, podíamos deducir por la información suministrada por el club en el sorteo que la cantidad de socios agrupados extra, con números por encima de 13.450, que habían recibido entradas para la final eran 5.706, pero resulta que solo había 1.350 agrupados extra por encima de 13.450. En conclusión, esta cuenta nos decía que, al menos, 5.706 – 1.350 = 4.356 entradas estaban asignadas a socios agrupados extra inexistentes. Se desconocía que había pasado con ellas. Al día siguiente el club dio a conocer que se había producido un error informático en la asignación de entradas.

sorteos fútbol

La ventaja de empezar por 2

Por otra parte, el método de realización del sorteo también tenía su propio interés matemático. El sorteo no era un sorteo de los llamados “justo”, puesto que no todas las solicitudes, todos los números, tenían las mismas probabilidades de salir elegidos.

Como había 25.746 solicitudes, el club decidió poner 5 urnas. La primera (para las decenas de millar) con 3 bolas -0,1,2-, y las demás con 10 bolas –del 0 al 9- (unidades de millar, centenas, decenas y unidades), aunque con correcciones durante el sorteo, ya que si, por ejemplo, la primera bola era un 2, se quitaban las bolas 6, 7, 8 y 9 de la siguiente urna, ya que la segunda bola solo podía tomar valores entre 0 y 5 (puesto que el número más alto posible era el 25.746), y de forma similar para el resto de urnas.

sorteos fútbol

El club no se dio cuenta, a la hora de elegir el método de sorteo, de que con el que se había propuesto, los números que empezaban por 2 tenían más posibilidades de salir que los que empezaban por 0 o 1. Para entenderlo mejor, simplifiquemos un poco y supongamos que tenemos que sacar un número premiado con ese método sobre un total de 20.001 solicitudes. Fijémonos en dos números, A = 13.437 y B = 20.001, ¿tendrán las mismas probabilidades de salir? Para empezar en la primera urna, cada número -0,1,2- tiene las mismas probabilidades de salir (de hecho, 1/3). Si la primera bola es 1, entonces la probabilidad de que salga el número A es de 1 entre 10.000, ya que hay 10.000 números que empiezan por 1 –desde el 10.000 al 19.999-, pero si sale 2 en la primera urna, B tiene una probabilidad del 50% -1 entre 2- de salir, puesto que solamente hay dos números que empiezan por 2 –20.000 y 20.001-.

Efectivamente, el sorteo no era justo, no todos los números tenían la misma probabilidad de salir. De hecho, de los cinco números que se sacaron, tres empezaban por 2.

sorteos fútbolPavimento con forma de balón de fútbol en Friburgo de Brisgovia (Alemania). Foto: Andreas Schwarzkopf / Wikimedia Commons

 

Bibliografía:

1.- Raúl Ibáñez, Leer el periódico con ojos matemáticos, ConCIENCIAS.digital: revista de divulgación científica de las Facultad de Ciencias de Zaragoza, no. 8, 2011, págs. 48-57.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Fútbol, sorteos y matemáticas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Einstein y el experimento de Michelson-Morley

Mar, 2022/03/22 - 11:59

Llevado a cabo en 1887, el experimento de Michelson-Morley se considera el trabajo definitivo que terminó eliminando la creencia decimonónica de que las ondas luminosas viajaban a través de un medio llamado éter. La historia estándar que se cuenta es que una vez que el experimento de Michelson-Morley probó que el éter era falso, todo el mundo supo que había una crisis, a la que puso fin Einstein cuando intervino resueltamente para resolver el problema con la teoría especial de la relatividad en 1905. Pero esta es una versión demasiado simplificada de lo que realmente ocurrió…

einstein experimento de Michelson-MorleyEsquema del experimento de Michelson-Morley. Fuente: Wikimedia Commons

Albert Abraham Michelson comenzó a trabajar en la búsqueda del éter cuando era un joven estudiante en Berlín con un permiso de la Marina de los Estados Unidos. Más tarde, cuando se convirtió en profesor de física en el Colegio Case de Ciencia Aplicada de Cleveland, formó equipo con Edward Williams Morley, un químico también estadounidense que trabajaba en la cercana Universidad Western Reserve. Morley tenía fama de gran experimentador, y a Michelson le atraía el reto de crear un experimento meticuloso para medir la velocidad de la Tierra a través del éter que se suponía que llenaba el espacio. Las mediciones tenían que ser tan precisas que muchos dijeron que no podían hacerse. (Más tarde Michelson le diría a Einstein que había empleado tanta energía para conseguir la precisión necesaria simplemente porque era “divertido”).

James Clerk Maxwell fue el primero en describir la luz como una onda electromagnética. En esa época, los físicos comprendían las ondas bastante bien. Las ondas del sonido, por ejemplo, se crean cuando un objeto que vibra comprime y descomprime alternativamente el medio que le rodea. En el aire, paquetes de aire más y menos densos viajan al oído y son interpretados por el cerebro. Las ondas en el agua tienen crestas y valles en vez de diferencias de densidad. Pero tanto el agua como el aire son medios necesarios para la propagación del sonido. Maxwell creía que la luz igualmente debía emplear un medio, una misteriosa sustancia llamada éter. Según la teoría, el éter estaría en reposo con respecto a un espacio absoluto del universo, y la Tierra, naturalmente, viajaría por él. Maxwell propuso que, por lo tanto, debería existir un “viento de éter” de algún tipo, que soplaría en la cara de un observador que mirase en el sentido del movimiento de la Tierra, y en su espalda si miraba en sentido contrario. Cabría esperar entonces que la luz viajase a diferentes velocidades dependiendo de la dirección en la que se moviese a través del éter, parecido a una persona que se mueve más fácilmente con el viento a favor que en contra. La idea de que la luz se puede mover con velocidades diferentes, en un mismo medio en idénticas condiciones, dependiendo solo de la dirección de propagación, está en el corazón mismo del experimento de Michelson-Morley. Y esta es la idea que Einstein terminaría haciendo desaparecer.

El experimento

El experimento que se cita oficialmente como el experimento de Michelson-Morley tuvo lugar en 1887 [1] y utilizaba un diseño bastante innovador que se basaba en una técnica desarrollada por Michelson, la interferometría (Michelson recibiría el premio Nobel de física en 1907 por sus instrumentos ópticos de precisión y las mediciones realizadas con ellos). La interferometría depende del hecho de que cuando dos ondas se cruzan forman patrones muy concretos. Un experimento de interferometría comienza dividiendo un haz de luz, haciendo después que cada uno de los dos nuevos rayos viajen caminos distintos, para luego unirlos en una pantalla. Analizando los patrones resultantes se puede obtener información sobre la velocidad y la distancia recorrida por la luz. Michelson ya había usado la interferometría tanto para conseguir la medición más precisa hasta la fecha de la velocidad de la luz como para determinar la longitud oficial del metro para la Oficina Nacional de Estándares de los Estados Unidos.

Para su experimento, Michelson y Morley hicieron que dos rayos de luz viajasen en ángulo recto uno del otro: uno viajaba en la misma dirección que el éter y el otro la cruzaba. Imaginemos dos personas nadando en un río, una va corriente arriba y luego a favor de corriente, mientras que la otra nada directamente a un punto al otro lado del río y vuelta. Ambos nadadores se tienen que enfrentar a la corriente pero de forma diferente y, consecuentemente, el tiempo que emplean para recorrer exactamente la misma distancia será diferente. Si la Tierra viaja a través del éter, el éter crea una corriente (como un río), y un rayo de luz que viaje en contra y luego a favor debería tardar menos en recorrer una distancia determinada que otro que la atraviese en ángulo recto. Esta era la hipótesis que Michelson y Morley intentaban confirmar con su experimento.

El experimento estaba muy bien diseñado, pero por mucho que repitieron la medición, ambos rayos empleaban la misma cantidad de tiempo en sus viajes. La pareja comprobó y recomprobó el dispositivo experimental y repitieron las mediciones varias veces después de cada comprobación, siempre con el mismo resultado. El dispositivo, que se encontraba en un sótano con paredes de ladrillo, estaba instalado sobre un bloque de mármol que flotaba sobre una balsa de mercurio, lo que permitía girarlo para estudiar todos los ángulos posibles con respecto al “viento de éter”; ningún ángulo probado dio un resultado diferente. La reputación enorme de la que gozaban Michelson y Morley en la comunidad científica hizo que los físicos más famosos de la época aceptaran como válido un resultado tan inesperado. Claramente, había un problema con la teoría del éter.

Sin embargo, el concepto del éter, no fue completamente descartado en ese momento. El consenso era que la hipótesis no estaba completa. El mismo Michelson repitió el experimento en numerosas ocasiones a lo largo de su vida, cambiando incluso la localización del dispositivo (lo llevó a lo alto de una montaña) para ver si había variaciones en la intensidad del presunto “viento de éter” que permitiesen detectar diferencias en las mediciones. [3]

¿Qué sabía Einstein?

Aunque había físicos que conocían el trabajo de Michelson y Morley, y sabían que sus resultados debían incorporarse a una nueva teoría de la luz, no está claro que Einstein, el que finalmente proporcionó esa teoría, tuviese conocimiento de él. Su artículo sobre la relatividad especial está claro que no hace referencia a los resultados del experimento, si bien es cierto que este artículo no hace referencia a casi nada, ya que lo que se proponía era tan novedoso que Einstein podía afirmar que no se basaba en el trabajo de nadie.

Años más tarde Einstein se contradiría a sí mismo sobre el asunto de si conocía el experimento de Michelson-Morley. Dijo muchas veces que no tenía noticias de él y, de hecho, no lo menciona en sus Notas autobiográficas en las que describe cómo desarrolló sus teorías. Ya mayor afirmó, sin embargo, que la primera referencia del experimento la obtuvo del estudio del trabajo de Lorentz en 1895, y en algunas de sus primeras cartas (1899) que se conservan discute un artículo de Wien que contiene una referencia al experimento.

Independientemente de si Einstein conocía el experimento mismo de Michelson-Morley, lo que si parece claro es que desarrolló su teoría de la relatividad especial creyendo firmemente que el éter no existía. Esta convicción no fue apriorística. La lectura de otros grandes científicos de su época, muchos de los cuales ciertamente conocían el experimento, habría influido con toda seguridad en las convicciones de Einstein.

Después de la publicación de la teoría especial de la relatividad, Einstein tuvo conocimiento fehaciente del trabajo de Michelson y Morley [2] y, de hecho, estuvo en contacto con Michelson. Poco antes de su fallecimiento, en 1931, Michelson asistió a una cena en honor a Einstein en California. En su discurso Einstein dijo:

“Usted, honorable Dr. Michelson, comenzó este trabajo cuando yo era un jovenzuelo que no levantaba un metro del suelo. Fue usted el que guio a los físicos por nuevos caminos, y gracias a su maravilloso trabajo experimental preparó el terreno para el desarrollo de la teoría especial de la relatividad”.

El comentario honraba a Michelson a la vez que eludía el asunto de si Einstein se había basado en su trabajo.

Después de la muerte de Michelson, en honor al 70 aniversario de Einstein, el famoso físico norteamericano Robert Millikan, que era uno de los protegidos de Michelson, escribió un artículo en el que establecía una conexión directa entre la teoría de la relatividad y la anterior búsqueda del éter de Michelson. Millikan escribió:

“Se puede ver la teoría de la relatividad especial como basada esencialmente en una generalización del experimento de Michelson” [no nombra a Morley]. A continuación dice que tras la demostración de que no había éter “…los físicos de la luz andaban en tinieblas” buscando una nueva teoría de la luz. Millikan añade, “Entonces Einstein nos llamó a todos, ‘Aceptemos simplemente esto como un hecho experimental establecido y a partir de ahí veamos cuáles son sus consecuencias inevitables’, y él mismo se dispuso a la tarea con una energía y una capacidad que poca gente posee en esta Tierra. Así nació la teoría especial de la relatividad”.

De la misma forma que Atenea surgió hecha y derecha de la cabeza de Zeus, así describió Millikan la teoría de Einstein como surgida del trabajo de Michelson.

La ciencia real, igual que la historia real, no es tan sencilla, pero la idea de que el experimento de Michelson-Morley llevó directa y claramente a la teoría especial de la relatividad es algo que pertenece al folklore de Einstein desde entonces, como es fácilmente comprobable en cualquier libro de texto.

Referencias:

[1] Michelson,AA, & Morley,EW (1887). On the Relative Motion of the Earth and the Luminiferous Ether The American Journal of Science, 34 (203), 833-845

[2] F.R. Villatoro (2009) ¿Conocía Einstein el experimento de Michelson-Morley en 1905 y le influyó en su teoría? La ciencia de la mula Francis

[3] Una reflexión filosófica interesante y pertinente a este respecto puede encontrarse aquí: El experimento crucial que nunca existió

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este artículo se publicó en Experientia Docet el 16 de agosto de 2009.

El artículo Einstein y el experimento de Michelson-Morley se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Los glaciares olvidados de Marte

Lun, 2022/03/21 - 11:59

 

Cuando observamos Marte, ya sea desde nuestros telescopios terrestres o bien desde las misiones espaciales en órbita alrededor de este, una de las cosas más llamativas y que más contrastan con ese ubicuo color rojo de su superficie es la presencia de dos casquetes polares que cubren las latitudes más altas del planeta y que de algún modo nos recuerdan a nuestro planeta.

glaciares MarteMarte desde el telescopio espacial Hubble en Mayo de 1999. Créditos: NASA, ESA, STScI y AURA

 

Desde el punto de vista geológico, los glaciares son uno de los grandes agentes de erosión, transporte y sedimentación que se ocurren en la superficie de los planetas, ya que el fluir del hielo es capaz con el paso del tiempo de ir esculpiendo grandes valles y al mismo tiempo transportar los restos de la roca que va rasgando a su paso -y cayendo sobre estos- a veces a grandes distancias, donde se depositarán.

Pero los glaciares también nos pueden aportar una gran cantidad de información sobre el clima de los planetas. Estudiando las capas de hielo que forman los glaciares, ya sea viendo como se superponen unas a las otras, analizando la composición de las pequeñas burbujas de aire que queden atrapadas o fijándonos en las capas de polvo o ceniza que pueden depositarse entre estas, podemos hacer inferencias sobre el clima en el cual se formaron estos glaciares. Son, por lo tanto, un magnífico indicador del cambio climático que ocurre en un planeta.

glaciares MarteEl glaciar Viedma desemboca en el lago del mismo nombre. En la imagen podemos ver como confluyen distintos glaciares, marcados por unas líneas negras llamadas morrenas, unas acumulaciones de restos de suelo y rocas transportadas por el glaciar. Fuente: Programa Copernicus de la Unión Europea.

Hoy sabemos, que salvo en los polos y las regiones más próximas a estos, probablemente solo a partir de la latitud 60º, las condiciones de Marte no permiten la existencia de hielo, en este caso de hielo de agua, en la superficie, ya que este rápidamente se sublima, pasando del estado sólido al gaseoso.

Sin embargo, en algunos lugares de Marte, como puede ser la región de Tharsis, hogar de algunos de los volcanes más altos del Sistema Solar, aparecen formas sobre su superficie que nos recuerdan a los depósitos de sedimentos dejados en nuestro planeta por glaciares en retroceso, marcando distintas etapas en las que el hielo se ha ido retirando y dejando sobre el suelo aquellos materiales que transportaba.

Además, estas formas que vemos en Marte y nos recuerdan a los glaciares son relativamente recientes, es decir, que se formaron hace poco en tiempo geológico. ¿Cómo sabemos eso? Puesto que no podemos ir a tomar muestras para ponerles una edad en un laboratorio, a través de las imágenes podemos datar las superficies de una manera más o menos absoluta contando el número y el tamaño de los cráteres que hay en esa zona.

Me explico: Cuando se forma una nueva superficie en un planeta, pongamos por ejemplo una colada de lava, sobre esta no hay cráteres. Para que se formen, tendrán que impactar sobre la colada cuerpos que provengan del espacio, como asteroides y meteoroides.

Cuanto más tiempo pase desde que se formó la colada de lava, más probabilidades tendrá de que se hayan podido formar cráteres. Obviamente, en nuestro planeta no es una buena forma de datar las superficies ya que los procesos atmosféricos y la tectónica de placas se encargan de ir renovando la superficie a un ritmo importante, pero en cuerpos sin atmósfera como la Luna, o con una atmósfera muy tenue, como Marte, se han podido desarrollar escalas temporales basadas en cuantos cráteres y que tamaños encontramos en una superficie, de tal manera que cuantos más cráteres tenga un lugar, por norma general, más antiguo será.

La estabilidad del hielo

Hecha esta breve acotación, decíamos que estos glaciares marcianos parecían ser recientes, ¿pero cómo es posible si las condiciones actuales de la superficie hacen que el hielo no sea estable?

Durante años se pensaba que muchos de los glaciares, o los restos de estos, que veíamos en la superficie, en realidad estaban formados por el movimiento del hielo que hay debajo de la superficie, en suelos congelados muy ricos en hielo de agua donde este sería más estable a lo largo del tiempo debido a la protección que le ofrecerían los materiales que hay por encima.

Pero lo cierto es que hoy en día se sabe que muchos de estos glaciares en realidad se formaron por la acumulación y movimiento de hielo a partir de la nieve que caía desde la atmósfera, como ocurre en la actualidad en la Tierra, ya que las formas que vemos en el terreno sugieren la existencia de precipitaciones.

Algo tuvo que ocurrir a lo largo de los últimos millones de años en Marte (y quizás más tiempo), que permitiese la existencia de nieve y con esta la formación de glaciares en latitudes alejadas de los polos, incluso cercanas al ecuador. Quizás una pequeña edad del hielo marciana. Y eso que Marte ya es frío por si solo.

La teoría más plausible apunta a que la inclinación del eje de rotación de Marte varía mucho a lo largo del tiempo. Ahora mismo, se encuentra en unos 25º, y el de nuestro planeta, para comparar, en unos 23,5º. Pero hay momentos en los que su inclinación puede superar los 45º.

Esto provoca que en los momentos de mayor inclinación de su eje, los polos reciban mucha más insolación, aumentando la temperatura y provocando que se transforme parte del hielo de agua y de dióxido de carbono en gas, que en primer lugar aumentan la presión de la atmósfera, logrando que en una mayor parte del planeta Marte el hielo pueda ser estable en superficie.

Por otro, el vapor de agua podría condensarse formando nubes en latitudes más bajas y acabar precipitando en forma de nieve, acumulándose en algunos lugares que darían lugar poco a poco a los glaciares. Probablemente los glaciares que vemos en la superficie no se hayan formado en un único episodio de inclinación extrema, sino que necesitaran de múltiples episodios para alcanzar las dimensiones que observamos.

Con el tiempo, el hielo más próximo a la superficie iría sublimándose y desapareciendo, dejando únicamente los depósitos sedimentarios que hoy somos capaces de reconocer en las imágenes… pero esto no es todo.

Resulta que en latitudes medias, a partir de los 30º, si existe en la actualidad hielo bajo la superficie. Tanto que podríamos cubrir Marte con una capa de hielo de un metro solo con el que existe entre la latitud 30º y 50º.

La erosión nos permite ver uno de estos depósitos de hielo en la superficie de Marte como si le hubiésemos hecho un corte. El hielo, aquí en color azul, se encuentra protegido por una capa de polvo y rocas de color blanquecino, que evita su rápida sublimación. Fuente: NASA/JPL/UArizona..

Si lo comparamos con el agua de la Tierra, nos parecerá poco, ya que ese volumen se corresponde aproximadamente con una diezmilésima parte del agua que hay en nuestros océanos, pero si pensamos en el futuro de la exploración humana del espacio, son unas reservas muy importantes de cara a permitirnos explotar ese recurso in situ, y que pueda abastecer a futuras bases o colonias y que permitan una estancia prolongada del ser humano en el planeta rojo.

El caso es que ese hielo que hoy observamos en las latitudes medias y que conocemos gracias a imágenes y datos de radar, sigue existiendo hoy día pese a que las condiciones no le son favorables gracias a que está cubierto por una capa de polvo y rocas que evita que se vaya sublimando.

Estos depósitos podrían también representar distintos momentos de acumulación y por lo tanto, diferentes momentos temporales y climáticos del planeta y su estudio de detalle, ya sea con técnicas robóticas más sofisticadas y precisas que de las que disponemos hoy día, o in situ por seres humanos en el futuro, podría abrirnos una ventana a conocer mejor la evolución reciente del clima marciano.

Referencias:

Fastook, J. L., Head, J. W., Marchant, D. R., & Forget, F. (2008). Tropical mountain glaciers on Mars: Altitude-dependence of ice accumulation, accumulation conditions, formation times, glacier dynamics, and implications for planetary spin-axis/orbital history. Icarus, 198(2), 305-317. doi: 10.1016/j.icarus.2008.08.008

Forget, F., Haberle, R. M., Montmessin, F., Levrard, B., & Head, J. W. (2006). Formation of Glaciers on Mars by Atmospheric Precipitation at High Obliquity. Science, 311(5759), 368-371. doi: 10.1126/science.1120335

Karlsson, N. B., Schmidt, L. S., & Hvidberg, C. S. (2015). Volume of Martian midlatitude glaciers from radar observations and ice flow modeling. Geophysical Research Letters, 42(8), 2627-2633. doi: 10.1002/2015GL063219

The HRSC Co-Investigator Team, Head, J. W., Neukum, G., Jaumann, R., Hiesinger, H., Hauber, E., Carr, M., Masson, P., Foing, B., Hoffmann, H., Kreslavsky, M., Werner, S., Milkovich, S., & van Gasselt, S. (2005). Tropical to mid-latitude snow and ice accumulation, flow and glaciation on Mars. Nature, 434(7031), 346-351.doi: 10.1038/nature03359

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Los glaciares olvidados de Marte se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La benevolencia social tiene más de una cara

Dom, 2022/03/20 - 11:59
Conciencia social (SoMi) frente al Índice de Actuación Ambiental (EPI) para una selección de países. Véase el texto para una explicación. Fuente: Van Doesum et al (2021)

En ciertas áreas de psicología y de economía son habituales experimentos en los que se valora el grado de prosocialidad de las personas. En esos experimentos la generosidad, el altruismo o la cooperación conllevan algún coste, ya sea de tiempo, dinero o esfuerzo, para favorecer a los demás, o para castigarlos.

Sin embargo, en la vida hay comportamientos que también pueden ser calificados de prosociales sin que conlleven coste o esfuerzo alguno para quien los practica o, si acaso, suponen alguna pequeña molestia. Se trata de gestos cotidianos que denotan una cierta benevolencia o amabilidad para con los demás, que hacen la convivencia más agradable, pero que no modifican sustancialmente la calidad de vida de quienes se benefician de ellos. Quienes se han ocupado de estos asuntos lo llaman social mindfulness, algo así como conciencia social.

Imagine una situación en la que llega tarde a una fiesta y usted sabe que otra persona llegará algo más tarde aún, y que solo queda una copa de vino blanco y varias de tinto. Puede usted optar por tomar una de las copas de tinto o por la de blanco. En el primer caso, la segunda persona seguirá teniendo, como usted, posibilidad de elegir; en el segundo, sin embargo, no podrá hacerlo. Si se encuentra usted una bufanda en el suelo paseando puede dejarla donde está o, alternativamente, colocarla en un lugar como un banco o un seto en posición bien visible. La segunda opción casi no le cuesta nada, es apenas un gesto. En la vida hay infinidad de situaciones como estas.

Pues bien, resulta que cuando se evalúa este tipo de comportamientos en diferentes países mediante experimentos que simulan las condiciones relatadas para la fiesta a la que dos personas llegan tarde, aparecen diferencias muy grandes entre unos países y otros, asombrosamente grandes diría yo. También hay diferencias entre individuos, claro.

En un estudio internacional de gran alcance, con más de ocho mil personas pertenecientes a treinta países industrializados de muy diversas culturas, han evaluado el grado de asociación entre la conciencia o benevolencia social y un buen número de características demográficas, políticas y económicas. En general, hay una cierta correspondencia entre la prosocialidad costosa, esa cuyo ejercicio conlleva un cierto esfuerzo, y esta forma de benevolencia social, tanto entre individuos como entre países, aunque la correlación no es muy alta. No obstante, el resultado más sobresaliente de esta investigación es la fuerte asociación que se observa en la comparación entre países entre esa conciencia social y un índice de desempeño ambiental, que refleja el grado de proximidad que tienen los países a los objetivos de política ambiental establecidos. El posible efecto del resto de factores se desvanece al considerar este.

Lo que sugiere la existencia de ese fuerte vínculo es que las tendencias prosociales no solo se manifiestan en una orientación generosa o benévola hacia otras personas, sino también en forma de una preocupación más amplia para con la calidad del entorno. Quienes han hecho esta investigación sostienen que esa benevolencia proviene de un capital social que también se proyecta en el interés por la protección del ambiente, quizás reflejando alguna forma de acción colectiva. La consecuencia sería que el grado de atención a los demás no solo se manifiesta en actos amables o generosos para con nuestros coetáneos, sino también en forma de interés activo por quienes nos sucederán.

Lo más sorprendente de esta investigación es que sus autores desconocen cuáles pueden ser los factores que subyacen a la relación observada, dado que otras variables socioeconómicas o culturales no parecen influir.

Referencia:

Van Doeasum et al (2021) Social mindfulness and prosociality vary across the globe PNAS doi: 10.1073/pnas.2023846118

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo La benevolencia social tiene más de una cara se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: José Ramón Alonso – ¿Hay algo mejor para un científico que ganar el premio Nobel?

Sáb, 2022/03/19 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

La pregunta del titular se podría reformular de la siguiente manera: ¿existe algo más influyente que un maestro? José Ramón Alonso en un merecido reconocimiento a la labor de todas las personas que se dedican con vocación y entusiasmo a la docencia.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: José Ramón Alonso – ¿Hay algo mejor para un científico que ganar el premio Nobel? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Revertir y prevenir la obesidad modulando el uso de la metionina

Vie, 2022/03/18 - 11:59

El grupo de investigación Lipids & Liver de la UPV/EHU ha demostrado que modificando de manera específica el uso de metionina en el hígado de ratones obesos, a través del silenciamiento del gen Mat1a, se obtiene un efecto global sobre el organismo: se previene y revierte la obesidad, desaparecen la resistencia a la insulina y el exceso de lípidos circulante y se consumen los lípidos del hígado.

La obesidad es una enfermedad muy compleja, que no solamente concierne al hígado o al tejido adiposo, también está implicado el cerebro. Imagen: lightwise/123rf.

La obesidad es un importante problema de salud pública con una prevalencia creciente en todo el mundo. Se considera que para el 2030 entre un 50-60 % de la población va a ser obesa. La obesidad es un factor de riesgo establecido para diversas enfermedades como la enfermedad del hígado graso no alcohólico, ahora también conocida como esteatosis hepática metabólica, la diabetes tipo 2 y la dislipemia (alteración de los niveles de lípidos y proteínas en sangre), entre otras. La pérdida de peso mediante tratamientos farmacológicos, intervenciones en el estilo de vida o incluso la cirugía son eficaces para tratar las comorbilidades relacionadas con la obesidad. Sin embargo, sigue siendo necesario comprender mejor la conexión entre los diferentes trastornos metabólicos relacionados con la obesidad para poder proponer nuevas terapias.

La investigadora principal del grupo Lipids & Liver de la UPV/EHU Patricia Aspichueta se muestra muy satisfecha con los resultados obtenidos en la investigación, que son “importantes y clarísimos”. Tras cinco años de exhaustiva investigación colaborativa, este grupo ha obtenido “información de cómo el hígado puede regular la obesidad y las enfermedades asociadas a esa obesidad; cómo modulando o restringiendo el uso de metionina (un aminoácido esencial que se obtiene únicamente a través de la dieta) dentro del hígado, conseguimos mejorar el estado corporal: mejorar la obesidad y las enfermedades asociadas a ella. Aportamos datos importantes y esperanzadores en este camino. Sin embargo, no está todo descubierto y hay que aportar mucho más”, afirma la investigadora.

En el estudio liderado por Aspichueta se ha conseguido, en ratones obesos, prevenir y revertir la obesidad, así como la resistencia a la insulina y la hepatosteatosis (acumulación de grasa en el hígado) asociadas, aumentando el gasto energético, además de reducir los lípidos en el suero y del hígado. Según explica la doctora, “modificando de manera específica en el hígado el uso de la metionina, a través del silenciamiento del gen Mat1a, obtenemos un efecto global sobre el organismo: el hígado genera una molécula que se secreta al torrente circulatorio y tiene efectos sobre otros tejidos debido a su alta capacidad para modular el metabolismo de todo el organismo. Entre otros, uno de los tejidos que regula es la grasa parda; al activarse esta grasa parda, se activa el consumo de grasas del organismo en este tejido, dando lugar a una serie de efectos beneficiosos: los ratones bajan de peso, desaparece la resistencia a insulina, desaparece el exceso de lípidos circulante en sangre y disminuyen los lípidos del hígado”.

No obstante,  Aspichueta enfatiza que este es un paso más: “Nosotros hemos realizado un análisis en modelos animales; pero todavía queda mucho por hacer: hay que investigar sobre posibles efectos adversos, antes de llevar todo esto a un ensayo clínico. Se puede restringir el uso de la metionina en el hígado, pero nunca se debe inhibir. Esta restricción produce una serie de cambios a nivel del metabolismo hepático, y hay que tener cuidado. Hay que mantener todo en equilibrio, porque si mantienes una inhibición muy larga, también puede tener un efecto perjudicial”. La obesidad es una enfermedad muy compleja, que no solamente concierne al hígado o al tejido adiposo, también está implicado el cerebro. “Es una enfermedad tan compleja que tiene mecanismos compensatorios. Esta investigación es, por tanto, un granito de arena más; una información importante para saber cómo funciona todo el metabolismo en esta enfermedad tan compleja”, afirma.

La prevalencia de la obesidad, del sobrepeso, cada vez es más elevada. Entre un 70-80 % de pacientes con obesidad, tienen problemas de esteatosis hepática metabólica, es decir, de enfermedad hepática. En algunos de estos pacientes, progresa, se complica y acaba en una hepatitis por grasa, o incluso en cáncer hepático. “Nuestro objetivo es poder determinar cómo parar la generación de esta enfermedad en el hígado y su progresión. Y si conseguimos de alguna manera detener o revertir esta obesidad y todos estos efectos nocivos, podremos ayudar a disminuir quizá la prevalencia del cáncer. Si conseguimos conocer cómo modular esta obesidad y con ello todas las enfermedades asociadas, podremos ralentizar la progresión hacia este problema de alta prevalencia”, concluye.

Referencia:

Diego Sáenz de Urturi, Xabier Buqué, Begoña Porteiro, Cintia Folgueira, Alfonso Mora, Teresa C. Delgado, Endika Prieto-Fernández, Paula Olaizola, Beatriz Gómez-Santos, Maider Apodaka-Biguri, Francisco González-Romero, Ane Nieva-Zuluaga, Mikel Ruiz de Gauna, Naroa Goikoetxea-Usandizaga, Juan Luis García-Rodríguez, Virginia Gutierrez de Juan, Igor Aurrekoetxea, Valle Montalvo-Romera, Eva M. Novoa, Idoia Martín-Guerrero, Marta Varela-Rey, Sanjay Bhanot, Richard Lee, Jesus M Banales, Wing-Kin Syn, Guadalupe Sabio, María L. Martínez-Chantar, Rubén Nogueiras, Patricia Aspichueta (2022) Methionine adenosyltransferase 1a antisense oligonucleotides activate the liver-brown adipose tissue axis preventing obesity and associated hepatosteatosis Nature Communications doi: 10.1038/s41467-022-28749-z

El artículo Revertir y prevenir la obesidad modulando el uso de la metionina se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Perlas avinagradas

Jue, 2022/03/17 - 11:59
El banquete de Cleopatra, obra de 1652 realizada por el artista Jan de Bray. Fuente:  The Royal Collection Trust

Cuenta Plinio el Viejo en uno de los tomos de su gran obra Historia Natural una anécdota muy curiosa entre la reina de Egipto, Cleopatra, y el general romano más famoso del momento, Marco Antonio. Resulta que Cleopatra quería impresionar a Marco Antonio para que se convirtiera en su aliado militar y político y, ya de paso, en su amante particular. Para ello se le ocurrió hacer una apuesta con el general romano, asegurándole que le invitaría al banquete más suntuoso y caro al que habría asistido en su vida. Cuando llegó la celebración del ansiado festejo, las cosas no estaban saliendo como Cleopatra esperaba, ya que el romano no parecía en absoluto impresionado con lo que le estaban ofreciendo. Incluso, con cierto sarcasmo, Marco Antonio le dejó caer a la reina egipcia que se estaba aburriendo. Cleopatra reaccionó rápido y con la chulería que parece que la caracterizaba. Pidió a uno de sus esclavos que le llevase una copa de vinagre de vino, se quitó una de las enormes perlas que decoraban sus pendientes, la dejó caer en la copa, esperó unos segundos a que se disolviese y se la bebió. Eso sí impresionó a Marco Antonio, que ya no se separó de la reina egipcia hasta el momento de su muerte.

La historia es muy bonita, pero veamos qué dice la ciencia sobre esta anécdota. Por un lado, tenemos una perla. Las perlas son unas estructuras compuestas por carbonato cálcico (CaCO3) cristalizado en forma de un mineral llamado aragonito, y por una proteína orgánica denominada conquiolina. Estas estructuras son segregadas por algunos moluscos bivalvos, como las ostras, para proteger su cuerpo blando cuando entra alguna partícula externa, a la que van envolviendo de manera progresiva en carbonato hasta asegurarse de que dicha partícula ya no representa ningún peligro para su integridad. Por otro lado, tenemos vinagre de vino. El vinagre es básicamente ácido acético (CH3COOH) diluido, un ácido considerado débil. En definitiva, tenemos una base (la perla) y un ácido (el vinagre) que vamos a mezclar.

Si recordamos un poco las clases de química del instituto, en esa reacción se produce una sal en estado sólido, dióxido de carbono en forma gaseosa y agua líquida. Es decir, que la perla de Cleopatra acabaría reaccionando con el vinagre generando una sustancia sólida carbonatada mezclada con agua en una copa burbujeante, que sería lo que se habría bebido la reina egipcia. Pero hay algo que no hemos tenido en cuenta, ¿esta reacción habría sucedido en unos segundos? Pues aquí es donde entra la leyenda. El hecho de que el acético sea un ácido débil determina el tiempo de la reacción. Para poder disolver el carbonato cálcico de la perla habrían pasado varios días y, además, habrían tenido que ir añadiendo más vinagre cada cierto tiempo.

Vamos, que parece inviable que Marco Antonio se quedase sentado esperando a que terminase la reacción durante unos cuantos días, así que esta historia bien podría ser un simple mito. Eso, o Cleopatra se tragó una enorme perla utilizando vinagre de vino para acompañarla, después de engañar al romano tras generar un poquito de espuma en una copa, que tampoco lo descarto.

Hasta aquí he hablado de historia, leyendas y química. Pero ahora le toca el turno a la geología. Y es que los geólogos empleamos diferentes ácidos para que reaccionen con sustancias minerales de manera controlada y facilitarnos el trabajo en numerosas ocasiones. Un ejemplo es su utilización como mecanismos de extracción química de fósiles en el ámbito de la paleontología. Y el ácido acético diluido es uno de los más empleados para disolver las rocas y los sedimentos carbonatados cuando realizamos estudios de restos fósiles de vertebrados.

Proceso de trabajo en micropaleontología de vertebrados por disolución química. A: reacción química entre el ácido acético y los restos carbonatados. B: lavado del material resultante tras la reacción química para concentrar los restos óseos fosfáticos. Fotografías de Oier Suarez Hernando.

Los restos óseos tienen una composición fosfática que resiste mucho mejor el ataque del ácido acético que los materiales conformados por carbonato cálcico. La metodología de trabajo es simple, se sumerge la muestra de matriz carbonata que incluye los fósiles fosfáticos en ácido acético diluido y se deja actuar durante varias horas, incluso días. A continuación, se lava abundantemente con agua corriente, hasta eliminar la mayor parte del compuesto carbonatado resultante de la reacción química, y se deja secar al aire. Este proceso se puede repetir sucesivas veces hasta que nos quedemos únicamente con los restos óseos que nos interesan analizar.

Y aunque este proceso es lento y laborioso, por suerte los geólogos tenemos más paciencia que Marco Antonio (y sabemos un poco más de química que él).

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Perlas avinagradas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

No se puede cambiar el azar

Mié, 2022/03/16 - 11:59

 

Érase una vez un lejano y extraño lugar en el que los nacimientos de niñas y niños sucedían exactamente en la misma proporción: los bebés eran niñas en un 50 % de los alumbramientos y niños en el 50 % restante. No se conocía ninguna época en la que este hecho hubiera sido diferente. Es decir, desde el principio de los tiempos, el sexo de los bebés se comportaba como si se decidiera al azar lanzando, por ejemplo, una moneda equilibrada.

 cambiar el azarFoto: Pixabay

El Gobierno decidió que solo las parejas con al menos una niña recibirían una gran suma de dinero al llegar su jubilación. En respuesta a esta medida, y después de pensarlo concienzudamente, cada pareja adoptó la siguiente estrategia para garantizar una jubilación tranquila:

  1. si su primer bebé era una niña, decidían no tener más descendencia;

  2. si el primer hijo era un varón, la pareja tenía un segundo bebé que sería el último si era una niña;

  3. y actuaban de este modo sucesivamente: cada pareja tenía descendencia hasta que llegaba una hija, que era entonces su último retoño.

Esta estrategia tenía dos consecuencias obvias:

  1. no había familias sin hijas en este lejano y extraño lugar, y

  2. una de cada dos familias no tenía hijos.

Esto parecía favorecer claramente a las niñas. Sin embargo, después de unos años tras haber sido adoptada esta medida, el Ministerio de Estadística del Gobierno de ese lejano y extraño lugar revisó los datos de nacimientos, y comprobó, con sorpresa, que había habido casi tantos nacimientos de niños como de niñas. ¿Cómo explicar esta paradoja?

La realidad, y aunque parezca sorprendente, es que la estrategia adoptada por las familias no tiene ninguna influencia en la proporción de niñas nacidas. En efecto, la probabilidad de que un bebé sea niña es siempre del 50 %; lo que ha sucedido en el pasado no influye sobre el siguiente nacimiento, según se declara al principio de esta historia. La afirmación inicial implica que, en media, nace una niña por cada dos alumbramientos. No importan las estrategias elegidas por las parejas que desean tener hijas: la proporción de niñas y niños nacidos seguirán siendo las mismas.

Para convencernos, vamos a hacer un cálculo suponiendo, por simplificar, que las familias tienen un máximo de cinco descendientes. Puede repetirse el cálculo con cualquier cantidad máxima de nacimientos, o incluso sin limitaciones en la cantidad de prole:

  • La probabilidad de que una familia tenga un único descendiente es de 1/2. Será entonces una niña.

  • La probabilidad de que una pareja tenga dos descendientes es de 1/4. Serán niño-niña.

  • La probabilidad de que una familia tenga tres descendientes es de 1/8. Y serán niño-niño-niña.

  • La probabilidad de que una pareja tenga cuatro descendientes es de 1/16, siendo entonces niño-niño-niño-niña.

  • Finalmente, la probabilidad de que una familia tenga cinco descendientes es de 1/32, siendo el orden de nacimientos niño-niño-niño-niño-niña.

Es decir, de 32 familias, hay un promedio de 16 familias de tipo [niña], 8 de tipo [niño-niña], 4 de tipo [niño-niño-niña], 2 de tipo [niño-niño-niño-niña], 1 de tipo [niño-niño-niño-niño-niña] y 1 de tipo [niño-niño-niño-niño-niño].

Esto hace un total de 16 + 8 + 4 + 2 + 1 = 31 niñas y 0 + 8 + 8 + 6 + 4 + 5 = 31 niños.

El afán de cada pareja por tener una hija no cambia la proporción de niños y niñas. Aunque es cierto que la mayoría de las familias son más felices porque tienen al menos una hija: en el ejemplo que hemos dado, 31 parejas de las 32 tienen una hija, y aseguran su pequeña fortuna en el momento de la jubilación.

La situación comentada en este ejemplo es, por supuesto, ficticia. Solo pretende ilustrar lo contraintuitivos que resultan algunos argumentos relacionados con la teoría de la probabilidad.

De hecho, como explica Marta Bueno Saz en el artículo Mujeres que no llegaron a existir: abortos selectivos e infanticidio de niñas, la realidad es que nacen menos niñas que niños en el mundo: la mayoría de los países poseen la proporción de 103-108 bebés masculinos por cada 100 femeninos.

El economista Amartyan Sen (1933) definió en 1990 la noción de mujeres desaparecidas aludiendo a aquellas féminas que podrían estar vivas si no existieran los abortos selectivos en función del sexo del feto, el infanticidio femenino o la menor atención a las niñas que provoca una mayor mortalidad que en el caso de los niños.

Los datos de la última década indican que China es el país que posee la proporción más sesgada de nacimientos, con 112 niños nacidos frente a 100 niñas. Esto no tiene nada que ver con el azar, es un asunto de pura discriminación.

Referencia

Jean-Paul Delahaye, S’opposer au hasard des naissances, Accromath 17, hiver – printemps 2022, 30-31.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo No se puede cambiar el azar se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Einstein y Michele Besso

Mar, 2022/03/15 - 11:59

Michele Besso fue un amigo, una caja de resonancia y un poco el hermano mayor de Einstein. Besso era seis años mayor, y no sólo le ayudó con algunas de sus teorías científicas, sino que también se vio envuelto directamente en su vida personal.

Michele Besso. Fuente: ETH-Bibliothek Zürich, Bildarchiv

En 1905 Michele Besso, ingeniero mecánico de formación, trabajaba con Einstein en la Oficina Suiza de Patentes. Los dos hombres solían pasear por las calles de Berna discutiendo las posiciones filosóficas de Ernst Mach (que Einstein conoció por Besso), debatiendo sobre gustos musicales, hablando de judaísmo (Besso era sefardí, Einstein asquenazí) y analizando los problemas candentes de la física. Las teorías que se estaban proponiendo de la luz y de la mecánica mantenían a Einstein despierto durante las noches, intentando comprender como podrían reconciliarse alguna vez. En un momento dado, Einstein pidió ayuda a Besso, y durante diecisiete días los dos hombres discutieron cada aspecto del problema.

Entonces, una noche, la inspiración llegó y encontró a Einstein trabajando. Einstein apareció a primera hora de la mañana siguiente ante la puerta de Besso y, sin decirle hola siquiera, le espetó: “¡Gracias! ¡He resuelto completamente el problema!”. Einstein había resuelto sus problemas con la luz desarrollando su teoría especial de la relatividad. Besso fue la primera persona en escuchar la explicación de Einstein de una teoría que cambiaría las bases de la física.

Ya en ese momento tanto Einstein como Besso parece que eran conscientes de que la teoría era “especial”. El artículo de Einstein sobre ella fue extraordinario en claridad y concisión, y más tarde Einstein diría que las cinco semanas que le llevó escribirlo y prepararlo para publicación fue un tiempo feliz. Aunque Besso no era de los que se quedaba atrás en su comprensión de la física y las matemáticas necesarias, está claro que la teoría especial era de Einstein y solo de Einstein. El mérito de Besso estuvo en su habilidad para escuchar y en su capacidad técnica para absorber y criticar unas ideas revolucionarias provenientes de uno de los científicos más creativos que han existido. Einstein después se referiría a Besso como “la mejor caja de resonancia de Europa [para las ideas científicas]”. En el artículo sobre la teoría especial Einstein supo ser agradecido: “Para terminar, me gustaría decir que mi amigo y colega, M. Besso, me ha ofrecido constantemente sus valiosos consejos mientras estuve trabajando en este problema, y que estoy en deuda con él por sus muchas sugerencias interesantes”.

Einstein y Besso se mantuvieron en contacto por escrito durante el resto de sus vidas, aunque nunca colaboraron en un artículo. Su relación fue más la de dos hermanos. Einstein pedía consejo a menudo a Besso y Besso solía regañar a Einstein por su comportamiento. Las cartas entre los dos hombres contienen muchísima información personal sobre Einstein.

Los dos hombres se conocieron en 1895 cuando Einstein se hospedaba en la casa de su profesor Jost Winteler en Aarau (Suiza), mientras finalizaba el instituto. En aquella época Einstein desarrolló lazos muy fuertes con las personas del círculo de los Winteler: Paul, el hijo mayor, fue su primer gran amigo y posterior marido de su hermana Maja; Marie, la hija pequeña, fue su primera novia; y Besso, que también se hospedaba allí. Besso formalizaría su relación con los Winteler en 1898 al casarse con Anna, la hija mayor.

Una vez casado, Besso se trasladó a Milán como consultor técnico de la Sociedad para el Desarrollo de la Industria Eléctrica en Italia. Influyó en la compañía para que contrataran a Einstein para un pequeño trabajo consistente en un estudio de cómo la electricidad irradia durante la corriente alterna. Einstein le devolvería el favor más tarde cuando avisó a Besso de la existencia de una vacante de examinador de patentes de segunda clase en la Oficina Suiza de Patentes. En esa época Einstein era examinador de patentes de tercera clase y, de hecho, él mismo solicitó el puesto. Pero no parece que le ocasionara ningún problema que escogieran a Besso antes que a él. De hecho, Besso fue claramente bienvenido a la comunidad de Einstein en Berna.

Durante la década siguiente la relación de Einstein con su esposa Mileva se fue deteriorando. El traslado de la familia a Berlín fue la gota que colmaría el vaso. Einstein se mudó a la capital prusiana, entre otras razones, para estar cerca de su amante, Elsa. No es sorprendente, por tanto, que Mileva se deprimiese en Berlín. Solo aguantó allí el tiempo necesario para que Besso pudiese organizarse, recogerla a ella y a sus dos hijos pequeños y llevarlos de vuelta a Suiza.

De esta manera, en 1914, Besso se convirtió en el intermediario entre Mileva y Einstein. El divorcio fue largo y amargo, con crueldad por ambas partes. Mileva estaba destrozada, Einstein distante, y ambos lloraban en el hombro de Besso. Besso supo mantener la cabeza fría. Censuró a Einstein por su comportamiento con su mujer, y protegió a este de las posiciones más dramáticas de ella. En esa época Besso vivía en Zurich, a donde había trasladado Mileva con los niños, lo que le permitió actuar como “tío” de Hans Albert y Eduard.

Besso también estuvo allí cuando tuvo lugar la segunda gran crisis de la familia: el diagnóstico de la enfermedad mental de Eduard. Besso de nuevo asumió el papel de hermano mayor: gestionó toda la parte médica de la enfermedad de Eduard, mantuvo informado a Einstein, regañándole cuando no ayudaba, y consoló, junto a su mujer, a Mileva.

A pesar de todos estos líos familiares, la ciencia estaba casi siempre presente en las comunicaciones entre Einstein y Besso: el rechazo de algunos postulados de la mecánica cuántica, la nueva astronomía y el desarrollo de la teoría general de la relatividad son algunos ejemplos de cuestiones que discutieron los dos amigos.

Besso murió solamente unos meses antes que Einstein. Y si bien éste sintió profundamente la pérdida, supo recurrir a la ciencia como bálsamo. En la carta que envió en marzo de 1955 a Anna, su viuda, escribió: “Se me ha adelantado un poco a la hora de abandonar este mundo extraño. Esto no significa nada. Para nosotros los físicos creyentes [en la física] la distinción entre pasado, presente y futuro solo tiene el significado de una terca ilusión”.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este artículo se publicó en Experientia Docet el 25 de octubre de 2009.

El artículo Einstein y Michele Besso se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La hora de la comida

Lun, 2022/03/14 - 11:59

Tenemos un ritmo circadiano, un ritmo de 24 horas, como tantos seres vivos, dirigido por el ciclo luz-oscuridad que regula el sol. Este reloj se localiza en el cerebro y se han encontrado ciclos similares, quizá dirigidos por medio de mensajeros y hormonas desde el ciclo del cerebro, en muchos órganos como el hígado, el tubo digestivo o el tejido adiposo. Una de las funciones que dirigen estos ciclos es la digestión. Los cambios en su ciclo, según Daniela Jakubowicz y sus colegas, de la Universidad de Tel Aviv, pueden llevar a la sobrealimentación y a la obesidad.

hora de la comidaFoto: Rachel Park / Unsplash

El grupo de Jakubowicz trabaja con 93 mujeres obesas o con sobrepeso, con una edad media de 45.8 años, y un rango de edades de 30 a 57 años. Siguen una dieta de adelgazamiento durante 12 semanas y se controla la composición del desayuno, que se toma entre las 6 y las 9 horas de la mañana, de su comida, entre las 12 y las 15 horas, y de la cena, entre las 18 y las 21 horas. Forman dos grupos que toman una dieta con las mismas kilocalorías, 1400 en total, pero distribuidas con distinto horario a lo largo del día. Uno de los grupos de voluntarias toma un desayuno fuerte, con 700 kilocalorías, una comida media, con 500 kilocalorías, y una cena ligera, con 200 kilocalorías. La dieta del segundo grupo de voluntarias es la misma pero distribuida en un desayuno ligero, una comida media y una cena fuerte.

Los resultados demuestran que todas las voluntarias pierden peso y reducen el diámetro de la cintura, pero las voluntarias del desayuno fuerte lo hacen 2.5 veces más rápido que las voluntarias del desayuno ligero. Los desayunos fuertes bajan, de media, de 86 a 76 kilogramos en las 12 semanas que dura el estudio. Las de desayuno ligero bajan de 86 a 83 kilogramos en el mismo tiempo. Con el desayuno fuerte también bajan la glucosa en sangre y los triglicéridos en un 33% mientras que con el desayuno ligero se elevan un 14%.

En conclusión, un desayuno fuerte y una cena suave ayudan a controlar el peso.

Solo con el cambio de una hora en el esquema de tiempo de las comidas se detectan variaciones en la grasa corporal. Elizabeth Thomas y sus colegas, de la Universidad de Colorado, lo ensayan en 83 voluntarios con sobrepeso y obesidad, variando los horarios durante siete días y tomando datos cada día. Con una hora de retraso en la comida hay un aumento de 1.35% en la grasa corporal.

Incluso no desayunar puede llevar a un aumento de peso y aparición de sobrepeso. El grupo de Julia Wichersky, de la Universidad de Bielefeld, en Alemania, revisaron nueve estudios publicados antes de septiembre de 2020. De ellos, seis se revisaron y tres se incluyeron en un meta-análisis. Los resultados muestran que, si no se desayuna tres o más días a la semana, hay un 11% de riesgo de aumento de peso.

Poco después, el grupo de Marta Garaulet, de la Universidad de Murcia, amplió el estudio sobre el horario de la comida a 420 voluntarios durante 20 semanas, con el 49.5% de mujeres, y 42 años de media. Cambian el protocolo y, en primer lugar, entrevistan a los voluntarios y los dividen en dos grupos: los que comen temprano y hacen la comida del mediodía antes de las 15 horas, y los que comen tarde y la hacen después de las 15 horas.

Los comedores tempranos pierden más peso y lo hacen en menos tiempo que los que comen más tarde. A los autores les sorprende que, en ambos grupos, no es diferente la ingestión de calorías, la composición de la dieta, el gasto de energía, las hormonas relacionadas con el apetito o la duración del sueño. Solo cambia la hora de la comida.

Un estudio publicado en 2021 por el grupo de Kelly Allison, de la Universidad de Pennsylvania, confirma resultados anteriores. Con 12 voluntarios adultos, de edad media de 26.3 años, peso normal y con cinco mujeres en el grupo. Después de un seguimiento de ocho días con dos grupos y, uno de ellos, con horario de comidas de 8.00 a 19.00 horas, y el segundo grupo de 12.00 a 23.00 horas. El grupo que come más temprano muestra tendencia a la pérdida de peso.

El mismo grupo de Marta Garaulet ha hecho un seguimiento durante seis años a pacientes obesos operados con cirugía bariátrica. Son 270 pacientes, con el 70% mujeres y una edad media de 52 años. El 68% han respondido bien a la cirugía y pierden peso, el 11% no reacciona después de la cirugía, y el 21.5% que primero responde bien con el paso del tiempo deja de hacerlo.

Cuando relacionan los investigadores estas tres respuestas con la hora de la comida del mediodía, antes o después de las 15 horas, encuentran que los que comen tarde son hasta el 70% de los que responden mal a la cirugía y pierden poco peso. La respuesta adecuada a la cirugía se corresponde, por lo tanto, a los resultados del ejercicio anterior. Es mejor una hora temprana de la comida del mediodía.

Para averiguar cuál es la causa de estas variaciones en el peso según la hora de la comida, Christopher Morris y sus colegas, del Hospital Brigham and Women de Boston, estudiaron la termogénesis, o gasto de energía para producir calor. Es este proceso metabólico el que mantiene nuestra temperatura a unos 37 °C. La termogénesis también sigue un ciclo diario y es menor a la tarde y a la noche.

Para detectar si la dieta influye en este gasto de energía cíclico, los autores trabajan con 30 voluntarios en un seguimiento de 8 días y con turnos de sueño cambiados y, así, unos duermen de noche y otros duermen de día. La termogénesis la miden una hora y cuarto después de la comida, a las 8 de la mañana para los que duermen de noche y a las 8 de la noche para los que duermen de día.

En los que duermen de noche, con un ciclo que se puede denominar como normal, la termogénesis es un 44% mayor a la mañana que a la tarde y la noche. Por tanto, gastamos más energía de día que en la tarde y la noche y, sobre todo, gastamos más a la mañana temprano. Comemos más fuerte a la mañana y gastamos más energía y, si comemos más fuerte a la noche y no gastamos energía a esas horas pues la almacenamos y no se pierde tanto peso como a la mañana.

Nuestro metabolismo no está preparado para procesar alimentos y utilizar su energía de forma eficaz por la tarde y por la noche, lo hace mejor por la mañana. Los expertos aconsejan no comer nada durante 12 horas de las 24 horas de un día, y que ese ayuno sea, preferiblemente, por la noche, durante el sueño. Lo adecuado es no comer entre la cena y el desayuno del día siguiente. Durante la evolución de nuestra especie, como ocurrió en otras muchas especies, nuestra biología se ha adaptado a un fenómeno superior e inevitable: la salida puesta del sol y, por tanto, al ciclo luz-oscuridad cada 24 horas. Así nos hemos adaptado a comer de día y ayunar y dormir de noche. La luz artificial y las neveras de nuestro tiempo, llenas a cualquier hora, nos empujan a cambiar el ciclo y debemos recuperarlo para regular más adecuadamente el metabolismo.

Referencias:

Allison, K.C. et al. 2021. Prolonged, controlled daytime versus delayed eating impacts weight and metabolism. Current Biology 31: 650-657.

Garaulet, M. et al. 2013. Timing of food intake predicts weight loss effectiveness. International Journal of Obesity 37: 604-611.

Jakubowicz, D. et al. 2013. High caloric intake at breakfast vs. dinner differentially influences weight loss of overweight and obese women. Obesity 21: 2504-2512.

Laber-Warren, E. 2016. Eres cuando comes. Selecciones del Reader’s Digest septiembre: 14-17.

Morris, C.J. et al. 2015. The human circadian system has a dominating role in causing the morning/evening difference in diet-induced thermogenesis. Obesity 23: 2053-2058.

Ruiz-Lozano, T. et al. 2016. Timing of food intake is associated with weight loss evolution in severe obese patients after bariatric surgery. Clinical Nutrition doi: 10.1016/j.clnu.2016.02.007

Thomas, E.A. et al. 2021. Later meal and sleep timing predicts higher percent body fat. Nutrients 13: 73.

Wichersky, J. et al. 2021. Association between breakfast skipping and body weight – A systematic review and meta-analysis observational longitudinal studies. Nutrients 13: 272.

 

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo La hora de la comida se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La Estación Espacial Internacional ante la posible retirada de Rusia

Dom, 2022/03/13 - 11:59

Miguel Bello Mora

Estación Espacial Internacional fotografiada desde una nave Soyuz tras su desacoplamiento. Fuente: NASA/Roscosmos

Hoy en día la Estación Espacial Internacional (ISS) depende completamente de Rusia para mantenerse en órbita. Las naves de Space X, que contrata la NASA, transportan astronautas pero no pueden impulsar a la ISS para que mantenga su altura. Se espera que sí pueda hacerlo una nueva nave americana, Cygnus, que ya ha realizado con éxito un test de propulsión.

La Estación Espacial Internacional (ISS en inglés) es con diferencia la mayor estructura espacial construida en órbita. Tiene el tamaño de un campo de fútbol, orbita a 400 km de altura y se mueve con una velocidad de cerca de 30.000 km/h para dar una vuelta a la Tierra cada 90 minutos.

Comenzó su andadura en 1998 y fue diseñada para durar 15 años en órbita. Hoy ya lleva más de 21 años habitada permanentemente. Hay un compromiso formal de los socios que la construyeron −Estados Unidos (EEUU), Rusia, Europa, Canadá y Japón− para continuar las operaciones hasta 2024, aunque EEUU ya ha propuesto seguir hasta 2028 como mínimo.

La nueva situación generada por la guerra en Ucrania puede cambiar este escenario, con la amenaza de Rusia de abandonar la estación como respuesta a las sanciones de occidente. Pero, ¿cuál sería el efecto en la ISS si se produce el abandono de Rusia?

Afortunadamente la situación hoy está mucho mejor que hace tan solo dos años, desde que la nave Dragon, de Space X, bajo el programa de vuelos comerciales de la NASA, es capaz de llevar y traer astronautas al complejo orbital.

Durante nueve años, tras el abandono de los vuelos del transbordador espacial de la NASA, el Space Shutle, y hasta la entrada en operación de las naves de Space X en 2020, la única forma de volar a la ISS era con las naves rusas, de forma que la dependencia de la ISS de Rusia era total.

La NASA llegaba a pagar hasta 80 millones de dólares a Rusia para comprar estos billetes espaciales para sus astronautas. De hecho esta actividad era la más lucrativa del programa espacial ruso. Gracias a Space X, esta dependencia ya no existe y no habría problema en el abandono de Rusia para poder habitar la ISS.

Pero las naves rusas son también importantes para la ISS porque son las que han proporcionado hasta hoy la propulsión necesaria para su mantenimiento en órbita.

La ISS necesita propulsión para tres funciones vitales. Una es el mantenimiento de la altura orbital. La ISS pierde de media dos kilómetros de altura cada mes −en realidad esta caída es variable y depende de la actividad solar, que tiene ciclos de 11 años−; la nave rusa Progress le proporciona impulso para ganar altura cada cierto tiempo, cuando está anclada a la ISS. Sin el impulso de las Progress la ISS caería a Tierra en aproximadamente dos años −este tiempo puede variar dependiendo del ciclo solar.

Configuración de la ISS en abril de 2020 con cuatro naves espaciales unidas a la estación: la nave de carga estadounidense Cygnus de Northrop Grumman, las naves de reabastecimiento rusas Progress 74 y 75, y la nave de tripulación Soyuz MS-16. Fuente:  NASA

La propulsión también es clave para evitar basura espacial. La basura espacial es un grave problema que origina la necesidad de realizar maniobras evasivas con cierta periodicidad para evitar colisiones fatales, dada la gran velocidad de estos objetos.

En noviembre de 2021 la ISS hizo una maniobra para subir su altura más de un kilómetro, y evitar así una zona congestionada de basura debido a una fragmentación intencionada de China de un satélite Fenyung hace años. Estas maniobras hasta ahora se realizan con naves rusas Progress.

Al final de su vida operativa, que la NASA ya estima para 2028 para luego ser reemplazada por un programa de vuelos comerciales, es necesario hacer una reentrada de la ISS en la atmósfera de manera controlada.

Si se deja caer la estación de manera incontrolada, puede hacerlo en cualquier lugar de la Tierra entre 51º de latitud Sur y 51º de latitud Norte, donde se encuentra la inmensa mayoría de la población terrestre (dado que su inclinación orbital con respecto al Ecuador es 51º).

Aunque la mayor parte de la superficie terrestre es océano y es menos probable que caiga sobre tierra, esta es una probabilidad que no se puede permitir porque se sabe que al igual que las estaciones precedentes Skylab o MIR, los restos de la ISS no se desintegrarían completamente en la atmósfera (como casi todos los satélites y restos de basura), sino que partes importantes de su estructura caerían sobre la Tierra y podrían generar un serio peligro para personas o propiedades.

Para evitar esto se utiliza primero la caída natural debido a la resistencia atmosférica durante un periodo de aproximadamente 2 años y después una maniobra final para asegurar que va a caer en un punto determinado del océano. La NASA ha seleccionado el Point Nemo’ como punto para la caída de la ISS, un lugar en el Pacífico Sur que está a una distancia de 2.700 km de la costa más cercana. En principio esta maniobra final para la reentrada controlada de la ISS debería ser realizada por las naves rusas.

En resumen, la para mantener la altura, para evitar colisiones con basura espacial y para evitar un accidente al final de la vida útil de la ISS. La nave europea ATV, que tenía también la capacidad de propulsión ya no está operativa desde 2014.

Sin embargo una nueva nave americana, Cygnus de Northrop Grumman, tiene capacidad para atracar en la ISS y ya ha realizado con éxito un test de propulsión. De esta forma también USA puede realizar maniobras en la ISS y la dependencia de Rusia desaparecería por completo.

La amenaza rusa de abandonar la ISS no sería ahora un grave peligro para los socios occidentales. Tan solo habría que cerrar los módulos rusos y seguir operando con la nave Dragon de Space X para la tripulación y la nave Cygnus de Northrop Grumman para la propulsión.

Sobre el autor: Miguel Bello Mora  es Director General (CEO) de AIR Centre, organismo intergubernamental para el uso de la tecnología espacial para la sostenibilidad y el cambio climático.

Artículo publicado originalmente en SINC.

El artículo La Estación Espacial Internacional ante la posible retirada de Rusia se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: Conchi Lillo – MicroCellfie

Sáb, 2022/03/12 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

El virus SARS-CoV-2 no solo existe, sino que hasta le han hecho retratos. Conchi Lillo nos enseña como se hacen los micro-selfis.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Conchi Lillo – MicroCellfie se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Cómo se conserva una pintura mural sin tocarla?

Vie, 2022/03/11 - 11:59

Entre 1909 y 1916, el pintor de la emblemática obra ‘El grito’, Edvard Munch, realizó por encargo 11 pinturas murales monumentales de gran tamaño (de entre los 4 y 11 metros) para el Aula Magna de la Universidad de Oslo. La profesora de la Facultad de Farmacia de la UPV/EHU Maite Maguregui forma parte del grupo que analiza la técnica utilizada por el pintor noruego.

Foto: Maite Maguregui

La profesora noruega Tine Frøysaker perteneciente al Departamento de Arqueología, Conservación e Historia (IAKH) de la Universidad de Oslo (UiO) ha contado con la colaboración de la profesora titular de Química Analítica de la UPV/EHU y miembro del grupo de investigación IBeA Maite Maguregui para el análisis de estas pinturas monumentales, con del uso de metodologías que permiten conocer la técnica pictórica de Edvard Munch y el estado de conservación de los murales. En dicho estudio, también ha participado el doctor Francesco Caruso del Instituto Suizo de Estudios de Arte (SIK-ISEA) de Zúrich.

En concreto, el proyecto MAP (The Munch Aula Paintings Project) busca conocer la gran variedad de materiales empleados por Edvard Munch en dichas pinturas, monitorizar su estado de conservación y llevar a cabo su limpieza como medida de conservación preventiva. “El problema actual al que se enfrentan es la disposición continua de material particulado en suspensión (polvo y otras partículas) que accede desde el exterior, lo que muestra el problema de la contaminación urbana que también afecta a ciudades como Oslo, aunque las obras de arte no estén directamente expuestas a esa contaminación por no estar ubicadas en el exterior”, señala la investigadora Maite Maguregui.

De momento, han tenido que analizar las obras, siempre evitando generar cualquier tipo de daño durante el estudio. “Siempre estamos muy limitados por el muestreo, muchas veces el muestreo incluso está prohibido”, explica Maguregui. Por esa razón, cada vez resulta más interesante encontrar métodos de análisis in situ que no afecte a la obra, problemas que puede plantear el muestreo, por ejemplo.

En este sentido es clave el papel de la profesora Maguregui, ya que está especializada en el desarrollo de metodologías de análisis basadas en el uso de técnicas portátiles y de laboratorio no invasivas. En concreto, en las obras de Munch, se ha utilizado un instrumento portátil basado en espectroscopia Raman. “La técnica permite analizar una superficie pictórica colocando una sonda en contacto con la superficie a analizar, no siendo necesario realizar una toma de muestra. En caso de que el muestreo se permita, las muestras que nosotros tomamos en una pintura son micrométricas y las magnificamos bajo el microscopio”.

En este momento, el grupo de investigación al que pertenece Maguregui se centra en obtener los primeros resultados e interpretaciones, para, en un futuro cercano, poder desarrollar nuevos materiales sostenibles que permitan la conservación de estas obras y otras superficies decoradas.

El proyecto de análisis y conservación de las pinturas monumentales del Aula Magna, llamado ‘Munch Aula Painting Project’, comenzó en 2005, con el objetivo de averiguar la técnica pictórica de Edvard Munch, considerada de gran complejidad. En 2009 se llevó a cabo la primera restauración de los cuadros, que fueron retirados del espacio hasta que en 2011 fueron recolocados. Las mediciones han arrojado la acumulación de material particulado que desde 2011 ha vuelto a aparecer en las obras pictóricas.

La serie de 11 obras de Edvard Munch es el resultado de un encargo que la Universidad de Oslo le hizo al pintor en 1916, después de no haber ganado la convocatoria para las pinturas monumentales en la que competía contra el muralista Emmanuel Vigeland. El Aula es un espacio que se usa como Paraninfo de la Universidad de Oslo y en el que se han entregado los Premios Nobel desde 1947 hasta 1989.

La presencia de la investigadora en Oslo también le ha permitido colaborar en el estudio de esculturas medievales en madera decorada pertenecientes al Museo de Historia Cultural (KHM) de la Universidad de Oslo.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo ¿Cómo se conserva una pintura mural sin tocarla? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Antonia Maury, la astrónoma rebelde

Jue, 2022/03/10 - 11:59
Antonia Maury. Fuente: Wikimedia Commons.

Cuando Pickering las contrató como calculadoras, todo lo que buscaba era ahorrarse unos cuantos dólares. Pero la cosa no salió como esperaba. Resulta que aquellas mujeres, con “destreza para realizar trabajos repetitivos, no creativos” según él creía, terminaron teniendo iniciativa propia. A Henrietta Leavitt le dio por encontrar una regla con la que medir distancias astronómicas. Williamina Fleming se puso descubrir cosas, nebulosas, estrellas variables, la primera enana blanca. Annie Jump Cannon inventó un nuevo sistema de clasificación estelar. Pero entre todas ellas, la palma se la llevó Antonia Maury. Ella fue quien terminó por sacarle de sus casillas1.

La tarea que se le había encomendado era sencilla. Maury solo debía clasificar las estrellas según el sistema desarrollado por Annie Jump Cannon. Pero a ella le dio por pensar. Era una de las “calculadoras” con más formación previa en astronomía del observatorio, había estudiado en el Vassar College y se había graduado bajo la tutela de la astrónoma Maria Mitchell. Estaba acostumbrada a estudiar y reflexionar por su cuenta y le pareció que el esquema propuesto para el catálogo era demasiado simple para recoger toda la complejidad que ella había visto en las líneas espectrales de las estrellas. Por eso empezó a sub-clasificarlas, atendiendo a la anchura y la nitidez de las líneas. Pero lo hizo sin consultarlo primero con el profesor Pickering, y este, en lugar de incentivarla o valorar su esfuerzo, se mostró irritado por su desobediencia.

Maury, por lo demás, no debía de tener un carácter demasiado dócil. Así que sus constantes roces con el profesor forzaron la salida de la astrónoma del Observatorio de Harvard en 1891. Cuando, tiempo después, Pickering le pidió que regresara para completar sus observaciones (o para delegarlas en una nueva calculadora), ella le contestó que no deseaba volver si sus aportaciones no eran plenamente reconocidas2:

No creo que sea justo que tenga que dejar mi trabajo en otras manos hasta que pueda ser reconocido como un trabajo hecho por mí. Desarrollé mi teoría a costa de mucho esfuerzo y mediante muchas comparaciones, y creo que debería obtener todo el crédito por mi teoría de las relaciones de los espectros estelares y también por mis teorías con respecto a Beta Lyrae.

Pickering le contestó de forma seca, afirmando que “es la práctica habitual de este Observatorio dar reconocimiento a los autores de ciertas secciones en sus publicaciones”. Pero Maury quería más. Cuando regresó a Harvard en 1893 y nuevamente en 1895 para completar sus observaciones, utilizó su propio sistema de clasificación. Además, su catálogo, publicado en 1987, fue el primero claramente acreditado a una mujer. En el subtítulo de «Espectros de estrellas brillantes fotografiados con el telescopio Draper de 11 pulgadas” al fin figuraba su propio nombre: “Discutido por Antonia C. Maury bajo la dirección de Edward C. Pickering”.

¿Pero en qué consistía aquella clasificación que tanto enfrentó a la astrónoma con el profesor? Si bien el sistema de Cannon, con sus siete letras (O B A F G K M) resultaba adecuado para catalogar las estrellas en función de su color (y, por tanto, de su temperatura), Maury se dio cuenta de que el tamaño de las estrellas (su magnitud absoluta) también dejaba una huella distinguible sobre el espectro. Añadió así una segunda dimensión al sistema de clasificación de Oxford que resultaría clave, más tarde, para identificar el ciclo de vida de diferentes estrellas en función de su tamaño.

Sus ideas tuvieron el reconocimiento que merecían solo unas décadas más tarde. En 1911, Ejnar Hertzsprung y por Henry Norris Russell publicaron el diagrama que hoy lleva sus nombres y que se había basado, en parte, en las observaciones de Maury. En 1922, la Unión Astronómica Internacional modificó su sistema de clasificación para adoptar un método mucho más afín, en su planteamiento, al ideado por la astrónoma. Para entonces, y tras la muerte de Pickering, Maury había regresado al Observatorio de Harvard a trabajar como ayudante. Permaneció allí, bajo la dirección del nuevo director, el profesor Shapley, hasta que se jubiló por completo en 1948. En su retiro, Antonia se convirtió en una ornitóloga apasionada y una conservacionista que luchó para salvar los bosques de secuoyas de su país. Murió el 8 de enero de 1952.

Diagrama Hertzsprung–Russell. Fuente Wikimedia Commons.

Referencias:

1Masegosa, J. (11 de marzo de 2013). El harén de Pickering: Antonia C. Maury. El diario secreto de Henrietta S. Leavitt. Consultado el 7 de marzo de 2022.

2Carta del 7 de mayo de 1892. Citada por Hoffleit, D. (1991). The Evolution Of The Henry Draper Memorial. Vistas in Astronomy Volume, 34(Part 1), 107-162.

Para saber más:

Razkin, Uxue (2019) Antonia Maury (1866-1952): la mujer que conocía las estrellas. Mujeres con Ciencia

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Antonia Maury, la astrónoma rebelde se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Premios matemáticos, de las Medallas Fields a los Problemas del Milenio

Mié, 2022/03/09 - 11:59

 

Hace unas pocas semanas se anunciaba en los medios de comunicación que el Premio Fundación BBVA Fronteras del Conocimiento en Ciencias Básicas, en su XIV edición, había sido concedido a dos matemáticos, el estadounidense Charles Fefferman y el francés François Le Gall, “por sus contribuciones fundamentales en dos áreas de las matemáticas con numerosas ramificaciones, que incluyen numerosas aplicaciones en distintos campos” (para más información sobre el premio y los galardonados puede leerse lo escrito en la página web de los Premios Fronteras del Conocimiento). Leyendo sobre los dos matemáticos galardonados pude observar que eran matemáticos que ya habían recibido, como es normal, varios reconocimientos previos. Entre otros premios, Charles Fefferman había recibido la Medalla Fields en 1978, el Premio Bôcher en 2008 o el Premio Wolf en 2017, mientras que François Le Gall había recibido el Premio Fermat en 2005 o el Premio Wolf en 2018.

Los matemáticos Charles Fefferman, estadounidense, y François Le Gall, francés, Premio Fundación BBVA Fronteras del Conocimiento en Ciencias Básicas, en su XIV edición. Fotografías de la página web de los Premios Fronteras del Conocimiento

 

La mayoría de nosotros sabemos que no existe Premio Nobel de Matemáticas, aunque el motivo por el cual no existe no esté del todo claro (pero no es la entrada de hoy la que dedicaremos a este tema), y seguro que conocemos la existencia de algunos premios matemáticos, como las Medallas Fields o los Premios Abel, que han sido considerados desde su origen equivalentes al “Premio Nobel de las Matemáticas”, aunque seguro que no conocemos la existencia de otros premios como, por ejemplo, el Premio Wolf o el Premio Fermat. En esta entrada del Cuaderno de Cultura Científica nos gustaría realizar una pequeña presentación de algunos de los premios que existen y que se conceden por investigaciones matemáticas.

Medalla Fields.

El origen de este premio matemático se encuentra precisamente en la inexistencia de un Premio Nobel de las Matemáticas, que la comunidad matemática quiso resolver instaurando este reconocimiento internacional a la investigación en matemáticas. Las Medallas Fields, que han sido consideradas desde su origen como el Nobel de las Matemáticas, son un galardón entregado cada cuatro años con motivo de la celebración del Congreso Internacional de Matemáticos (ICM), organizado por la Unión Matemática Internacional (IMU). Este evento, que se celebra desde 1897, reúne cada cuatro años a los matemáticos de todo el mundo y todas las disciplinas. A partir de 1936, y por iniciativa del matemático canadiense John C. Fields (1863-1932), quien dejó su fortuna para que fuese posible este premio, se entrega el que durante mucho tiempo ha sido considerado el más alto galardón de la ciencia de Pitágoras.

La cantidad de medallas que pueden concederse en cada edición de los ICM puede ir de dos a cuatro y reconoce “logros sobresalientes en Matemáticas”. De hecho, el nombre real de estas medallas es “Medalla Internacional para Descubrimientos Sobresalientes en Matemáticas”. Se concede a matemáticos o matemáticas de menos de 40 años, aunque esta es una norma no escrita, y esto es debido a que en el testamento de Fields se destaca “aunque la concesión del premio debe basarse en trabajo ya realizado, debe al mismo tiempo servir para animar futuros logros de los galardonados y como estímulo para el esfuerzo renovado de otros”.

El premio consiste en una medalla, diseñada por el escultor canadiense R. Tait McKenzie, y 15.000 dólares canadienses. En el anverso de la medalla puede verse al matemático griego Arquímedes (aprox. 287 – 212 a.n.e.), con la inscripción en latín “Transire suum pectus mundoque potiri” (Elevarse por encima de uno mismo y agarrar el mundo), del poeta romano Marcus Manilius (siglo I). En el reverso hay una inscripción en latín que dice algo así como “Matemáticos reunidos de todo el mundo han otorgado [este premio] por escritos sobresalientes”.

Anverso y reverso de la Medalla Fields que se concede a las personas galardonadas con esta distinción. Fotografía de Stefan Zachow para la Unión Matemática Internacional (IMU)

 

Las dos primeras medallas se concedieron en Oslo (Noruega) en 1936 a los matemáticos Lars Ahlfors (1907-1996), finlandés, y Jesse Douglas (1897-1965), estadounidense, aunque no se volvieron a conceder hasta 1950 y desde entonces se han entregado siempre cada cuatro años, durante la celebración de los ICM. Desde entonces se han galardonado a grandes matemáticos como el francés Laurent Schwartz (1915-2002), el japonés Kunihiko Kodaira (1915-1997), el francés Jean-Pierre Serre (1926), que fue es matemático más joven hasta la fecha en recibir la Medalla Fields con tan solo 27 años, el estadounidense John Milnor (1931), el inglés Michael Atiyah (1929-2019), el ruso Sergei Novikov (1938), que no pudo viajar a recoger el galardón por la prohibición sobre él del gobierno soviético, el francés Alain Connes (1947), el estadounidense Willian Thurston (1946-2012), el estadounidense William Witten (1951), el primer físico en recibir esta distinción, el ruso-estadounidense Efim Zelmanov (1955), el australiano Terence Tao (1975) o el francés Cédric Villani (1973), todos ellos matemáticos muy reconocidos en la comunidad matemática.

La matemática iraní Maryam Mirzajani (1977-2017) ha sido la primera mujer en recibir este galardón, que le fue concedido en 2014 en Seúl (Corea del Sur), “por sus destacadas contribuciones a la dinámica y la geometría de las superficies de Riemann y sus espacios moduli”.

Por otra parte, la Medalla Fields le fue concedida al ruso Gregori Perelman (1966), en el Congreso Internacional de Matemáticos de Madrid 2006, por “sus contribuciones a la geometría y sus ideas revolucionarias sobre la estructura analítica y geométrica del flujo de Ricci”, que estaban detrás de su demostración de la conjetura de Poincaré, pero el matemático ruso rechazó el galardón y declaró “no estoy interesado en el dinero o la fama; no quiero estar en exhibición como un animal en un zoológico”.

El matemático francés Cédric Villani recibió la Medalla Fields en 2010 (fotografía de Marie-Lan Nguyen / Wikimedia Commons) y la matemática iraní Maryam Mirzajani en 2014.

 

El Congreso Internacional de Matemáticos 2022 tenía previsto celebrarse en la ciudad rusa de San Petersburgo, sin embargo, la Unión Matemática Internacional ha decidido, ante la invasión rusa de Ucrania, que este importante evento matemático sea totalmente virtual y albergado fuera de Rusia. Por su parte, las Medallas Fields se entregarán en una ceremonia fuera de Rusia, aunque el lugar está aún por determinar.

La lista completa de las personas galardonadas con la Medalla Fields puede verse en la página web de la Unión Matemática Internacional.

Premio Abel.

El matemático noruego Sophus Lie (1842-1899), tras enterarse de que Alfred Nobel no tenía la intención de incluir a las matemáticas entre los premios que estaba estableciendo (se haría público en 1897), propuso la creación de un Premio Abel de las Matemáticas. El rey Oscar II accedió a financiar un premio de matemáticas en honor de Abel y dos matemáticos noruegos, Ludwig Sylow y Carl Størmer, diseñaron los estatutos y las normas del premio. La intención era que la presentación del premio fuera parte de las celebraciones del primer centenario del nacimiento del matemático noruego Niels Henrik Abel (1802-1826) en 1902. Sin embargo, la muerte de Sophus Lie en 1899 y la disolución de la Unión entre Suecia y Noruega en 1905 desbarataron el primer intento de crear el Premio Abel.

Tuvo que pasar un siglo para que, hacia 2001, empezara a subir la presión ejercida sobre el gobierno noruego para que creara el Premio Abel, y este accedió a concederlo, con la intención de que el primer galardón se concediera en 2002, con motivo del bicentenario del nacimiento de Abel. Finalmente, el primer Premio Abel (con una cuantía económica de unos 750.000 euros, similar al Premio Nobel) llegó en 2003 y fue concedido al matemático francés Jean Pierre Serre (1926), uno de los grandes matemáticos vivos.

Fotografías de algunos matemáticos que han recibido el Premio Abel de matemáticas, como Sir Michael Francis Atiyah, Mijaíl Grómov, Endre Szemerédi y Andrew Wiles. Imágenes de la página web del Premio Abel

 

Desde entonces el premio ha sido concedido a 24 personas, entre los que están el matemático indio Srinivasa Varadhan (1940), el matemático ruso-francés Mijaíl Grómov (1943), el matemático húngaro Endre Szemerédi (1940), el matemático estadounidense John Forbes Nash (1928-2015), sobre quien trata la película Una mente maravillosa, quien desgraciadamente murió en un accidente de coche cuando regresaba de recoger el premio, el matemático inglés Andrew Wiles (1953), matemático que había demostrado el famoso Ultimo Teorema de Fermat, la matemática estadounidense Karen Uhlenbeck (1942), la primera matemática en recibir este galardón, el matemático canadiense Robert Langlands (1936) o el matemático israelí Grigori Margulis (1946), de nuevo, todos ellos matemáticos muy reconocidos en la comunidad matemática.

La lista completa de las personas galardonadas con el Premio Abel puede verse en la página web del Premio Abel .

Fotografía de la matemática estadounidense Karen Keskulla Uhlenbeck, que recibió el Premio Abel en 2019. Imagen del Heidelberg Laureate Forum

 

Premio Wolf.

El tercer premio más prestigioso en el mundo de las matemáticas es el Premio Wolf, concedido por la Fundación Wolf de Israel. Esta fundación fue creada por la familia judía Wolf, en concreto por el inventor, diplomático y filántropo Ricardo Wolf (1887-1981), nacido en Alemania y que emigró a Cuba antes de la Primera Guerra Mundial, y su mujer, la tenista española Francisca Subirana Wolf (1900-1981).

Como puede leerse en su página web, la fundación tiene como objetivo “promover la ciencia y el arte en beneficio de la humanidad”. Con este objetivo creó un premio que desde 1978 se concede a “destacados científicos y artistas de todo el mundo, por sus logros y contribuciones en interés de la humanidad y de las relaciones fraternas entre los pueblos, sin distinguir raza, genero, religión o tendencias políticas».

Los Premios Wolf se otorgan en seis campos: Agricultura, Química, Matemáticas, Medicina, Físicas y Artes (Arquitectura, Música, Pintura y Escultura). En el campo de las matemáticas, entre las personas galardonadas están muchos de los matemáticos que ya hemos mencionado en los anteriores premios. En el año 1978 los matemáticos premiados fueron el matemático ruso Izrail Moiséyevich Gelfand (1913-2009) y el matemático alemán Carl Ludwig Siegel (1896-1981). Desde entonces ha habido más de sesenta premiados, entre los que tenemos grandes nombres de las matemáticas, como el matemático francés André Weil (1906-1998), el matemático ruso Andréi Kolmogórov (1903-1987), el matemático húngaro Paul Erdös (1913-1996), el matemático polaco Samuel Eilenberg (1913-1998), el matemático ruso Vladímir Arnold (1937-2010), el matemático estadounidense Stephen Smale (1930), el matemático británico Simon Donaldson (1957) o el matemático rumano-estadounidense George Lusztig (1946).

Fotografías de Israel M. Gelfand, André Weil, Andréi Kolmogórov y Paul Erdös, de la página web de los Premios Wolf en la Fundación Wolf

 

El listado completo de los matemáticos galardonados con el Premio Wolf puede verse en la página de la Fundación Wolf, en concreto en la parte de los Premios Wolf.

Continuemos con otros premios creados y concedidos por la Unión Matemática Internacional (IMU).

La Medalla Abaccus IMU (hasta 2018 Premio Nevanlinna).

Otro premio de otorga la Unión Matemática Internacional durante la celebración del Congreso Internacional de Matemáticos (ICM) es la Medalla Abaccus IMU, que hasta el último ICM en Río de Janeiro (2018), llevaba el nombre de Premio Nevanlinna por el matemático finés Rolf Nevalinna. Como se explica en el artículo de Antonio Córdoba, en Materia (El País): “Aunque la IMU no ha hecho públicas sus razones, la Universidad de Helsinki confirma que se trata del papel de Nevanlinna en la Segunda Guerra Mundial. Fue miembro del partido Nacionalista Finlandés (ultraconservador y supremacista); presidió el comité de dirección del “Batallón de voluntarios fineses de las Waffen-SS” y aceptó, durante los años 1936-37, un puesto en la universidad alemana de Göttingen, reemplazando a los ilustres matemáticos de origen judío (como Edmund Landau, Hermann Weyl y Richard Courant) expulsados por los nazis bajo el auspicio de las leyes racistas de Nuremberg”.

El Premio Nevanlinna, ahora Medalla Abaccus, fue creado por la Unión Matemática Internacional en 1981, para premiar “las contribuciones más importantes en los aspectos matemáticos de la Sociedad de la Información, incluyendo:

a) Aspectos matemáticos de la informática, teoría de la complejidad, lenguajes de programación, análisis de algoritmos, criptografía, visión por computador, patrones, procesamiento de la información y modelización de la inteligencia;

b) Computación científica y análisis numérico. Aspectos computacionales de optimización y teoría de control. Álgebra computacional”.

El primer premiado, en 1982, fue el matemático y científico computacional estadounidense Robert Tarjan (1948), al que le han seguido otros nueve premiados, el último (hasta que se conceda el siguiente este mismo año 2022) ha sido el científico computacional teórico griego Constantinos Daskalakis (1981), “por transformar nuestra comprensión de la complejidad computacional de problemas fundamentales de los mercados, las subastas, los equilibrios y otras estructuras económicas. Su trabajo proporciona tanto algoritmos eficientes como límites sobre lo que puede realizarse eficientemente en estos dominios”.

Fotografía de Constantinos Daskalakis. Fuente: Wikimedia Commons

 

Premio Leelavati.

Uno de los últimos premios creados en el seno de la Unión Matemática Internacional ha sido el Premio Leelavati (o Lilavati), que se concede a aquellas personas que han realizado una contribución destacada en la difusión pública de las matemáticas. El nombre viene del tratado Lilavati, del matemático indio Bhaskara Acharia o Bhaskara II (1114-1185). Existe una interesante edición (a cargo de Ángel Requena Fraile y de Jesús Malia) en castellano Lilavati, matemática en verso del siglo XII, publicada dentro de la colección Biblioteca de Estímulos Matemáticos, de la editorial SM y la Real Sociedad Matemática Española, que os recomiendo.

Las personas premiadas hasta el momento han sido: en 2010, el escritor, físico y divulgador de las matemáticas británico Simon Singh (1964), autor de libros tan famosos como El enigma de Fermat, sobre el que dirigiría un documental homónimo (premiado con el premio BAFTA en 1996), Los códigos secretos, o Los Simpson y las matemáticas, así como realizador y productor de documentales para la BBC; en 2014, el matemático, periodista y divulgador científico argentino Adrián Paenza, que es conocido tanto por su serie de libros de divulgación matemática que llevan el título Matemática… ¿Estás ahí?, otros libros de divulgación matemática como ¿Pero esto también es matemática?, Matemática para todos o Matemagia, o los programas de televisión Científicos, Industria Argentina y Alterados por pi; y en 2018, el matemático turco Ali Nesin “por sus destacadas contribuciones para aumentar la conciencia pública sobre las matemáticas en Turquía, en particular por su incansable trabajo en la creación de la «Ciudad Matemática» como un lugar excepcional y pacífico para la educación, la investigación y la exploración de las matemáticas para todos”.

Fotografía de Simon Singh con una bufanda de Moebius. Imagen de Robert Sharp / English PEN / Wikimedia Commons.

 

Medalla Chern.

La Medalla Chern ha sido creada por la Unión Matemática Internacional y se concede en el Congreso Internacional de Matemáticos desde el ICM de 2010 en la India, como el Premio Leelavati. El nombre de la medalla es en honor al matemático chino-estadounidense Shiing-Shen Chern (1911-2004), que trabajaba en el área de la geometría y la topología y era considerado por muchas personas como “el padre de la geometría diferencial moderna”. Por cierto, que Chern fue uno de los matemáticos que recibió el Premio Wolf. La Medalla Chern consiste en 250.000 dólares y se concede “en reconocimiento a los logros destacados de toda una vida dedicada al estudio de las matemáticas en su más alto nivel”.

Fotografía del matemático chino-estadounidense Shiing-Shen Chern. Imagen de Konrad Jacobs, perteneciente a la colección del Instituto Oberwolfach

 

Los primeros premiados han sido, en 2010, el matemático canadiense-estadounidense Louis Nirenberg (1925-2020), “por su papel en la formulación de la teoría moderna de las ecuaciones en derivadas parciales elípticas no lineales y por ser el mentor de numerosos estudiantes y postdoctorales en esta área”; en 2014, el matemático estadounidense Phillip A. Griffiths (1938), “por su desarrollo innovador y transformador de los métodos trascendentales en la geometría compleja, en particular su trabajo seminal en la teoría de Hodge y los períodos de variedades algebraicas”; en 2018, el matemático japonés Masaki Kashiwara (1947), “por sus destacadas y fundacionales contribuciones al análisis algebraico y a la teoría de la representación sostenidas a lo largo de casi 50 años”.

Fotografía del matemático canadiense-estadounidense Louis Nirenberg. Imagen de los archivos de la New York University

 

Fotografía del matemático estadounidense Phillip A. Griffiths. Imagen del Institute for Advanced Study en Princeton

 

Premio Carl Friedrich Gauss.

El último premio de entre los que concede la Unión Matemática Internacional, pero en esta ocasión en colaboración con la Sociedad Matemática Alemana, es el Premio Carl Frederich Gauss, en honor del matemático alemán Carl Frederich Gauss (1777-1855), uno de los matemáticos más importantes de toda la historia de las matemáticas, conocido como “el príncipe de los matemáticos”. Este premio, que se concede desde el ICM de 2006, en el Congreso Internacional de Matemáticos celebrado en Madrid, se otorga por “contribuciones matemáticas destacadas que han encontrado aplicaciones significativas fuera de las matemáticas”.

Los cuatro premiados han sido el matemático japonés Kiyosi Itô (1915-2008), el matemático francés Yves Meyer (1939), el matemático estadounidense Stanley Osher (1942) y el matemático estadounidense David Donoho (1957).

Fotografía del matemático japonés Kiyosi Itô. Imagen de la Sociedad Matemática Japonesa

 

Premio de los Problemas del Milenio.

Los premios que hemos mencionado hasta el momento son premios que se conceden de forma periódica, pero estos que mencionamos a continuación son premios asociados a la resolución de siete importantes problemas matemáticos, los conocidos como Premios del Milenio del Instituto Clay de Matemáticas (EEUU).

El Instituto Clay de Matemáticas de Cambridge (Massachusetts, Estados Unidos) es una fundación privada sin ánimo de lucro dedicada a incrementar y difundir el conocimiento matemático, fundada en 1998 gracias al patrocinio del empresario de Boston Landon T. Clay y de Lavinia D. Clay. En el año 2000 el Instituto Clay de Matemáticas seleccionó siete importantes problemas abiertos, denominados Problemas del Milenio, que fueron elegidos como representación de algunos de los mayores desafíos a los que se enfrentaban los matemáticos y matemáticas en el nuevo milenio. El premio por la resolución de alguno de los problemas del milenio es de un millón de dólares.

Los problemas del milenio son:

1.- La conjetura de Birch y Swinnerton-Dyer, en teoría de números algebraica;

2.- La conjetura de Hodge, en geometría algebraica;

3.- La solución de las ecuaciones de Navier-Stokes de la mecánica de fluidos;

4.- El problema P = NP, en ciencias de la computación;

5.- La conjetura de Poncaré, en topología;

6.- La hipótesis de Riemann, en análisis complejo y teoría de números primos;

7.- El problema de la masa en la teoría de Yang-Mills, en la teoría cuántica de campos.

De los siete problemas del milenio planteados solo uno ha sido resuelto hasta la fecha, la conjetura de Poincaré. El matemático ruso Gregori Perelman, que ya había rechazado la Medalla Fields en el ICM Madrid 2006, posteriormente rechazó el premio de un millón de dólares del Instituto Clay de Matemáticas. Toda esta historia merece una entrada propia en el futuro.

El matemático ruso Gregori Perelman resolvió uno de los siete problemas del milenio, la conjetura de Poincaré, pero rechazó la Medalla Fields del ICM2006, así como el millón de dólares del Instituto Clay de Matemáticas

 

Para más información sobre los problemas del milenio del Instituto Clay de Matemáticas puede leerse el artículo del matemático Manuel de León, Los problemas del milenio, o más extensamente el monográfico Los problemas del milenio de la Revista Métode.

Pero estos son solo algunos pocos premios matemáticos que existen, pero el listado es muy amplio (Premio Fermat, Premio George Polya, Medalla Euler, Premio Erdös, Premios de la Sociedad Europea de Matemáticas, Premio Sophie Germain, etcétera) y lo podéis ver en la Wikipedia: List of mathematics awards, quizás volveremos a hablar de ellos en una futura entrada del Cuaderno de Cultura Científica.

La matemática ucraniana Maryna Viazovska (1984), quien ha recibido varios premios, entre otros el Premio Europeo de Combinatoria en 2017, el Premio Fermat en 2019 o el Premio de la Sociedad Europea de Matemáticas-EMS en 2020, entre otros

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Premios matemáticos, de las Medallas Fields a los Problemas del Milenio se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Einstein y la pizarra del Observatorio del Monte Wilson

Mar, 2022/03/08 - 11:59

La foto que abre esta entrada es bastante popular. Más que por la foto en sí, por una aplicación que permite escribir en la pizarra lo que cada cual quiera. Y, sin embargo, esta foto tiene una historia cuando menos curiosa que nos va a permitir explorar someramente la idea de curvatura y cómo expresarla usando una herramienta matemática tremendamente útil en física, los tensores, a la par que rememorar un momento muy interesante en la historia de la cosmología.

En una época anterior a internet, las fotos de las noticias eran enviadas por las agencias de prensa por correo ordinario urgente a los distintos periódicos. Cada fotografía llevaba anexa su historia escrita por la agencia de noticias adherida a la parte posterior, de esa forma el periódico no tenía que complicarse a la hora elaborar el pie de foto.

La foto de Einstein fue tomada el 14 de enero de 1931 durante su visita al complejo del Observatorio del Monte Wilson en California (Estados Unidos). Sin embargo, se hizo pública 24 años después, con motivo de la muerte de Einstein el 18 de abril de 1955. El pie de foto con el que apareció en prensa decía: “Dr. Albert Einstein writes an equation for the density of the Milky Way on the blackboard at the Carnegie Institute, Mt. Wilson Observatory headquarters in Pasadena, Calif., in this Jan. 14, 1931.”  En español se tradujo tal cual, por ejemplo: “Einstein escribe una ecuación sobre la densidad de la Vía Láctea en un pizarrón del Observatorio Monte Wilson, en Pasadena, California, en 1931”. Pero, ¿desde cuándo una densidad se expresa con subíndices y con la letra R? ¿La densidad de la Vía Láctea es cero? No parece tener sentido.

La historia anexa a la foto que mandó la agencia de noticias podría ayudarnos a desvelar esta posible contradicción. El original es el siguiente:

Vemos que “density” era originalmente “destiny”. ¿Podría haber ocurrido que el avezado reportero de la agencia de noticias se limitase a reflejar la frase que entendió y le llamó la atención y que, en algún paso intermedio, alguien decidiese que el “destino” no puede expresarse en una ecuación y que lo que quería decir es “densidad”? Podría ser. Parecería incluso más probable que Einstein lo que hacía era escribir sobre la curvatura del espaciotiempo. Pero, en realidad, lo que estaba haciendo es considerar el problema de la existencia de la constante cosmológica. Vamos a verlo, que es muy fácil de entender intuitivamente.

Si cortas una naranja por la mitad, quitas la pulpa del interior, e intentas aplanar el hemisferio de piel resultante, terminas rajándolo. Si tratas de aplanar algo con la forma de una silla de montar, como una patata frita (de las de bolsa) revenida, te encuentras con el problema contrario: hay “demasiada” superficie y se te forman pliegues. Si tomas, sin embargo, un rollo de papel de cocina y deseas aplanarlo, no hay nada más fácil, con desenrollarlo, listo. Las superficies como las esferas se dice que están curvadas positivamente, las que tienen la forma de una silla de montar que lo están negativamente, y las que son como el papel de cocina son, simplemente, planas (démonos cuenta de que son planas en este sentido aunque no estén en un plano). Esto es así porque la curvatura se define en términos de “geometría intrínseca” de una superficie, en la que la distancia se mide en función de los caminos que están dentro de la superficie.

Hay varias maneras de hacer precisa esta noción de curvatura y hacerla cuantitativa, de tal manera que a cada punto de la superficie se pueda asociar un número que diga “cómo de curvada” está en ese punto. Para poder hacer esto es necesario que se cumplan determinadas condiciones matemáticas que permitan determinar las longitudes de los caminos, es lo que se llama una métrica riemanniana. La noción de curvatura puede ser generalizada a un mayor número de dimensiones, de tal forma que se habla de la curvatura en un punto en una variedad riemanniana de d dimensiones. Sin embargo, cuando la dimensión es mayor de dos, es decir, no es un plano lo que se curva sino un espacio, las posibilidades de curvatura en un punto se hacen tan complicadas que ya no pueden ser expresadas por un número sino por algo llamado el tensor de Ricci.

Un tensor no es más que la extensión del concepto de vector a dimensiones adicionales. Un escalar, un número, aparece en un gráfico como un punto, un objeto de cero dimensiones. Un vector, que tiene magnitud y dirección, aparecería en un gráfico como una línea, es decir, como un objeto de una dimensión. El tensor extiende esta idea a las dimensiones adicionales. Esto podemos interpretarlo como un conjunto de vectores relacionados, moviéndose en múltiples direcciones en un plano.

Lo veremos mejor de otra manera. En vez de pensar en un vector como un conjunto de coordenadas, lo podemos considerar una operación, es decir, un vector lo que haría es asociar una dirección a un número. Lo importante desde el punto de vista matemático es que la operación es lineal y homogénea. Gracias a esto, un vector queda completamente determinado por sus proyecciones en d direcciones, donde d es el número de dimensiones del espacio en el que se define. Por tanto, un vector se puede expresar como un conjunto de números que son en realidad sus proyecciones en un sistema de ejes coordenados.

Un vector es realmente un tensor de rango 1, asocia 1 dirección a un número. Un escalar, es un tensor de rango 0, asocia 0 direcciones a un número. Por tanto un tensor de rango 2 (un tensor ya por derecho propio), asocia dos direcciones arbitrarias a un número. Si quisiéramos expresarlo en términos de las d coordenadas, como se hace con los vectores, necesitaríamos d x d números. Para un tensor de rango q, por tanto, necesitaríamos nq números.

Veamos ahora desde el punto de vista formal las ecuaciones de campo de la relatividad general. Si has llegado leyendo hasta aquí no te asustará demasiado, después de todo no es más que una igualdad tensorial en la que se relacionan un conjunto de tensores 4 x 4 (simétricos, pero en esto no vamos a entrar ahora), para un espaciotiempo de 4 dimensiones. Así:

Donde Rμν es el tensor de curvatura de Ricci del que hablábamos más arriba, R es la curvatura escalar (simplificando, la curvatura entendida en el sentido que hablábamos más arriba, un número asociado a un punto del espacio), gμν es el tensor métrico (una generalización del campo gravitatorio y principal objeto de interés), Λ es la constante cosmológica, G es la constante gravitacional de Newton, c la velocidad de la luz en el vacío y Tμν el tensor de energía-impulso.

Los índices en los tensores son etiquetas, es una forma de llamarlos. En este caso empleamos la notación abstracta de Penrose. Se puede usar cualquier símbolo conveniente para los índices de los tensores. Tradicionalmente, las letras latinas se usan para indicar que se están usando coordenadas espaciales (x, y, z), mientras que las griegas se emplean para indicar coordenadas espaciotemporales (x, y, z, t). En la época de la foto esta convención no se había establecido.

Una simple observación de la ecuación de campo nos dice que podría haber algo similar con lo que escribe Einstein en la pizarra: el tensor de Ricci. Efectivamente, existe un caso especial de la ecuación de campo en el que se postula que Tμν = 0, es decir, que la energía y el momento se conservan localmente. En este caso, y por las propiedades de los tensores, solo existe una posibilidad para que Rμν= 0 o, usando la notación de Einstein, Rik = 0, y es que Λ = 0. En definitiva, que el pie de foto podría ser “El Dr. Einstein discutiendo [por lo de la interrogación] la posibilidad de que la constante cosmológica sea cero”.

Para saber más:

Las ecuaciones de campo de la relatividad general

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este artículo se publicó en Experientia Docet el 17 de diciembre de 2010.

El artículo Einstein y la pizarra del Observatorio del Monte Wilson se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Páginas