S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 1 heure 22 min

Lo que tu cerebro hace cuando no estás haciendo nada

mar, 2024/02/06 - 11:59

Cuando tu mente divaga, la red neuronal «por defecto» de tu cerebro está activa. Su descubrimiento hace 20 años inspiró una serie de investigaciones sobre las redes de regiones cerebrales y cómo interactúan entre sí.

Un artículo de Nora Bradford. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

red neuronal por defectoIlustración: Kristina Armitage / Quanta Magazine

Siempre que realizas activamente una tarea (por ejemplo, levantar pesas en el gimnasio o realizar un examen difícil), las partes del cerebro necesarias para llevarla a cabo se vuelven «activas» cuando las neuronas aumentan su actividad eléctrica. Pero, ¿tu cerebro está activo incluso cuando estás distraído en el sofá?

La respuesta, según han descubierto los investigadores, es sí. Durante las últimas dos décadas han definido lo que se conoce como red neuronal por defecto, una colección de áreas del cerebro aparentemente no relacionadas que se activan cuando no estás haciendo nada. Su descubrimiento ha ofrecido información sobre cómo funciona el cerebro independientemente de tareas bien definidas y también ha impulsado investigaciones sobre el papel de las redes cerebrales (no sólo de las regiones cerebrales) en la gestión de nuestra experiencia interna.

A finales del siglo XX los neurocientíficos comenzaron a utilizar nuevas técnicas para tomar imágenes del cerebro de las personas mientras realizaban tareas en escáneres. Como era de esperar, la actividad en ciertas áreas del cerebro aumentaba durante las tareas y, para sorpresa de los investigadores, la actividad en otras áreas del cerebro disminuía simultáneamente. A los neurocientíficos les llamó la atención el hecho de que durante una amplia variedad de tareas las mismas áreas del cerebro redujeran constantemente su actividad.

Era como si estas áreas hubieran estado activas cuando la persona no estaba haciendo nada y luego se apagaran cuando la mente tenía que concentrarse en algo externo.

Los investigadores llamaron a estas áreas “tarea negativas”. Cuando se identificaron por primera vez, Marcus Raichle, neurólogo de la Facultad de Medicina de la Universidad de Washington en St. Louis, sospechaba que estas áreas tarea negativas desempeñan un papel importante en la mente en reposo. «Esto planteó la pregunta de ‘¿Cuál es la actividad cerebral de base?'», recuerda Raichle. En un experimento, pidió a personas sometidas a escáneres que cerraran los ojos y simplemente dejaran vagar sus mentes mientras él medía su actividad cerebral.

Descubrió que durante el descanso, cuando nos volvemos mentalmente hacia adentro, las áreas tarea negativas utilizan más energía que el resto del cerebro. En un artículo de 2001, denominó esta actividad como «un modo predeterminado de función cerebral«. Dos años más tarde, después de generar datos de mayor resolución, un equipo de la Facultad de Medicina de la Universidad de Stanford descubrió que esta actividad tarea negativa define una red coherente de regiones cerebrales que interactúan, a la que llamaron red neuronal por defecto.

El descubrimiento de la red neuronal por defecto despertó la curiosidad entre los neurocientíficos sobre lo que hace el cerebro en ausencia de una tarea centrada en el exterior. Aunque algunos investigadores creían que la función principal de la red era generar nuestra experiencia de divagar o soñar despierto, había muchas otras conjeturas. Tal vez controlaba corrientes de consciencia o activaba recuerdos de experiencias pasadas. Y la disfunción en la red neuronal por defecto se planteó como una característica potencial de casi todos los trastornos psiquiátricos y neurológicos, incluidas la depresión, la esquizofrenia y la enfermedad de Alzheimer.

Desde entonces, una avalancha de investigaciones sobre la red por defecto ha complicado esa comprensión inicial. «Ha sido muy interesante ver los tipos de diferentes tareas y paradigmas que involucran la red por defecto en los últimos 20 años», comenta Lucina Uddin, neurocientífica de la Universidad de California en Los Ángeles.

La red por defecto fue una de las primeras redes cerebrales caracterizadas por la ciencia. Consiste en un puñado de regiones cerebrales, incluidas algunas en la parte frontal del cerebro, como las cortezas prefrontal medial dorsal y ventral, y otras dispersas por todo el órgano, como la corteza cingulada posterior, el precúneo y el giro angular. Estas regiones están asociadas con la memoria, la repetición de experiencias, la predicción, la consideración de acciones, la recompensa/castigo y la integración de información. (El resaltado de color en la siguiente figura indica algunas de las áreas externas del cerebro que se vuelven más activas cuando se activa la red por defecto).

Ilustración: Merrill Sherman/Quanta Magazine

Desde su descubrimiento, los neurocientíficos han identificado groseramente un puñado de redes distintas adicionales que activan áreas aparentemente dispares del cerebro. Estas áreas activadas no actúan de forma independiente, sino que se armonizan en sincronía entre sí. «No se puede pensar en una orquesta sinfónica solo con los violines o los oboes», explica Raichle. De manera similar, en una red cerebral las partes individuales interactúan para provocar efectos que solo pueden producir juntas.

Según la investigación, los efectos de la red neuronal por defecto incluyen divagar, recordar experiencias pasadas, pensar en los estados mentales de los demás, visualizar el futuro y procesar el lenguaje. Si bien esto puede parecer un conjunto de aspectos no relacionados de la cognición, Vinod Menon, director del Laboratorio de Neurociencia Cognitiva y Sistémica de Stanford, hace poco lanzó la hipótesis de que todas estas funciones podrían ser útiles para construir una narrativa interna. En su opinión, la red neuronal por defecto te ayuda a pensar en quién eres en relación con los demás, recordar tus experiencias pasadas y luego resumir todo eso en una autonarrativa coherente.

En 2001, el neurólogo Marcus Raichle identificó la red de actividad cerebral que se activa cuando la mente divaga, llamándola el “modo predeterminado” de función cerebral. Foto cortesía de Marcus Raichle

La red por defecto es claramente para algo complicado; está involucrada en muchos procesos diferentes que no se pueden describir claramente. «Es un poco tonto pensar que alguna vez vamos a decir: ‘Esta región o red cerebral hace una cosa'», afirma Uddin. «No creo que sea así como funciona».

Uddin comenzó a investigar la red neuronal por defecto porque estaba interesada en el autorreconocimiento, y muchas tareas de autorreconocimiento, como identificar tu propia cara o voz, parecían estar asociadas con la red. En los últimos años, ha centrado su atención en las interacciones entre redes cerebrales. Así como diferentes áreas del cerebro interactúan entre sí para formar redes, diferentes redes interactúan entre sí de manera significativa, explica Uddin. «Las interacciones de redes son más esclarecedoras en cierto modo que simplemente estudiar una red aislada, porque trabajan juntas y luego se separan y entonces cambian con el tiempo lo que hacen».

La neurocientífica Lucina Uddin investiga cómo interactúan las diferentes redes cerebrales, incluida la red de modo predeterminado. Foto cortesía de Lucina Uddin

Está particularmente interesada en cómo interactúa la red neuronal por defecto con la red de prominencia, lo que parece ayudarnos a identificar la información más relevante en un momento dado. Su trabajo sugiere que la red de prominencia detecta cuándo es importante prestar atención a algo y luego actúa como un interruptor de apagado para la red neuronal por defecto.

Los investigadores también han estado examinando si los trastornos de salud mental como la depresión podrían estar relacionados con problemas con la red neuronal por defecto. Hasta ahora, los hallazgos no han sido concluyentes. En personas con depresión, por ejemplo, algunos investigadores han descubierto que los nodos de la red están demasiado conectados, mientras que otros han descubierto lo contrario: que los nodos no se conectan. Y en algunos estudios, la red neuronal por defecto en sí no es anormal, pero sí sus interacciones con otras redes. Estos hallazgos pueden parecer incompatibles, pero se alinean con hallazgos recientes de que la depresión es quizás un grupo de trastornos diferentes que se presentan con síntomas similares.

Mientras tanto, Menon ha desarrollado lo que él llama la teoría de la triple red. Postula que las interacciones anormales entre la red neuronal por defecto, la red de prominencia y una tercera llamada red frontoparietal podrían contribuir a trastornos de salud mental como esquizofrenia, depresión, ansiedad, demencia y autismo. Normalmente, la actividad de la red neuronal por defecto disminuye cuando alguien presta atención a un estímulo externo, mientras que la actividad en las otras dos redes aumenta. Menon sospecha que este tira y afloja entre redes puede no funcionar de la misma manera en personas con trastornos psiquiátricos o del desarrollo.

Deanna Barch, que estudia neurobiología de las enfermedades mentales en la Universidad de Washington en St. Louis, está intrigada por la teoría de la triple red. Investigar cómo las redes están conectadas de manera diferente en personas con trastornos de salud mental puede ayudar a los investigadores a encontrar mecanismos subyacentes y desarrollar tratamientos, explica. Sin embargo, no cree que las interacciones de redes por sí solas expliquen completamente las enfermedades mentales. «Creo que entender las diferencias de conectividad es un punto de partida», afirma Barch. «No es un punto final».

La comprensión actual de la red neuronal por defecto seguramente tampoco es su punto final. Desde su descubrimiento, ha empujado a los neurocientíficos a pensar más allá de las responsabilidades de regiones individuales del cerebro hacia los efectos de las interacciones entre redes cerebrales. Y ha llevado a muchas personas a apreciar las actividades de la mente enfocadas al interior: que incluso cuando estamos soñando despiertos o reposando, nuestro cerebro está trabajando arduamente para que esto suceda.

 

El artículo original, What Your Brain Is Doing When You’re Not Doing Anything, se publicó el 5 de febrero de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Lo que tu cerebro hace cuando no estás haciendo nada se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Riesgo geológico para una presencia permanente en la Luna

lun, 2024/02/05 - 11:59

Cuando hablamos de nuestro satélite, la Luna, nos referimos a él como un cuerpo que -a nivel geológico- está bastante inactivo. Y lo cierto es que es así, al menos para los estándares a los que estamos acostumbrados en la Tierra, donde registramos de una manera continua actividad sísmica y volcánica en una gran parte del planeta.

Esto por supuesto no quiere decir que la Luna esté totalmente muerta, ya que sabemos que siguen ocurriendo terremotos y que solo con los instrumentos instalados en las misiones Apolo se registraron decenas de miles de eventos sísmicos a lo largo de 8 años de operaciones. Esto no significa que se registrasen todos los terremotos ocurridos en la Luna -estamos hablando de instrumentación de finales de la década de los 60 y 70, menos sensible que la de hoy- y situada en un área concreta de la Luna, lo que obviamente reduce el número de detecciones especialmente para los eventos de menor magnitud.

El astronauta Buzz Aldrin instalando el primer sismómetro en la Luna. Imagen cortesía de la NASA

Desde luego, este elevado número nos tiene que hacer plantearnos algunas cuestiones como ¿qué origen tienen los terremotos lunares? En primer lugar, tenemos los terremotos térmicos, una serie de movimientos que ocurren principalmente durante la mañana y la tarde de una manera bastante periódica y que son debido a los bruscos cambios de temperatura que ocurren en la superficie lunar, que permite que los materiales se dilaten y contraigan, fracturándose y provocando estos movimientos.

También tenemos terremotos ocasionados por el impacto natural de asteroides contra la superficie, pero también por la colisión de objetos hechos por el hombre, como, por ejemplo, las etapas de cohetes espaciales o naves cuyo aterrizaje no ha sido precisamente suave. Estos terremotos pueden ser muy útiles porque si podemos localizar con precisión el punto de impacto, seremos capaces de conseguir datos de mucha calidad y con mucha menor incertidumbre.

Existen también una serie de terremotos conocidos como terremotos profundos, que ocurren a grandes profundidades -entre los 700 y los 1200 kilómetros- y que son el grupo más numeroso de todos los detectados. Se piensa que estos podrían estar ocasionados por las mareas que ejerce la Tierra sobre la Luna porque además se ha observado una periodicidad relacionada con estas, pero también con los efectos de las mareas ejercidas por el Sol.

Y por último tendríamos los terremotos someros, que son relativamente poco abundantes pero que son los que pueden resultar más peligrosos para el ser humano puesto que ocurren a profundidades de entre 0 y los 200 kilómetros de profundidad y la atenuación de las ondas sísmicas es menor, por lo que llega a la superficie una parte importante de la energía liberada. Además, de estos terremotos algunos han llegado a una magnitud equivalente a un 5.8 terrestre, lo que supone una sacudida importante.

Las flechas junto al número 1 (en la parte superior) marcan la existencia de una falla en la superficie de la Luna. Las imágenes inferiores, la 1 y la 3, muestran dos deslizamientos que podrían estar relacionados con terremotos y la 2 muestra la caída de una roca ladera abajo y que podría ser también como consecuencia de un terremoto que inestabilice las rocas y las haga caer. Imagen cortesía de NASA/GSFC/Arizona State University/Smithsonian.

Precisamente queríamos centrarnos en este tipo de terremotos ahora que se acerca -esperamos que para no dentro de muchos años- el aterrizaje de los astronautas del programa Artemis de la NASA y que tienen como destino una zona cercana al polo sur de la Luna, puesto que ahí podría haber un riesgo sísmico relativamente elevado y relacionado con estos terremotos poco profundos.

La circunferencia de la Luna ha encogido como consecuencia de su enfriamiento interno -ese que al mismo tiempo va robándole actividad geológica- unos 45 metros. No nos puede parecer mucho, ya que la circunferencia ecuatorial de la Luna está en torno a los 10900 kilómetros y la reducción de la que hablamos está en torno al 0.0004%.

Pero al encogerse la Luna comienza a arrugarse y plegarse, algo que puede también parecer contraintuitivo porque la Luna es sólida pero, a escala geológica, los materiales pueden plegarse hasta que se supera su umbral de resistencia y se acaban rompiendo porque en realidad son materiales frágiles y no pueden acumular esa deformación de una manera indefinida.

Otra falla lunar, de la que podemos ver su sinuoso escarpe y que en el relieve da una forma de escalón muy característica debido al movimiento vertical de los bloques. Imagen cortesía de NASA/GSFC/Arizona State University.

¿Qué ocurre entonces? Esas fracturas que nacen son lo que conocemos como fallas, los lugares donde se producen los terremotos y, casualmente, en el polo Sur de la Luna se han encontrado un importante número de estas fallas provocadas por el enfriamiento de su interior… y como son estructuras muy epidérmicas -en el sentido de superficiales- podrían provocar terremotos muy someros. Pero no solo eso, algunos terremotos lunares pueden duran horas porque la Luna, hablando coloquialmente, suena como una campana y en ocasiones resuena debido a las propiedades de su corteza.

Esto quiere decir que, sobre todo, para estancias permanentes en zonas donde haya este tipo de fallas, hay que tener en cuenta el riesgo sísmico y construir estructuras que sean capaces de aguantar una sacudida sísmica… pero también construir lejos de pendientes muy escarpadas. ¿Por qué? Porque este tipo de terremotos también puede desestabilizar las laderas y provocar deslizamientos que sean destructivos.

La parte buena: podemos aplicar el conocimiento de nuestro planeta para cartografiar e intentar medir el grado de actividad de estas estructuras capaces de generar terremotos y crear mapas de peligrosidad que nos indiquen las zonas donde haya un menor riesgo, pero también de cara a la ingeniería, ser capaces de levantar o llevar edificaciones capaces de soportar los terremotos lunares.

Es probable que para la exploración más permanente todavía queden algunas décadas pero sin duda tener en cuenta el riesgo sísmico de las distintas regiones permitirá que nuestra estancia allí sea mucho más segura y menos peligrosa.

Referencias:

Nunn, C. et al. (2020) Lunar seismology: A data and instrumentation review Space Science Reviews doi: 10.1007/s11214-020-00709-3.

Sadeh, D. and Wood, K. (1978) Periodicity in lunar seismic activity and earthquakes Journal of Geophysical Research: Solid Earth doi: 10.1029/jb083ib03p01245.

Watters, T.R. et al. (2024) Tectonics and seismicity of the Lunar South Polar Region The Planetary Science Journal doi: 10.3847/psj/ad1332.

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Riesgo geológico para una presencia permanente en la Luna se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Lo que la ciencia forense nos enseña sobre la naturaleza humana

dim, 2024/02/04 - 11:59

Llegué a «Todo lo que queda» pensando que se trataba de un libro de divulgación científica sobre ciencia forense. Pero, estrictamente hablando, no se puede considerar un libro de ciencia. Esto no quiere decir que no haya ciencia en sus páginas; la hay, pero sin entrar en mucho detalle ni profundizar demasiado en la metodología.

A lo largo de sus capítulos Sue Black, una reputada antropóloga forense escocesa, ofrece breves descripciones de los métodos que utilizan los patólogos o los antropólogos forenses para descubrir la identidad de personas fallecidas, normalmente en circunstancias dramáticas –como consecuencia de actos delictivos en mucho casos–, para hallar a quien agredió o provocó la muerte de alguna víctima, o para determinar la forma en que las personas fallecidas en esas circunstancias murieron.

En ese recorrido por los aspectos metodológicos, va desde las técnicas más clásicas, basadas en análisis minuciosos de los restos mortales y el entorno en que fueron hallados los cadáveres de las personas fallecidas, hasta el uso de técnicas propias de la genética molecular, métodos novedosos de identificación de sospechosos –como la arquitectura de la red de vasos sanguíneos que circulan bajo la piel de las manos, por ejemplo– o, incluso, el desarrollo de nuevos procedimientos para fijar los tejidos humanos y de esa forma conservar los cadáveres para su uso en la docencia de anatomía humana.

El trayecto no se limita a las técnicas. También hay un recorrido por diferentes lugares, sitios en los que la doctora Black ha trabajado, como Londres y, especialmente, Dundee. Y otros a los que se ha desplazado, bien enviada por su gobierno –Kosovo–, o por iniciativa propia –Tailandia–. En cada uno de estos lugares ha trabajado en la resolución de distintos problemas y por razones muy diferentes.

Pero como decía, el libro no se puede considerar, sensu stricto, una obra de divulgación científica. Es, ante todo, una reflexión extensa y profunda acerca de la muerte, de la forma en que transitamos a ella desde la vida, y de las circunstancias bajo las que sobreviene. La reflexión parte de la relación directa y muy próxima de la autora con el hecho de la muerte, sobre todo en la primera parte del libro. Se basa en sus primeras experiencias de relación o proximidad a cadáveres humanos, como los de miembros de su propia familia –su tío Willy, su madre y su padre– o como el de una persona –a quien Sue Black llamaba el tío Henry– que había donado su cuerpo a la ciencia y cuyo cadáver era utilizado como materia de estudio cuando ella era estudiante universitaria. Al final, en el epílogo, retoma el tono reflexivo, precisamente cuando piensa acerca de su propia muerte.

Las historias que relata Sue Black forman parte de su trayectoria profesional; lo que cuenta se basa en su propia experiencia. Como es natural, aunque es una profesora en la Universidad de Dundee, la mayor parte de sus historias tienen que ver con hechos delictivos o muertes sospechosas. En todas introduce alguna pincelada científica, describe el procedimiento que han de seguir para identificar un cadáver o hallar a un criminal y, sobre todo, reflexiona, como he dicho, sobre la vida y la muerte, y sobre la naturaleza humana.

Muchas de estas historias tienen una componente impactante. En mi caso, las que más me han conmovido han sido las que transcurren en Kosovo, donde la doctora Black fue desplazada por su gobierno para ayudar a identificar los restos humanos de cadáveres de personas que habían sido víctimas de actuaciones genocidas por parte de milicianos serbios y para reunir las pruebas que se pudiesen utilizar para acusar y, en su caso, condenar al líder serbio Slobodan Milosevic y los altos cargos de su gobierno por esas actuaciones.

Lo normal es que al llegar a los relatos de esas historias terribles, hubiera dejado de leer el libro. Sin embargo, no estuve tentado en ningún momento de hacerlo. El mérito es de la autora, porque consigue, mediante una muy buena combinación de compasión por las víctimas y sentido del humor, aliviar el pesar que, de otra forma, hubiese provocado la lectura. Sue Black es, además, una narradora excelente, por lo que la lectura de «Todo lo que queda» es verdaderamente, un placer.

Título: Todo lo que queda. Lo que la ciencia forense nos enseña sobre la naturaleza humana

Autora: Sue Black

Editorial: Paidos (2023).

Es traducción de “All That Remains. A Life in Death”, Doubleday (2019).

 

En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

Una versión de este texto de Juan Ignacio Pérez Iglesias apareció anteriormente en Lecturas y Conjeturas (Substack).

El artículo Lo que la ciencia forense nos enseña sobre la naturaleza humana se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¡Ups! La teoría de la electricidad animal

sam, 2024/02/03 - 11:59

electricidad animal

La escritora Mary Shelley se inspiró para su novela “Frankenstein o el moderno Prometeo” en el trabajo del médico y físico Luigi Galvani y su sobrino, el físico Giovanni Aldini. Galvani creía que existía algo llamado electricidad animal: al aplicar corrientes eléctricas a animales ya muertos contraía los músculos. Hoy sabemos que esta electricidad animal no existe, lo que pasa es que las células se comunican entre sí a través de impulsos eléctricos.

Producción ejecutiva: Blanca Baena

Guion: José Antonio Pérez Ledo

Grafismo: Cristina Serrano

Música: Israel Santamaría

Producción: Olatz Vitorica

Doblaje: K 2000

Locución: José Antonio Pérez Ledo

Edición realizada por César Tomé López

El artículo ¡Ups! La teoría de la electricidad animal se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La mielina como combustible cerebral

ven, 2024/02/02 - 11:59

Un equipo de investigación ha examinado el efecto de correr un maratón sobre la mielina, la sustancia que envuelve los axones de las neuronas, las prolongaciones en forma de hilo por las que se transmiten los impulsos nerviosos. Los resultados muestran que la mielina sufre una fuerte disminución generalizada y se recupera de manera progresiva posteriormente. Este hallazgo revela que el metabolismo energético cerebral es más complejo de lo que se pensaba. El uso de la mielina como combustible cerebral abre una nueva visión sobre los requerimientos energéticos del encéfalo.

La comunicación cerebral se rige por señales eléctricas y químicas que requieren mucha energía. Se estima que el encéfalo consume el 20 % de la energía total que gasta el cuerpo humano, a pesar de que representa en torno al 2 % de su peso, y su principal fuente de energía es la glucosa. Investigadores de la UPV/EHU, CIC biomaGUNE, CIBERNED, Biobizkaia y Achucarro, entre otros, liderados por Carlos Matute, catedrático de Anatomía y Embriología Humana de la Universidad del País Vasco, han realizado un estudio en el que han querido saber “qué le sucede al encéfalo cuando esa fuente de energía está bajo mínimos, como ocurre en el ejercicio físico prolongado en el tiempo, por ejemplo, una maratón o una ultramaratón”.

El ejercicio de resistencia prolongado moviliza las reservas de energía de todo el organismo para satisfacer las demandas energéticas. Los hidratos de carbono son la principal fuente de combustible; a medida que se agotan estas reservas, el cuerpo empieza a depender más de la grasa almacenada como fuente de energía, y, en última instancia, si es necesario, el organismo puede descomponer las proteínas musculares para utilizarlas como energía. “Los resultados de nuestro estudio indican que las células nerviosas en condiciones de hipoglucemia (poca glucosa) echan mano de fuentes de energía alternativa, como es la mielina, una estructura grasa que envuelve los axones o fibras nerviosas que comunican las neuronas y facilita la propagación ultra rápida de las señales eléctricas”, explica Matute.

La importancia de comprender la función de la mielina

El estudio ha revelado que correr un maratón reduce el contenido de mielina de los corredores en gran parte de la materia gris y blanca del encéfalo, en unas regiones más que en otras, y con un impacto similar en ambos hemisferios. Esta pérdida de mielina se recupera tras la carrera, y a las dos semanas de finalizar el esfuerzo sus niveles están prácticamente normalizados. “Es un proceso reversible ya que la cantidad de mielina se normaliza con el descanso, tras la demanda extraordinaria de energía; pero si se prolongase en exceso podría tener implicaciones funcionales para el cerebro”, explica el profesor Ikerbasque de CIC biomaGUNE Pedro Ramos Cabrer.

Para llevar a cabo la investigación, escanearon los encéfalos de varios corredores de maratón, mediante imagen por resonancia magnética, los días anteriores y posteriores a la carrera, y dos semanas después. Uno o dos días después de la carrera, el equipo observó “una reducción de la cantidad de mielina en el encéfalo. Al cabo de dos semanas, los niveles de mielina se habían normalizado”, afirma Matute.

Esta drástica reducción generalizada del contenido de mielina tras el ejercicio prolongado, y la recuperación tras la disminución de la actividad física, abre una novedosa visión de la mielina como un almacén de energía listo para ser utilizado cuando los nutrientes cerebrales típicamente utilizados escasean. “El metabolismo energético cerebral es más complejo de lo que se conoce actualmente. El uso de los lípidos (grasas) de la mielina como combustible cerebral abre una nueva visión sobre los requerimientos energéticos del encéfalo, que tiene impacto sobre la nutrición de la población general, y el rendimiento de los deportistas en particular”, añade.

“Estos resultados, que hay que corroborar con más casos, abren unas líneas de investigación que podrían incluso llegar a relacionar las enfermedades neurodegenerativas con alteraciones en el metabolismo energético y abrir nuevas vías para el tratamiento de estas enfermedades. Es una línea de trabajo novedosa, rompedora y que promete muchísimo”, afirma el profesor de CIC biomaGUNE.

El profesor Matute explica que este estudio es muy importante “para la comprensión de las enfermedades desmielinizantes como la esclerosis múltiple, en las que la desaparición de la mielina y, por tanto, de su aporte energético a los axones, deja a estos desnutridos facilitando el daño estructural y la degeneración”. Además, el envejecimiento de la mielina con la edad tiene efectos negativos para las funciones cognitivas, y pueden contribuir al inicio y agravamiento de las enfermedades neurodegenerativas como el Alzhéimer.

Los resultados de este trabajo abren nuevos horizontes sobre el papel energético en el encéfalo de la mielina sana, envejecida y enferma. “Si bien demostramos que en la salud la mielina se gasta con el ejercicio y se puede reponer con el descanso de forma natural, con una dieta sana, en el envejecimiento y las enfermedades como la esclerosis múltiple y la enfermedad de Alzheimer la cantidad de mielina y su calidad disminuyen por causas diversas en cada patología, y no se recupera espontáneamente. Por lo que sería necesario intervenir temprano, al inicio de dichas enfermedades, o de forma preventiva, con objeto de reducir el deterioro progresivo de la mielina, bien con una dieta ad hoc, o con fármacos que potencien su uso como fuente de energía y su reposición durante el descanso”, concluye el catedrático de la Universidad del País Vasco.

Referencia:

Pedro Ramos-Cabrer, Alberto Cabrera-Zubizarreta, Daniel Padró, Mario Matute-González, Alfredo Rodríguez-Antigüedad, Carlos Matute (2023) Widespread drastic reduction of brain myelin content upon prolonged endurance exercise bioRxiv doi: 10.1101/2023.10.10.561303

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La mielina como combustible cerebral se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Por qué mi mineral tiene burbujas?

jeu, 2024/02/01 - 11:59
inclusiones fluidasEn este cristal de cuarzo aparecen inclusiones en tres fases: el material negro es de origen bituminoso; el líquido encapsulado es petróleo; y la burbuja de gas es metano. Fuente: Lucas Fassari / Wikimedia Commons

Es posible que alguna vez hayáis ido a un museo geológico y, mientras admirabais con detenimiento un precioso cristal mineral perfectamente formado y totalmente transparente, detectaseis unas pequeñas burbujitas en alguna parte de su interior, reaccionando de la manera más lógica en estos casos: poner cara de fastidio y pensar que os han tangado, creyendo que ese cristal es falso y está fabricado con algún tipo de resina sintética, siendo esas burbujas imperfecciones que se le han colado a la persona que hizo la réplica. Para confirmar vuestra sospecha, habréis dirigido la mirada a la etiqueta que acompaña a la pieza, esperando encontrar un cartelito que avise de que se trata de una réplica, pero, en su lugar, os encontrasteis con una descripción completa de ese mineral, con su nombre, su fórmula química y el lugar de procedencia de la pieza. ¿Acaso pretendían engañar a todo el mundo? En absoluto, porque esas pequeñas burbujitas son unos elementos naturales asociados a la formación de muchos minerales. Se trata de inclusiones fluidas.

inclusiones fluidasImagen de microscopio de una inclusión fluida contenida en un cristal de cuarzo. En la escala, 100 micras equivalen a 0,1 milímetros. Fuente: Montanuniversität Leoben

Para explicaros qué son las inclusiones fluidas, voy a hacer una obviedad, empezar por el principio. La mayoría de los cristales minerales se forman a partir de la unión de los elementos químicos presentes en un fluido, como el agua o el magma, bajo unas condiciones concretas de presión y temperatura. Ese mineral va a ir aumentando en tamaño a medida que se van añadiendo más partículas elementales siguiendo una estructura cristalina concreta. Es decir, las caras de los cristales seguirán creciendo a medida que se añaden nuevos átomos y/o moléculas presentes en el fluido hasta que se agoten. Mientras se produce este crecimiento mineral, se pueden generar pequeñas cavidades o huecos en la estructura cristalina que se rellenan por el fluido. Estas porciones de fluido atrapadas en el interior de los minerales son las inclusiones fluidas y, aunque generalmente tienen un tamaño muy pequeño (inferior a 0,1 mm de diámetro), en ocasiones pueden alcanzar proporciones milimétricas llegando a verse a simple vista sin demasiado esfuerzo.

inclusiones fluidasTipos de inclusiones fluidas de acuerdo a su origen, identificadas en un cristal de cuarzo. A) Primarias que han crecido siguiendo las caras del cristal; B) Primarias dispuestas de manera aleatoria en una parte del cristal; C) Secundarias localizadas a lo largo de una fractura que atravesó el cristal tras su formación. Fuente: Istituto di Geoscienze e Georisorse / Consiglio Nazionale delle Ricerche

De acuerdo a su origen, las inclusiones fluidas pueden dividirse en dos grandes grupos. Por un lado, tenemos las primarias, que son aquellas que se forman durante el crecimiento del cristal y tienen atrapado parte del fluido que ha dado origen a ese mineral. Generalmente se distribuyen de dos maneras a lo largo de la estructura cristalina, bien de forma aleatoria por todo el mineral o bien siguiendo los planos cristalográficos de crecimiento. Y, por otro lado, nos encontramos con las inclusiones fluidas secundarias, que se generan una vez que se ha formado el cristal, en concreto cuando este sufre alguna fractura por la que circula un nuevo fluido. En este caso, las inclusiones se orientan siguiendo la dirección de esas fracturas.

Tipos de inclusiones fluidas de acuerdo al estado en el que se encuentran. A y B) Inclusiones combinadas con una fase líquida y otra fase gaseosa; C) Inclusión combinada con una fase gaseosa y dos fases líquidas que no se pueden mezclar entre sí; D) Inclusión combinada con una fase gaseosa, una líquida y una sólida. Fuente: Istituto di Geoscienze e Georisorse / Consiglio Nazionale delle Ricerche

En cuanto a su estado, las inclusiones fluidas pueden encontrarse en fase líquida, fase gaseosa o aparecer como una combinación de ambas fases juntas. Incluso, es posible encontrar partículas sólidas dentro de las inclusiones fluidas, bien porque hayan precipitado de manera tardía a partir de los elementos disueltos en la fase líquida que quedó atrapada en la cavidad, o bien porque ese pequeño cristal, que ya estaba formado previamente, fue arrastrado por el fluido contenido en la inclusión y acabó atrapado con él.

Pero, aunque parezca mentira, la información contenida en esas pequeñas burbujitas atrapadas en el interior de algunos minerales es importantísima. El estudio de las inclusiones fluidas nos permite conocer ciertas características de los fluidos que dieron origen a los cristales, si son primarias, o de los fluidos que afectaron a ese mineral con posterioridad a su formación, si son inclusiones secundarias. Así sabemos la temperatura, presión, densidad y composición química de esos fluidos mineralizantes, lo cual tiene una aplicación directa en muchas áreas de investigación de la Geología. Por ejemplo, en la búsqueda de yacimientos de minerales críticos, puesto que nos dan información sobre sus procesos genéticos y el contexto geológico en el que aparecen, facilitando así su localización en otras partes del mundo. O en el uso de nuevas fuentes de energía, como la geotérmica, ya que las inclusiones fluidas se pueden comportar como termómetros del subsuelo para delimitar zonas favorables para emplear este recurso.

Pequeña porción de un sondeo de hielo a través de la que se aprecian numerosas inclusiones gaseosas preservadas en su interior. Fuente: Royal Museums Greenwich

Aunque una de las aplicaciones de las inclusiones fluidas que a mí más me gustan es su empleo para efectuar reconstrucciones de los ambientes del pasado. En los sondeos de hielo que se extraen de La Antártida y Groenlandia se encuentran encapsuladas burbujas de gas que permiten conocer las concentraciones de ciertos gases de efecto invernadero, como dióxido de carbono (CO2) y metano (CH4), en la atmósfera de la época, pudiendo así estudiar su relación con los ciclos climáticos ocurridos en los últimos cientos de miles de años. Esta información nos permite plantear estrategias de mitigación del efecto de las actividades del ser humano en el calentamiento global actual.

Así que, si alguna vez veis un cristal enorme y muy chulo expuesto con majestuosidad en una vitrina y descubrís unas pequeñas imperfecciones en forma de burbujitas en alguna parte del mismo, no lo miréis con mala cara y le quitéis valor. Recordad que, aparte de una preciosidad, es un archivo geológico muy importante que nos permite conocer la historia que ha sufrido desde el momento de su formación hasta la actualidad con todo lujo de detalles.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo ¿Por qué mi mineral tiene burbujas? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Las leyes de Lanchester

mer, 2024/01/31 - 11:59

La guerra es una masacre entre gentes que no se conocen, para provecho de gentes que si se conocen pero que no se masacran.

Paul Valéry

Se conocen como leyes de Lanchester a unas ecuaciones diferenciales que buscan describir los conflictos entre dos fuerzas enemigas.

Paths of glory (1917), óleo sobre lienzo, de Christopher Nevinson (1917). Fuente:  Imperial War Museum / Wikimedia Commons.

 

En 1902, el entonces teniente de la Marina de los Estados Unidos Jehu V. Chase desarrolló una ecuación diferencial para intentar describir los combates entre dos flotas homogéneas. Hasta 1972 no se desclasificó el trabajo de Chase, con lo que no recibió el reconocimiento por esta aportación temprana.

En 1916, el ingeniero británico Frederick Lanchester llegó de forma independiente a ecuaciones casi idénticas a las de Chase, con ejemplos que incorporaban también los conflictos aéreos y terrestres.

Un militar ruso contemporáneo de ambos, M. Osipov, también llegó a conclusiones similares a las de Chase y Lanchester en un artículo publicado en una revista militar rusa en 1915.

La ley lineal de Lanchester

Lanchester argumentaba que, en las guerras antiguas, cada soldado se enfrentaba a un único enemigo a la vez. Suponía que cada soldado mataba o era asesinado por exactamente un soldado del ejército contrario, por lo que el número de sujetos que sobrevivían a una batalla era sencillamente la diferencia (en valor absoluto) de tamaño entre los dos ejércitos. Esta se conoce como la ley lineal de Lanchester.

La ley cuadrática de Lanchester

La ley cuadrática de Lanchester modeliza el combate moderno que se realiza con armas de largo alcance como las armas de fuego. Y aquí las cosas cambian. Las armas de fuego se enfrentan con disparos controlados a distancia; se pueden atacar a diferentes objetivos y recibir impactos desde varios lugares. La tasa de desgaste (efectividad que cada fuerza en contienda posee a la hora eliminar a sus enemigos) depende en este contexto solo del número de armas en juego. Lanchester determinó que el poder de tal fuerza es proporcional al cuadrado de las unidades puestas en juego, no al número de ellas.

Para comprenderlo mejor, supongamos que tenemos dos ejércitos A y B que se enfrentan en combate. A dispara un flujo continuo de balas a B mientras que B actúa exactamente de la misma manera con A.

Vamos a denotar por a al número de soldados de la fuerza A y por α la potencia de fuego ofensiva de cada soldado, es decir, el número de soldados enemigos que puede incapacitar (herir o matar) por unidad de tiempo. Del mismo modo, denotamos por b al número de soldados de B, cada uno con potencia de fuego ofensiva β.

La ley cuadrática de Lanchester estima el número de soldados perdidos en cada bando usando el par de ecuaciones siguientes:

En estas ecuaciones da(t)/dt representa la velocidad a la que cambia el número de soldados de A en un instante dado; un valor negativo indicaría la pérdida de soldados. De manera similar, db(t)/dt representa la tasa de cambio del número de soldados del ejército B. Intuitivamente, este sistema de ecuaciones indica que el número de soldados de cada ejército disminuye de manera proporcional al número de soldados enemigos.

La solución de estas ecuaciones muestra que:

Si α = β, es decir, si ambos bandos poseen la misma potencia de fuego, entonces gana aquel que tiene más soldados al comienzo de la batalla.

Si a = b, es decir, si los dos ejércitos tienen el mismo número de soldados, vence el bando con mayor potencia de fuego.

Si a > b y α > β, entonces triunfa el bando A (del mismo modo, si a < b y α < β, gana el ejército B).

Las anteriores conclusiones son obvias. Queda un último caso, que es la llamada ley cuadrática. Corresponde a la situación en la que la cantidad de soldados y la potencia de fuego son desiguales en direcciones opuestas. Es decir, si a > b y α < β (o si a < b pero α > β) el ejército que resulta ganador depende de si la relación β / α es mayor o menor que el cuadrado de la relación a / b. Así, para ganar la contienda, se requiere una superioridad en potencia de fuego igual al cuadrado de la inferioridad en número. De otro modo, la eficacia de un ejército aumenta proporcionalmente al cuadrado del número de personas que lo componen, pero sólo linealmente con su capacidad de lucha.

¿Para qué se usan?

Las leyes de Lanchester se han usado para modelar batallas históricas con fines de investigación. Entre otras, se han estudiado la batalla de Inglaterra de 1940 que enfrentó a las fuerzas aéreas británica y alemana, o la batalla de Kursk de 1943 que se libró entre el ejército alemán y el soviético.

También se pueden utilizar estas leyes, por citar algún ejemplo, para modelizar el combate en juegos de estrategia en tiempo real o en mirmecología, para entender cómo se relacionan las especies endémicas y las invasoras.

De cualquier manera, independientemente de la eficacia de cualquier modelo matemático, como afirmaba la política estadounidense y defensora de los derechos de las mujeres Jeannette Rankin:

No se puede ganar una guerra como tampoco se puede ganar un terremoto.

Jeannette Rankin

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Las leyes de Lanchester se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Primera confirmación experimental del altermagnetismo

mar, 2024/01/30 - 11:59

En 2022, los teóricos dieron nombre a una nueva clase de orden magnético: altermagnetismo. La predicción era que los materiales que exhiben este fenómeno no tendrían magnetización neta y presentarían una estructura de banda electrónica que se divide en bandas de espín hacia arriba y hacia abajo, lo que otorgaría a estos materiales propiedades tanto antiferromagnéticas como ferromagnéticas.

A pesar de los muchos intentos, faltan pruebas experimentales sólidas de la existencia de materiales altermagnéticos. O, mejor, faltaban. Las pruebas experimentales habrían sido encontradas recientemente por Changyoung Kim de la Universidad Nacional de Seúl en Corea del Sur y sus colegas. Los investigadores dicen que las propiedades distintivas de los alterimanes podrían ser útiles para la electrónica basada en el espín (lo que se conoce como espintrónica).

altermagnetismoEstructura cristalina del MnTe en la que se aprecia las dos subceldillas de espín opuesto. Fuente: Lee et al (2024)

Kim y sus colegas estudiaron el telururo de manganeso (MnTe), un semiconductor que se esperaba que mostrara altermagnetismo. Los teóricos habíann predicho una gran separación entre las bandas de espín hacia arriba y hacia abajo en la estructura de bandas electrónicas del material, lo que hace que la división del espín sea potencialmente más fácil de observar en este material que en otros. Pero la estructura cristalina tridimensional del telururo de manganeso ha resultado problemática para el método convencional que se emplea para este tipo de mediciones.

Una razón de la dificultad es que la técnica (espectroscopia de fotoemisión con resolución de ángulo (ARPES), por sus siglas en inglés) suele ser sensible sólo a la estructura de la banda en la superficie de un material y no en su masa. El equipo superó este problema aplicando ARPES a películas delgadas de telururo de manganeso en lugar de a bloques gruesos.

Los investigadores descubrieron que, por debajo de 267 K, las películas de telururo de manganeso exhibían una magnetización neta nula y una estructura de banda dividida por espín, lo que, según ellos, es una prueba convincente de la existencia de altermagnetismo en el material. El trabajo, si bien apunta en la buena dirección es, de alguna manera, incompleto. El equipo, consciente de ello, planea caracterizar completamente la estructura de bandas utilizando una variación de la técnica ARPES llamada ARPES con resolución de espín.

Referencias:

Suyoung Lee, Sangjae Lee, Saegyeol Jung, Jiwon Jung, Donghan Kim, Yeonjae Lee, Byeongjun Seok, Jaeyoung Kim, Byeong Gyu Park, Libor Šmejkal, Chang-Jong Kang, and Changyoung Kim (2023) Broken Kramers Degeneracy in Altermagnetic MnTe Phys. Rev. Lett. doi: 10.1103/PhysRevLett.132.036702

Ryan Wilkinson (2024) Experimental Evidence for a New Type of Magnetism Physics 17, s10

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Primera confirmación experimental del altermagnetismo se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Acechantes ante la próxima gran epidemia de gripe

lun, 2024/01/29 - 11:59
https://culturacientifica.com/2021/11/28/el-quinto-angel/Foto: CDC / Unsplash

Cuando la COVID-19 irrumpió por sorpresa en el mundo, la gran mayoría de las miradas científicas no se dirigían a los coronavirus como potenciales causantes de la próxima pandemia, sino a los sospechosos habituales: los virus influenza. No es para menos: estos microorganismos responsables de la gripe han provocado de forma cíclica grandes epidemias y pandemias a lo largo de la historia gracias a su elevada capacidad de mutación y su fácil expansión entre las sociedades humanas. De hecho, numerosos países cuentan desde hace décadas con planes nacionales de preparación y respuesta ante una pandemia de gripe, por recomendación de la Organización Mundial de la Salud. España se encuentra entre ellos desde el año 2003.

Se estima que cada 9-12 años se acumulan una serie de cambios genéticos importantes que llevan al surgimiento de un nuevo virus gripal, con nuevas proteínas en su envoltura (hemaglutinina (H) y neuraminidasa (N)) que no han circulado hasta ese momento entre los humanos. Este fenómeno puede producirse tanto por las mutaciones espontáneas que se van apareciendo en dichos virus con el tiempo, como por el intercambio genético entre virus humanos y de animales (de aves, cerdos y otros mamíferos). La irrupción de un nuevo virus gripal, totalmente desconocido para el sistema inmunitario de las personas, tiene el potencial de desencadenar una pandemia si consigue transmitirse por el mundo y provocar enfermedades y muertes a su paso.

Solo en el siglo XX se produjeron tres pandemias gripales. La más conocida por todos es la famosa pandemia de 1918, mal llamada «gripe española» (desencadenada por el virus influenza H1N1), que provocó la muerte de entre 20 y 50 millones de personas. Sin embargo, otras epidemias de gripe también provocaron estragos en las poblaciones durante dicho siglo como la gripe asiática (1957-1958), provocada por el subtipo H1N1, que causó 2 millones de muertes, y la gripe de Hong Kong (1968-1969), desencadenada por el H3N3, que se llevó por delante la vida de 1 millón de personas.

En abril de 2009, el mundo volvió a temblar con otro nuevo virus influenza que tenía la capacidad de transmitirse con facilidad entre humanos: el virus de la gripe A de origen porcino, H1N1 pdm09. Así, el 11 de junio de dicho año, la OMS anunció la primera pandemia del siglo XXI. Por suerte, la letalidad de este patógeno fue baja y causó menos de 300.000 muertes en todo el mundo. No obstante, este virus llegó para quedarse y en la actualidad es una de las cepas implicadas en las epidemias de gripe estacionales de cada año a lo largo del mundo.

Los virus de la gripe pueden ser bastante imprevisibles, pues su patrón de circulación evoluciona con el tiempo y puede ser diferente en cada temporada estacional. Este hecho complica mucho anticiparse a potenciales epidemias, que pueden convertirse en pandemias. En estos momentos, los principales virus sospechosos de causar la próxima pandemia son los virus de la gripe aviar y, en concreto, el H5N1. Aunque este nuevo virus gripal ha entrado recientemente en una fase nueva y «preocupante», por ahora, el peligro de pandemia sigue lejos. Dicho agente patógeno tiene la capacidad de saltar entre aves y humanos y, cuando ello sucede, la letalidad es elevada (mayor al 50 %). Por suerte, estos saltos son raros y, cuando ocurre, no se detecta transmisión entre personas. Sin embargo, el director general de la OMS, Tedros Adhanom, llama a la cautela: “No podemos asumir que seguirá siendo así y debemos prepararnos para cualquier cambio en el statu quo”.

Los virus de la gripe aviar pueden extenderse no solo a través de aves de corral domésticas, sino también a partir de aves salvajes migratorias, lo que favorece su rápida extensión por puntos alejados del planeta. Dentro de las distintas fases de las pandemias que se han establecido para la ripe, nos encontramos en la fase 3 de periodo de alerta pandémica. Es decir, se han registrado infecciones humanas con un subtipo nuevo del virus de la gripe, pero no hay transmisión entre personas o, como mucho, se detectan casos raros de transmisión con un contacto próximo. En esta fase el objetivo principal de Salud Pública es caracterizar rápidamente el nuevo subtipo de virus y detectar y notificar de forma temprana cualquier caso que aparezca. Si llegara a darse pequeñas agrupaciones de casos (lo que indicaría una mejora en la capacidad de transmisión del virus entre humanos), el peligro aumentaría y hablaríamos de una fase 4. Una pandemia se declararía en la fase 6, por una transmisión elevada y sostenida entre la población general.

Que el virus de la gripe H5N1 se convierta o no en el responsable de la próxima pandemia dependerá de su grado de adaptación a los seres humanos y de nuestra capacidad para evitar que se extienda. Imposible predecir qué ocurrirá y si aparecerán otros virus próximamente que hagan que nos olvidemos del H5N1. En todo caso, debemos tomar medidas de Salud Pública para que esta cuestión quede lo mínimo posible en manos del azar.

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo Acechantes ante la próxima gran epidemia de gripe se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Diferenciación automática: Enseñando a tu ordenador a hacer derivadas

dim, 2024/01/28 - 11:59

La diferenciación automática es un campo bien conocido de las matemáticas aplicadas. Si quieres iniciarte en este mundo, no es necesario que implementes tu propio sistema desde cero. A menos que, como yo, quieras hacerlo. ¿Y por qué querría alguien en sano juicio hacer algo así? Mi motivación es sólo mía, aunque quizá a ti también te sirva. En el caso que nos ocupa ha sido una combinación de lo siguiente:

  • Me gusta entender lo que hace el software que que utilizo.

  • Resulta que la teoría detrás de la diferenciación automática es preciosa.

  • Me estoy iniciando en el lenguaje de programación Julia, de modo que he usado este problema como ejercicio.

Además, si estás interesado en escribir código rápido y eficiente, es probable que prefieras centrarte en la diferenciación automática inversa (backward automatic differentiation), y no, como hice yo, en la diferenciación directa (forward automatic differentiation).

Si todavía estás leyendo, significa que después de todos estos avisos tu motivación intrínseca sigue intacta. ¡Genial! Permíteme presentarte el fascinante tema de la diferenciación automática y mi implementación. Es rápida y sucia, pero también pedagógica.

Que pasen los números duales

Probablemente las recuerdes de tus años en el instituto. ¡La pesadilla de las derivadas! Todas esas tablas que tenías que memorizar, todas esas reglas que tenías que aplicar… ¡puede hasta que sea un mal recuerdo!

¿Y si le enseñamos a un ordenador las reglas de la diferenciación? No solo es posible hacerlo, sino que incluso puede ser elegante. ¡Que pasen los números duales!

Un número dual es muy similar a un vector de dos dimensiones:

el primer elemento representa el valor de una función en un punto dado, y el segundo. su derivada en ese mismo punto. Por ejemplo, la constante 3 se escribirá como el número dual (3, 0) (el 0 significa que es una constante y, por lo tanto, su derivada es 0) y la variable x = 3 se escribirá como (3,1) (el 1 significa que 3 es una evaluación de la variable x, y por lo tanto, su derivada con respecto a x es 1). Sé que esto suena extraño, pero sigue leyendo unas pocas líneas más, todo se aclarará más adelante.

Tenemos en nuestras manos un nuevo juguete matemático. Si queremos divertirnos con él, tenemos que establecer las reglas del juego: comencemos definiendo la suma, la resta y la multiplicación por un escalar. Decidimos que estas seguirán exactamente las mismas reglas que los vectores:

Diferenciación

Diferenciación

Diferenciación

 

Hasta ahora, poca emoción. La multiplicación se define de una manera mucho más interesante:

Fíjate bien en lo que pasa. ¿Por qué el segundo elemento tiene una regla de multiplicación tan rara? Pues porque dijimos que el segundo término representa una derivada, así que debe seguir la regla del producto para las derivadas.

¿Y qué pasa con los cocientes? ¡Exacto!… la división de números duales sigue la regla del cociente para las derivadas:

Por último, pero no menos importante, la potencia de un número dual a un número real se define como:

¿Sientes curiosidad por la multiplicación por u’? Corresponde a la regla de la cadena y permite que nuestros números duales nos sirvan para hacer algo tan deseable como componer operaciones.

Las operaciones definidas anteriormente cubren muchísimo terreno. De hecho, cualquier operación algebraica se puede construir utilizando estas operaciones como ladrillos básicos. Esto significa que podemos pasar un número dual a una función algebraica como argumento, y aquí viene la magia, el resultado será:

Ojo a lo que acabas de ver, porque es una pasada. ¡La ecuación anterior nos dice que simplemente alimentando a la función con el número dual (x, 1) devolverá su valor, ¡y además su derivada! ¡Dos por el precio de uno!

Los lectores familiarizados con los números complejos pueden encontrar interesante intentar el siguiente ejercicio:

Si definimos un número dual como

(u, u’) = u + e u’

con e² = 0, ¡todas las propiedades anteriores se satisfacen automáticamente!

Enseñando a hacer derivadas a tu ordenador

Ha llegado la hora de ensuciarse las manos: ¿cómo podemos implementar estas reglas de manera práctica en nuestro ordenador? Implementar un nuevo objeto (un número dual) con sus propias reglas de interacción es la tarea ideal para un lenguaje que permita programación orientada a objetos. La programación orientada a objetos es un paradigma de programación que permite definir no sólo las variables que un programa va a utilizar, si no también las reglas para interactuar con ellas. Curiosamente, el proceso es sorprendentemente similar al de enseñar a un estudiante humano. Con la diferencia de que nuestro «estudiante digital» nunca olvidará una regla, ni la aplicará de manera incorrecta ni se olvidará de un signo menos.

¿Qué aspecto tendrían estas reglas, por ejemplo, en Julia? (Para una implementación en Python, echa un vistazo aquí). En primer lugar, necesitamos definir un objeto Dual, que representa un número dual. En principio, es tan simple como un contenedor para dos números reales:

«»» Estructura que representa un número Dual «»»
struct Dual
x::Real
dx::Real
end

Este par de constructores nos vendrá bien más adelante:

«»» Estructura que representa un número Dual «»»
struct Dual
x::Real
dx::Real

«»» Constructor por defecto «»»
function Dual(x::Real, dx::Real=0)::Dual
new(x, dx)
end
«»» Si se pasa un Dual, simplemente devuélvelo
Esto será útil más adelante «»»
function Dual(x::Dual)::Dual
return x
end
end

No te preocupes demasiado si no entiendes las líneas anteriores. Se han agregado solo para que el objeto Dual sea más fácil de usar (por ejemplo, Dual(1) fallaría sin el primer constructor, al igual que la aplicación de Dual a un número que ya es un Dual).

Otro truco que resultará útil en breve es crear un alias para cualquier cosa que sea un Number (uno de los tipos base de Julia) o un Dual.

const DualNumber = Union{Dual, Number}

Y ahora viene la parte divertida. ¡Enseñemos a nuestro nuevo objeto cómo hacer matemáticas! Por ejemplo, como vimos antes, la regla para sumar números duales es sumar ambos componentes, al igual que en un vector 2D:

import Base: +

function +(self::DualNumber, other::DualNumber)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
return Dual(self.x + other.x, self.dx + other.dx)
end

Tenemos que enseñar a nuestro ordenador incluso cosas más básicas. Recuerda que una computadora carece por completo de sentido común, por lo que, por ejemplo, tenemos que definir el significado de un signo más delante de un Dual.

+(z::Dual) = z

Esto suena tan idiota como explicar que +3 es igual a 3, ¡pero el ordenador necesita saberlo!

Como quizá hayas imaginado, también será necesario definir la resta de un Dual:

import Base: –
-(z::Dual) = Dual(-z.x, -z.dx)

que a su vez nos permite definir la resta de dos números duales como una suma:

function -(self::DualNumber, other::DualNumber)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
return self + (-other) # Una resta disfrazada de suma!
end

Algunas operaciones básicas pueden ser un poco más complicadas de lo esperado. Por ejemplo, ¿cuándo es un número dual menor que otro número dual? Observa que en este caso, solo tiene sentido comparar los primeros elementos e ignorar las derivadas:

import Base: <
<(self::Dual, other::Dual) = self.x < other.x

Como vimos más arriba, cosas más interesantes ocurren con la multiplicación y la división:

import Base: *,/
function *(self::DualNumber, other::DualNumber)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
y = self.x * other.x
dy = self.dx * other.x + self.x * other.dx # Regla del producto para derivadas
return Dual(y, dy)
end
function /(self::DualNumber, other::DualNumber)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
y = self.x / other.x
dy = (self.dx * other.x – self.x * other.dx) / (other.x)^2 # Regla del cociente para derivadas
return Dual(y, dy)
end

y con la potenciación a un número real:

import Base: ^
function ^(self::Dual, other::Real)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
y = self.x^other.x dy = other.x * self.x^(other.x – 1) * self.dx # Derivada de u(x)^n
return Dual(y, dy)
end

La lista completa de definiciones para operaciones algebraicas se encuentra aquí. Para Python, utiliza este enlace. Te recomiendo echarle un vistazo.

Después de esto, cada vez que nuestro número dual encuentre una de las operaciones definidas anteriormente en su misterioso recorrido por una función o un script, llevará un registro de su efecto en la derivada. No importa cuán larga, complicada o mal programada esté la función, la segunda coordenada de nuestro número dual se encargará de llevar la cuenta. Siempre y cuando la función sea diferenciable y no lleguemos a la precisión de la máquina, claro… pero es que eso sería pedirle a nuestra computadora que haga magia.

Ejemplo

Como ejemplo, calculemos la derivada del polinomio:

en x = 3.

Para mayor claridad, podemos calcular la derivada a mano:

es evidente que y p(3) = 39 y p'(3) = 34.

Usando nuestro objeto Dual, podemos llegar a la misma conclusión automáticamente:

poly = x -> x^3 + x^2 + x
z = Dual(3, 1)
poly(z)
> Dual(39, 34)

El truco funciona incluso si el mismo polinomio está definido de una manera más fea y complicada:

«»» Equivalente a poly = x -> x^3 + x^2 + x, pero más feo «»»
function poly(x)
aux = 0 # Inicializamos una variable auxiliar
for n in 1:3 # Agregamos x^1, x^2 y x^3
aux = aux + x^n
end
end

poly(z)
> Dual(39, 34)

¿Y qué pasa si mi función no es algebraica?

El método esbozado anteriormente fracasará miserablemente en cuanto nuestra función contenga un elemento no algebraico, como un seno o una exponencial. Pero no te preocupes, basta con ir a nuestro libro de cálculo y enseñarle a nuestra computadora algunas derivadas básicas más. Por ejemplo, nuestra tabla de derivadas nos dice que la derivada de un seno es un coseno. En el lenguaje de los números duales, escribimos:

¿Y qué pinta u’ aquí? Una vez más, es la regla de la cadena.

La clave aquí es, y de hecho ha sido desde el principio:

Podemos crear una función, que llamaremos _factory, que genere una abstracción de esta estructura para mayor comodidad:

function _factory(f::Function, df::Function)::Function
return z -> Dual(f(z.x), df(z.x) * z.dx)
end

Con ayuda de esta función, solo tenemos que abrir nuestra tabla de derivadas y llenar línea por línea, comenzando con la derivada de un seno, continuando con la de un coseno, una tangente, etc.

import Base: sin, cos
sin(z::Dual) = _factory(sin, cos)(z)
cos(z::Dual) = _factory(cos, x -> -sin(x))(z) # A menudo se requiere una función lambda explícita

Si eres de los que prestaba atención en clase de matemáticas, ni siquiera necesitarás llenar todas las derivadas manualmente desde la tabla. Por ejemplo, la tangente se define como:

y ya tenemos el seno, el coseno y la división automáticamente diferenciables en nuestro arsenal. Entonces, basta con esta línea:

import Base: tan
tan(z::Dual) = sin(z) / cos(z) # ¡Podemos reutilizar las funciones definidas anteriormente!

Por supuesto, también es posible introducir la derivada de la tangente manualmente, y probablemente sea más eficiente y más estable. ¡Pero mola bastante que simplemente con la definición podamos apañarnos!

Aquí puedes ver una tabla de derivadas más extensa (o aquí, si prefieres Python).

Otro ejemplo

Probemos a derivar la siguiente función no algebraica:

Es fácil ver, con lápiz y papel, que la derivada es 1 en todas partes (fíjate que el argumento de la tangente es una constante). Pero veámoslo usando nuestro objeto Dual:

fun = x -> x + tan(cos(x)^2 + sin(x)^2)
z = Dual(0, 1)
fun(z)
> Dual(1.557407724654902, 1.0)

Para mayor conveniencia, podemos utilizar todo lo que hemos construido hasta ahora para crear un funcional (una función que devuelve funciones) que nos devuelva la derivada:

«»» derivative(f)

Devuelve la derivada de f
«»»
function derivative(f)
df = x -> f(Dual(x, 1.0)).dx
return df
end

Utilizando nuestro funcional, el ejemplo se vuelve aún más compacto y legible:

fun = x -> x + tan(cos(x)^2 + sin(x)^2)
dfun = derivative(f)
dfun(0)
> 1.0

Otro ejemplo

En este caso queremos calcular y además visualizar las derivadas de:

Primero, introducimos la función y usamos nuestro funcional para calcular su derivada.

f(x) = x^2 – 5x + 6 – 5x^3 – 5 * exp(-50 * x^2)
df = derivative(f)

Podemos visualizar los resultados dibujando líneas tangentes a la función original.

using Plots
I = [-0.7; 0.7]
δ = 0.025
@gif
for a = [I[1]:δ:I[2]; I[2]-δ:-δ:I[1]+δ]
L(x) = f(a) + df(a) * (x – a)
plot(f, -1, 1, leg=false)
scatter!([a], [f(a)], m=(:red, 2))
plot!(L, -1, 1, c=:red)
ylims!(-5, 15)
end

¿Y esto para qué sirve?

La diferenciación automática es especialmente útil en el campo del aprendizaje automático (más conocido como machine learning), dónde es necesario calcular derivadas en varias dimensiones (también llamadas gradientes) con gran velocidad y exactitud. Dicho esto, la diferenciación automática en aplicaciones de aprendizaje automático suele implementarse de forma diferente a lo que hemos visto aquí. Por razones prácticas, suele utilizarse el «modo inverso» (backward), mientras que aquí hemos estudiado el «modo directo» (forward).

¿Por qué hemos estudiado el modo directo? Las razones han sido puramente pedagógicas: es más fácil de explicar y de entender.

Naturalmente, existen varias librerías capaces de hacer diferenciación automática. Un buen ejemplo es JAX (para Python). Otras librerías de aprendizaje automático, como Tensorflowo Pytorch también implementan esta función. En el caso de Julia existen también numerosas opciones, si bien Enzyme.jl parece llevar la delantera. Forwarddiff.jl también merece una visita, pues implementa precisamente lo que aquí hemos esbozado.

Doy las gracias a Abel Siqueira y a Aron Jansen por sus sugerencias y comentarios, que sin duda han hecho de este texto una mejor lectura.

Sobre el autor: Pablo Rodríguez-Sánchez es licenciado en ciencias físicas y doctor en matemáticas aplicadas. Actualmente es ingeniero de software de investigación en el Netherlands eScience Center.

Esta entrada es una traducción adaptada de Automatic Differentiation from scratch, publicada por el mismo autor en el blog del Netherlands eScience Center.

El artículo Diferenciación automática: Enseñando a tu ordenador a hacer derivadas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Oppenheimer: dilemas de la ciencia

sam, 2024/01/27 - 11:59

En el marco de ciclo de cine organizado por Filmoteca Vasca y el Donostia International Physics Center (DIPC), el presidente del DIPC, Pedro Miguel Etxenike, impartió la conferencia titulada «Oppenheimer: el dilema de la ciencia». Esta charla sirvió como introducción a la proyección en el Bizkaia Aretoa del primer título del ciclo, «Oppenheimer», de Christopher Nolan, el pasado 13 de enero. La presentación del conferenciante corre a cargo del físico y director de Euskampus Fundazioa, Igor Campillo.

El documental mencionado en la presentación puede verse aquí: El secreto de la naturaleza

Edición realizada por César Tomé López

El artículo Oppenheimer: dilemas de la ciencia se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Ansiedad, TACR3 y testosterona

ven, 2024/01/26 - 11:59

Existe una conexión significativa entre los trastornos de ansiedad, un receptor cerebral conocido como TACR3 y la testosterona. Así lo ha puesto de manifiesto un estudio con ratas dirigido por la profesora e investigadora Ikerbasque Shira Knafo en el Laboratorio de la Cognición Molecular de la UPV/EHU.

La ansiedad es una respuesta común al estrés, pero para todos aquellos que lidian con trastornos de ansiedad, el impacto en la vida diaria puede ser muy significativo. La evidencia clínica ha insinuado una estrecha relación entre los niveles bajos de testosterona y la ansiedad, especialmente en hombres con hipogonadismo, una condición caracterizada por una función sexual reducida. Sin embargo, la naturaleza precisa de esta relación ha permanecido poco clara hasta ahora.

TACR3Diseño experimental del estudio. Fuente: Referencia

El estudio comenzó con un descubrimiento fascinante: los animales machos que exhibían niveles extremadamente altos de ansiedad tenían notablemente menos receptores específicos llamados TACR3 en su hipocampo. El hipocampo es una región cerebral estrechamente relacionada con los procesos de aprendizaje y memoria. TACR3 es parte de la familia de receptores taquicinina y responde a una sustancia conocida como neuroquinina. Esta observación despertó la curiosidad de los investigadores y sirvió como base para una investigación exhaustiva sobre la relación entre la deficiencia de TACR3, las hormonas sexuales, la ansiedad y la plasticidad sináptica.

Los animales se clasificaron según su comportamiento en una prueba estándar de resolución de un laberinto, que mide los niveles de ansiedad. Posteriormente, se aislaron sus hipocampos y se sometieron a un análisis de expresión génica para identificar genes con expresión diferencial entre los animales con ansiedad extremadamente baja y los que tenían ansiedad severa. Uno de los genes que destacó fue TACR3. Investigaciones anteriores habían revelado que las mutaciones en genes asociados con TACR3 conducían a una condición conocida como «hipogonadismo congénito», lo que resultaba en una producción reducida de hormonas sexuales, incluyendo la testosterona. Es importante destacar que los hombres jóvenes con bajos niveles de testosterona a menudo experimentan un desarrollo sexual retrasado, acompañado de depresión y ansiedad elevada. Esto llevó a los investigadores a profundizar en el papel de TACR3 en la ansiedad.

TACR3Resumen de resultados experimentales. Fuente: Referencia

El equipo de investigación utilizó con éxito dos herramientas innovadoras creadas en su laboratorio para el estudio. La primera, llamada FORTIS, tiene la capacidad de detectar cambios en los receptores AMPA dentro de neuronas vivas. Al utilizar FORTIS, demostraron que la inhibición de TACR3 resultaba en un aumento significativo de los receptores AMPA en la superficie celular, interrumpiendo el proceso paralelo de fortalecimiento sináptico a largo plazo, conocido como LTP.

La segunda herramienta utilizada fue una aplicación novedosa de la correlación cruzada para medir la conectividad neuronal dentro de un sistema de matriz multi-electrodo. Esta herramienta desempeñó un papel fundamental al descubrir el profundo impacto de las manipulaciones de TACR3 en la plasticidad sináptica. Lo más importante es que reveló que las deficiencias derivadas de la inactividad de TACR3 podían corregirse eficazmente mediante la administración de testosterona, Ofreciendo esperanza para desarrollar nuevas pautas terapéuticas y abordar los desafíos relacionados con la ansiedad asociada a la deficiencia de la testosterona.

Esta investigación posiciona a TACR3 como un actor central en la conexión entre la ansiedad y la testosterona. El equipo ha descifrado uno de los mecanismos complejos detrás de la ansiedad y ha abierto caminos para terapias novedosas, incluyendo tratamientos con testosterona, que podrían mejorar la calidad de vida de las personas que se enfrentan a trastornos del desarrollo sexual y a la ansiedad y depresión asociadas.

Referencia:

Wojtas, M.N., Diaz-González, M., Stavtseva, N., Shoam, Y., Verma, P., Buberman, A., Izhak, I., Geva, A., Basch, R., Ouro, A., Perez-Benitez, L., Levy, U., Borcel, E., Nuñez, Á., Venero, C., Rotem-Dai, N., Veksler-Lublinsky, I. & Knafo, S. (2023) Interplay between hippocampal TACR3 and systemic testosterone in regulating anxiety-associated synaptic plasticity. Molecular Psychiatry doi: 10.1038/s41380-023-02361-z

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Ansiedad, TACR3 y testosterona se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Agujero negro más ligero o estrella de neutrones más pesada?

jeu, 2024/01/25 - 11:59

Con un radiotelescopio de Sudáfrica se ha identificado un sistema binario formado por una estrella pulsante y un misterioso objeto compacto, con unas 2,35 masas solares, lo que lo sitúa en la llamada ‘brecha de masas’ entre las estrellas de neutrones y los agujeros negros. Si fuera esto último, se tendría la codiciada pareja púlsar de radio-agujero negro, que permitiría nuevos test de la relatividad general de Einstein.

estrella de neutroneslustración del sistema binario suponiendo que el objeto compacto descubierto sea un agujero negro, junto al púlsar de radio PSR J0514-4002E (la estrella compañera más brillante del fondo). Ambos estarían separados por 8 millones de kilómetros y giran uno alrededor de la otra cada 7 días. Fuente: MPIfR / Daniëlle Futselaar (artsource.nl)

Las estrellas de neutrones, los restos ultradensos de la explosión de una supernova, solo pueden tener un peso limitado. Una vez que adquieren demasiada masa, por absorber o colisionar con otra estrella, se colapsan. Se ha especulado mucho sobre en qué se convierten luego, pero la opinión predominante es que en agujeros negros, objetos tan gravitatoriamente potentes que ni siquiera la luz puede escapar de ellos.

La teoría, respaldada por la observación, indica que los agujeros negros más ligeros que pueden crearse por el colapso de estrellas son unas 5 veces más masivos que el Sol, es decir, que tienen unas 5 masas solares. Esto es considerablemente mayor que las 2,2 masas solares que se requieren para que colapse una estrella de neutrones (las más masivas tienen hasta 2,5), dando lugar a lo que se conoce como la brecha de masa de los agujeros negros. Se desconoce la naturaleza de los objetos compactos que se encuentran dentro de este ‘hueco’, ya que solo se han captado algunos datos en lejanos eventos de fusión de ondas gravitacionales.

Ahora, el descubrimiento de un objeto en esta brecha de masa en nuestra propia galaxia por un equipo de astrónomos de la colaboración internacional TRAnsients and PUlsars with MeerKAT (TRAPUM) puede ayudar a comprender por fin lo que son.

Su trabajo, coordinado desde el alemán Instituto Max Planck de Radioastronomía (MPIfR, que colidera TRAPUM junto a la Universidad de Mánchester) y publicado esta semana en la revista Science, informa sobre una pareja masiva de estrellas u objetos compactos en el cúmulo globular NGC 1851, en la constelación austral de Columba (la paloma).

Utilizando el radiotelescopio MeerKAT de Sudáfrica, en combinación con potentes instrumentos construidos por ingenieros del MPIfR, pudieron detectar débiles pulsos procedentes de una de las estrellas, identificándola como un púlsar de radio, un tipo de estrella de neutrones que gira rápidamente y emite haces de luz de radio hacia el universo como un faro cósmico. Este púlsar, denominado PSR J0514-4002E, gira más de 170 veces por segundo, y cada rotación produce un pulso rítmico, como el tic-tac de un reloj.

estrella de neutronesRadiotelescopio MeerKAT, situado en el semidesierto de Karoo, en Sudáfrica. Fuente: SARAO

Mediante la observación de pequeños cambios en este tic-tac a lo largo del tiempo, utilizando una técnica llamada pulsar timing o cronometraje de púlsares, fueron capaces de realizar mediciones extremadamente precisas de su movimiento orbital.

«Es como orbitar un cronómetro casi perfecto alrededor de una estrella a casi 40.000 años luz de distancia y cronometrar esas órbitas con una precisión de microsegundos», explica Ewan Barr, que dirigió el estudio junto con Arunima Dutta, colega y doctoranda del MPIfR.

Esa temporización regular también permitió medir con gran precisión la ubicación del sistema, lo que demostró que el objeto que se mueve junto al púlsar no era una estrella normal (es invisible en las imágenes de NGC 1851 del telescopio espacial Hubble), sino un resto extremadamente denso de una estrella colapsada.

Además, el cambio observado en el tiempo del punto más cercano de aproximación entre las dos estrellas u objetos (el periastro) mostró que la compañera o compañero tiene una masa que es mayor que la de cualquier estrella de neutrones conocida pero menor que la de cualquier agujero negro conocido, lo que la sitúa directamente en la brecha de masa de los agujeros negros.

Como las estrellas de neutrones más masivas suelen tener entre 2,2 y 2,5 masas solares (más cerca de lo primero, aunque es objeto de debate), mientras que los agujeros negros de menos de 5 masas solares rara vez se observan, ¿qué es entonces este misterioso objeto compacto, que tiene entre 2,09 y 2,71 masas solares?

“Depende de cuál sea realmente la masa máxima de las estrellas de neutrones”, subraya Barr a SINC, y lo explica: “Existen pruebas convincentes, procedentes de fusiones por ondas gravitacionales, de que la masa máxima de una estrella de neutrones se sitúa en torno a 2,17. Según nuestras observaciones, la masa más probable de la compañera es de 2,35 masas solares. Basándonos en esto, el balance de probabilidades sugiere que lo que hemos encontrado es demasiado pesado para ser una estrella de neutrones y, por tanto, es más probable que sea un agujero negro”.

“Sin embargo, sinceramente, yo no me fiaría ni de lo uno ni de lo otro –comenta–. La masa por sí sola no es una prueba especialmente persuasiva para una u otra interpretación y es seguro que tras hacer público este resultado habrá teóricos que soñarán con nuevas formas de crear estrellas de neutrones ultramasivas”.

¿Y si fuera una estrella de quarks?

Respecto a la posibilidad de que no sea ni una estrella de neutrones ni un agujero negro, apunta: «La probabilidad de que eso ocurra es extremadamente pequeña. Existen objetos teóricos más densos que una estrella de neutrones, pero no lo suficiente como para colapsar y convertirse en un agujero negro. Un candidato es una estrella de quarks compuesta por una especie de plasma estable de quarks y gluones que no se colapsa debido a las fuerzas de repulsión entre estos quarks. Una estrella así sería masiva y densa, pero también muy difícil de detectar directamente debido a la falta de emisión electromagnética. Por el momento, no existen pruebas convincentes de la existencia de este tipo de estrellas».

«Sea lo que sea este objeto, es una noticia apasionante», afirma Paulo Freire, también del MPIfR. «Si es un agujero negro, será el primer sistema púlsar-agujero negro conocido, que ha sido el Santo Grial de la astronomía de púlsares durante décadas», indica. Esta codiciada pareja estelar permitiría realizar nuevas pruebas o test de la relatividad general de Einstein.

«Y si es una estrella de neutrones –continúa–, tendrá implicaciones fundamentales para nuestra comprensión del desconocido estado de la materia a estas increíbles densidades».

Una historia de formación exótica

El equipo propone que la formación del objeto masivo, y su posterior emparejamiento con el púlsar de radio de giro rápido en una órbita estrecha, es el resultado de una historia de formación bastante exótica, solo posible debido a su particular entorno local. Este sistema se encuentra en un cúmulo globular (NGC 1851) con una densa colección de estrellas viejas que están mucho más apretadas que las del resto de la galaxia. Aquí, la aglomeración es tal que las estrellas pueden interactuar entre sí, perturbando sus órbitas y, en los casos más extremos, colisionando.

La explicación sobre su posible formación no es sencilla. Se cree que una de esas colisiones entre dos estrellas de neutrones creó el objeto masivo misterioso (sea agujero negro o estrella de neutrones). Por su parte, el púlsar de radio (de milisegundos, MSP) debió adquirir material de una estrella donante en una binaria de rayos X de baja masa (LMXB).

Este proceso de «reciclaje» es necesario para que el púlsar alcance su velocidad de rotación actual. Los autores creen que esta estrella donante (que quedó como enana blanca, WD) fue sustituida por el objeto masivo actual durante un encuentro de intercambio.

estrella de neutronesPosible historia de formación del púlsar de radio NGC 1851E y su exótico compañero. Fuente: Thomas Tauris (Aalborg University / MPIfR)

«Se trata del púlsar binario más exótico descubierto hasta ahora», afirma el coautor Thomas Tauris, de la Universidad de Aalborg (Dinamarca), «y su larga y compleja historia de formación supera los límites de nuestra imaginación».

Aunque el equipo no puede afirmar de forma concluyente si han encontrado la estrella de neutrones más masiva conocida, el agujero negro más ligero conocido o incluso alguna nueva variante de estrella exótica, lo cierto es que han descubierto un laboratorio único para sondear las propiedades de la materia en las condiciones más extremas del universo.

«Aún no hemos terminado con este sistema», afirma Arunima Dutta, que concluye: «Descubrir la verdadera naturaleza de la compañera será un punto de inflexión en nuestra comprensión de las estrellas de neutrones, los agujeros negros y cualquier otra cosa que pueda estar al acecho en la brecha de masa de los agujeros negros».

Próximos pasos para resolver el misterio

Por su parte, Barr comenta los próximos pasos: “Estamos realizando observaciones para detectar cambios en la señal del púlsar debidos al campo gravitatorio de su pareja. La detección de estos efectos nos indicaría con mayor seguridad cuál es la masa del púlsar y del objeto compacto. El radiotelescopio MeerKAT no es lo suficientemente sensible para detectar estos efectos, y esperamos con impaciencia la llegada de nuevos instrumentos, como el telescopio Square Kilometre Array, que debería detectar fácilmente estos cambios”.

“Hay un efecto relativista en particular que nos interesa, llamado precesión Lense-Thirring, que se produce en presencia de objetos fuertemente gravitatorios (básicamente, los objetos arrastran consigo el espacio-tiempo a medida que giran, como las corrientes en el océano). A diferencia de otros efectos, que solo nos indicarían la masa de la estrella u objeto compañero, la detección de la precesión Lense-Thirring nos informa sobre la velocidad a la que gira. Se espera que los agujeros negros giren mucho más rápido que las estrellas de neutrones, por lo que esto nos daría una forma directa de saber cuál de los dos es”. La investigación del enigmático objeto continúa.

Referencia:

Ewan Barr, Arunima Dutta et al. (2024) A pulsar in a binary with a compact object in the mass gap between neutron stars and black holes Science doi: 10.1126/science.adg300

 

Una versión de este artículo fue publicada originalmente en SINC el 18 de enero de 2024. Autor: Enrique Sacristán.

El artículo ¿Agujero negro más ligero o estrella de neutrones más pesada? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Los sólidos platónicos

mer, 2024/01/24 - 11:59

Recientemente, he tenido el placer de organizar una visita, con ojos matemáticos, a la maravillosa exposición Gego, mirando el infinito, que el Museo Guggenheim Bilbao acoge estos días, del 7 de noviembre de 2023 al 4 de febrero de 2024. Gertrude Goldschmidt (Hamburgo, 1912–Caracas, 1994), cuyo nombre artístico es Gego, fue una artista venezolana, de origen alemán, pionera del arte abstracto latinoamericano, cuya obra artística podemos enmarcar dentro de las corrientes de la abstracción geométrica, el arte cinético y el arte óptico, con una fuerte influencia matemática. Entre las obras que se pueden admirar en esta exposición hay esculturas colgantes como Esfera n. 2 (1976), Esfera n. 4 (1976) o Siete icosidodecaedros (1977), de su serie Esferas, que son poliedros, esto es, figuras geométricas tridimensionales, cuyas caras planas son polígonos y se unen unas con otras a través de sus lados y que, además, encierran un volumen finito. Algunos de esos poliedros, en particular, los de la escultura Siete icosidodecaedros, pertenecen a la familia de poliedros denominada sólidos arquimedianos, como expliqué en la mencionada visita y sobre los que tenía la intención de escribir en esta entrada del Cuaderno de Cultura Científica. Sin embargo, no tiene sentido explicar qué son los sólidos arquimedianos sin pasar primero por los sólidos platónicos, que es lo que vamos a hacer finalmente en esta anotación.

Escultura colgante Siete icosidodecaedros (1977), de la artista venezolana, de origen alemán, Gego, que forma parte de la exposición Gego, mirando el infinito, (Museo Guggenheim Bilbao, 7 de noviembre de 2023 – 4 de febrero de 2024). Fotografía: Raúl IbáñezLos sólidos platónicos

Para introducir a los sólidos platónicos primero vamos a definir de forma sencilla qué es un poliedro. Un poliedro es una figura geométrica tridimensional formada por caras poligonales planas (triángulos, cuadriláteros, pentágonos, hexágonos, etc; aunque también podrían ser estrellados, como la estrella pentagonal (pentagrama o pentalfa), y la estrella hexagonal (hexagrama o estrella de David), que generan curiosos poliedros que se autointersecan, aunque en esta entrada no vamos a dedicar mucha atención a estos), aristas rectas (que son los lados compartidos de cualesquiera dos caras poligonales planas) y los vértices (que son los puntos en los que se juntan las aristas).

Algunos ejemplos de poliedros, desde el tetraedro, que es una pirámide triangular, pasando por el prisma y el antiprisma pentagonales, el icosaedro formado por 20 triángulos, el icosaedro truncado, formado por pentágonos y hexágonos, que fue la forma de los balones de fútbol durante años, y un poliedro estrellado, más complejo de ver, ya que sus caras son estrellas pentagonales y, por lo tanto, se autointersecan. Imágenes de Tomruen, a través de Wikimedia Commons

 

La anterior definición es imprecisa. Aunque nuestro objetivo no es dar una definición estricta de poliedro, si matizaremos un poco la definición. Por una parte, cada cara del poliedro tiene que estar en un plano distinto a los planos de las demás caras y, por otra parte, consideraremos que los poliedros encierran un volumen finito (en particular, no son abiertos).

Existen muchas familias de poliedros, por este motivo primero vamos a centrarnos en los más sencillos y regulares, los sólidos platónicos. Un sólido platónico es un poliedro regular convexo. Vamos por partes. Un poliedro es regular si sus caras son polígonos regulares (esto quiere decir que los lados del polígono, respectivamente, sus ángulos interiores, son iguales entre sí) todos iguales y la estructura de todos los vértices es la misma. Por ejemplo, el tetraedro de la anterior imagen es un poliedro regular, puesto que todas sus caras son triángulos equiláteros del mismo tamaño y la estructura de todos los vértices es la misma, cada vértice recibe tres triángulos equiláteros. Por otra parte, el concepto de poliedro convexo tiene cierta complejidad, pero podemos explicarlo de la siguiente forma. Un poliedro es convexo si dados dos puntos cualesquiera del mismo, el segmento que los une está en el interior del poliedro, como en los cinco primeros ejemplos de la imagen anterior, y no será convexo en caso contrario, como en el poliedro estrellado anterior, en el que, por ejemplo, los segmentos que unen cualesquiera dos vértices son exteriores. Otra forma de definir la convexidad es que para cualquier plano en el que se apoye una cara del poliedro, este estará colocado completamente a un solo lado de dicho plano. Por ejemplo, en el caso del tetraedro si consideramos el plano en el que descasa cualquiera de sus caras triangulares, vemos claramente que el tetraedro estará completamente colocado a un lado del plano, luego el tetraedro es un sólido platónico. Sin embargo, si tomamos el plano que contiene a cualquiera de las caras del poliedro estrellado anterior (que es una estrella pentagonal), tenemos que hay partes del poliedro a cada lado del plano, luego es no convexo.

A pesar de la existencia de infinitos polígonos regulares, que van desde los sencillos triángulo equilátero (3 lados iguales), cuadrado (cuatro lados) o pentágono (5 lados), subiendo en la cantidad de lados, hexágono (6), heptágono (7), octógono (8), nonágono (9), así hasta el infinito, solamente existen cinco sólidos platónicos. A saber, el tetraedro (formado por 4 triángulos equiláteros y cuya estructura en los vértices está formada por la confluencia de tres triángulos equiláteros, lo cual podemos expresarlo como que tiene una estructura {3, 3, 3}), el octaedro (8 triángulos equiláteros y estructura de los vértices igual a {3, 3, 3, 3}), el cubo (6 cuadrados y estructura de los vértices {4, 4, 4}), el icosaedro (20 triángulos equiláteros y estructura de sus vértices {3, 3, 3, 3, 3}) y el dodecaedro (12 pentágonos y estructura de sus vértices {5, 5, 5}), que vemos en la siguiente imagen.

sólidos platónicosImagen de los sólidos platónicos, tetraedro, octaedro, cuadrado, icosaedro y dodecaedro. Imagen de DTR, a través de Wikimedia Commons

 

Antes de continuar, vamos a contar la cantidad de vértices, aristas y caras que tienen estos cinco poliedros regulares convexos y que recogemos en la siguiente tabla.

Los griegos ya lo sabían

Los antiguos matemáticos griegos ya demostraron que tan solo existen cinco sólidos platónicos, es decir, poliedros regulares (mismas caras y mismos vértices) convexos. Por ejemplo, en la gran obra de la matemática griega, y universal, Los Elementos, del matemático griego Euclides de Alejandría (aprox. 325 – 265 a.n.e.) se estudian los sólidos platónicos (principalmente, en su libro número XIII) y se demuestra que solamente existen cinco. La idea, que es muy simple, consiste en estudiar las posibles estructuras en los vértices. Puedes saltarte la demostración, aunque es tan sencilla e intuitiva que merece la pena leerla.

Empecemos por los triángulos. Como en un plano, alrededor de un vértice, podemos disponer de seis triángulos equiláteros, puesto que 6 x 60 = 360 grados (recordemos que los ángulos interiores de un triángulo equilátero son de 60 grados), el número máximo de triángulos equiláteros alrededor de un vértice del poliedro regular convexo será, como mucho, cinco. Por lo tanto, obtenemos que solamente hay tres sólidos platónicos formados por triángulos, a saber, el tetraedro, con tres triángulos equiláteros {3, 3, 3}, el octaedro, con cuatro triángulos equiláteros {3, 3, 3, 3} y el icosaedro, con cinco triángulos equiláteros {3, 3, 3, 3, 3}. Y no hay más posibilidades. Con tan solo dos triángulos es imposible formar un poliedro cerrado, ya que no podemos cerrar la estructura en el vértice. Y con seis triángulos equiláteros la figura en el vértice sería plana, no hay manera de que sea tridimensional, y no hay espacio para encajar más de seis triángulos equiláteros alrededor de un vértice.

Imagen de los tres poliedros regulares convexos formados por triángulos, vistos con uno de sus vértices en el centro, el tetraedro (3 triángulos equiláteros por vértice), el octaedro ((4 triángulos equiláteros)) y el icosaedro (5 triángulos equiláteros) y, en cada caso, el mismo número de triángulos equiláteros en el plano que los que están alrededor de un vértice. Imagen construida a partir de imágenes de los poliedros de Stephen Wolfram y Eric W. Weisstein, realizadas con Mathematica

 

Si continuamos con los cuadrados, resulta que alrededor de un vértice no podrá haber más de tres cuadrados, ya que 4 x 90 = 360 grados (recordemos que los ángulos interiores de un cuadrado son de 90 grados), luego con cuatro cuadrados la figura sería plana y no hay forma de construir un poliedro. Con dos cuadrados no llegamos a nada, como en el caso anterior, pero con tres cuadrados por vértice se obtiene el cubo.

Imagen del único poliedro regular convexo formado por cuadrados, visto con uno de sus vértices en el centro, el cubo, con 3 cuadrados por vértice, y el mismo número de cuadrados en el plano. Imagen construida a partir de una imagen del cubo de Stephen Wolfram y Eric W. Weisstein, realizada con Mathematica

 

Algo similar pasa para los pentágonos, cuyo ángulo interior en sus vértices es de 108 grados, luego el número máximo de pentágonos alrededor de un vértice de un sólido platónico es tres, ya que con cuatro nos pasamos de los 360 grados (108 x 4 = 432 grados).

Imagen del único poliedro regular convexo formado por pentágonos, visto con uno de sus vértices en el centro, el dodecaedro, con 3 pentágonos por vértice, y el mismo número de pentágonos en el plano. Imagen construida a partir de una imagen del cubo de Stephen Wolfram y Eric W. Weisstein, realizada con Mathematica

 

Los hexágonos nos van a dar una idea de lo qué ocurre con polígonos de más lados. Ya hemos comentado más arriba que con dos polígonos solamente, da igual el número de lados de estos, es imposible crear un poliedro. El problema es que con tres hexágonos en un vértice tenemos que la figura ya es plana, puesto que 3 x 120 = 360 grados (los ángulos interiores de un hexágono son de 120 grados), luego es imposible generar un poliedro con 3, o más, hexágonos. La cosa es peor aún para polígonos de siete, o más, lados, puesto que es imposible encajar tres, o más, polígonos en un vértice, ya que la suma de sus ángulos siempre es mayor de 360 grados.

Por lo tanto, los únicos poliedros regulares convexos, es decir, sólidos platónicos, son el tetraedro, el octaedro, el icosaedro, el cubo y el dodecaedro.

sólidos platónicosEsculturas de los cinco sólidos platónicos (1996), realizadas por el artista alemán Ekkehard Neumann, para el parque Bagno de la ciudad alemana de Steinfurt

 

Sin embargo, la mayoría de los historiadores atribuyen el contenido del libro XIII de Los Elementos de Euclides al matemático griego Teeteto (aprox. 417 – 369 a.n.e.), quien estudió bajo la dirección del matemático pitagórico Teodoro de Cirene (465 – 398 a.n.e.), al igual que el filósofo griego Platón (aprox. 427 – 347 a.n.e.), quien lo incluiría, como interlocutor del personaje principal de todos sus diálogos, el filósofo Sócrates (470 – 399 a.n.e.), en dos de sus diálogos, el Sofista y Teeteto.

Cosmogonía platónica

El nombre de sólidos platónicos para los poliedros regulares convexos viene del diálogo Timeo, de Platón. En este diálogo, se describen los poliedros regulares convexos, que posteriormente, recibirán el nombre de sólidos platónicos, y se relacionan con la creación del cosmos. Para Platón los cuatro primeros poliedros regulares, tetraedro, octaedro, icosaedro y cubo, están relacionados con los cuatro elementos que forman el cosmos, fuego, aire, agua y tierra. Así podemos leer en este diálogo (hemos tomado la edición bilingüe de José María Zamora Calvo, publicada por Abada Editores, en 2010):

A la tierra asignemos la figura cúbica, ya que es la más difícil de mover de los cuatro géneros y la más plástica de entre los cuerpos; y es del todo necesario que lo que posea tales características tenga al nacer las caras más estables. Ahora bien, entre los triángulos supuestos al comienzo, la cara de lados iguales es por naturaleza más estable que la de lados desiguales, y la superficie de cuatro lados iguales formada por dos equiláteros resulta necesariamente una base más estable que el triángulo equilátero, tanto en sus partes como en el todo. Por consiguiente, si atribuimos esta figura a la tierra, aseguramos el discurso verosímil y, asimismo, al agua la forma menos móvil de las restantes, al fuego la más móvil, y al aire la intermedia. Y atribuimos el cuerpo más pequeño [tetraedro] al fuego, el más grande [icosaedro] al agua, y el del medio [octaedro] al aire; y, a su vez, el más agudo al fuego, el segundo más agudo al aire, y el tercero al agua.

El universo está formado por los cuatro elementos fuego [tetraedro], tierra [cubo], agua [icosaedro] y aire [octaedro], pero Dios utiliza el dodecaedro, que en el diálogo solo se menciona como la “quinta composición” (esto es, el quinto poliedro regular convexo), para crear el universo, ya que el dodecaedro es el poliedro regular convexo más próximo a la esfera. Platón escribe en el diálogo (edición bilingüe de José María Zamora Calvo, publicada por Abada Editores, en 2010):

Había aún una quinta composición [dodecaedro]; el dios la utilizó para el universo, cuando lo pintó con diversos colores.

Dios habría tomado el quinto poliedro como modelo para crear el universo y este es el motivo por el cual se ha considerado el dodecaedro como el símbolo del universo. Si nos fijamos en la pintura, La última cena (1955), o más exactamente El sacramento de la última cena, del artista catalán Salvador Dalí (1904-1989), Jesús y los apóstoles están rodeados en esa última cena de un enorme dodecaedro.

Ilustración del libro Harmonices mundi (1619), del matemático y astrónomo alemán Johannes Kepler (1571-1630), que incluye -en el centro a la derecha- la imagen de los cinco sólidos platónicos con dibujos que los relacionan con la cosmogonía platónica

Algunas fuentes, entre las que están el filósofo neoplatónico griego Proclo (412-485), atribuyen a Pitágoras la cosmogonía descrita en el diálogo Timeo de Platón, aunque la mayoría de los historiadores consideran bastante improbable que Pitágoras hubiese planteado este origen del universo. Según muchas fuentes los primeros pitagóricos conocerían solo tres de los cinco sólidos platónicos, el cubo, el tetraedro y el dodecaedro, y se atribuye a Teeteto el octaedro y el icosaedro.

¿Se conocían los poliedros regulares en el neolítico?

En la siguiente imagen, del libro Time Stands Still; New Light on Megalithic Science / El tiempo se detiene; Nuevos descubrimientos en la ciencia del Megalítico (1979), del profesor de arquitectura, escritor y artista británico Keith Critchlow (1933-2020), apasionado de la denominada “geometría sagrada”, aparecen cinco “bolas de piedra talladas”. Las bolas de piedra talladas son objetos artificiales esféricos tallados en piedra, lo que se denomina petroesferas, que datan de finales del neolítico (hace más de 4.000 años) y que han sido encontradas principalmente en Escocia, aunque también en el resto de Gran Bretaña e Irlanda. Su tamaño suele ser de unos 7 centímetros de diámetro y cuentan con entre 3 y 160 abultamientos. Además, se desconoce cuál era el uso de estas bolas de piedra talladas. Esta imagen ha sido utilizada por Critchlow para demostrar que en el neolítico ya se conocían los cinco sólidos platónicos, más de mil años antes de Platón.

Imagen del libro Time Stands Still; New Light on Megalithic Science / El tiempo se detiene; Nuevos descubrimientos en la ciencia del Megalítico (1979), del británico Keith Critchlow, con las supuestas cinco bolas de piedra talladas con la forma de los cinco sólidos platónicos

Sin embargo, algunas personas, como el artista y matemático estadounidense George W. Hart, encontraron algunas contradicciones en esta imagen. Por este motivo, hay quienes acudieron a la fuente original. Las cinco bolas de piedra talladas que menciona Critchlow se encuentran en el Museo Ashmolean de Oxford (Inglaterra, Gran Bretaña) y son las que aparecen en la siguiente imagen.

Imagen de las cinco bolas de piedra talladas que se encuentran en el Museo Ashmolean de Oxford. Imagen de la página web del Museo Ashmolean

Si vamos revisando las cinco bolas de piedra tallada una a una observamos lo siguiente. La primera, arriba a la izquierda, tiene siete abultamientos, luego estos no pueden corresponderse ni con vértices, ni con caras, de un poliedro regular convexo (véase la tabla anterior), como ocurría en la interpretación que hacía Critchlow en su imagen. La segunda bola, arriba en el centro, tiene seis abultamientos y podríamos interpretarla tanto como un octaedro, si los abultamientos se consideran como los vértices del poliedro, o como un cubo si los abultamientos (que están bastante aplanados) se consideran como las caras del poliedro. Esta doble interpretación que estamos realizando, está relacionada con el hecho de que el cubo y el octaedro son duales, como comentaremos más adelante. La tercera bola, arriba a la derecha, tiene 14 abultamientos, que no se corresponde con ningún poliedro regular, ya se consideren los abultamientos como caras o vértices (véase la tabla anterior). La cuarta bola, abajo a la izquierda, posee 6 grandes abultamientos, es como segunda bola, pero con abultamientos un poco más grandes. Y, finalmente, la última bola posee cuatro abultamientos, por lo que podemos interpretarla como la representación del tetraedro, ya se consideren los abultamientos como caras o vértices.

Por lo tanto, las cinco bolas de piedra talladas del Museo Ashmolean no están relacionadas con los cinco sólidos platónicos, como afirmaba Critchlow. En conclusión, la mencionada fotografía parece estar amañada.

Existen más ejemplos de bolas de piedra talladas con estructura de tetraedro o cubo/octaedro (en función de si los abultamientos son más o menos planos parecerán más un cubo o un octaedro), similares a las bolas del Museo Ashmolean. En las siguientes imágenes vemos algunos de estos ejemplos.

Tres bolas de piedra talladas, que se encuentran en el Kelvingrove Art Gallery and Museum, de Glasgow (Gran Bretaña), con seis abultamientos. Las dos primeras, con abultamientos más planos, nos recuerdan más al cubo, mientras que la tercera, con abultamientos más pronunciados, nos remite a la estructura del octaedro

 

Fotografía de la bola de piedra tallada, encontrada en Towie, Aberdeenshire (Escocia) y que se encuentra en el Museo Nacional de Escocia, fechada alrededor del 3.000 a.n.e. Esta bola tiene estructura de tetraedro. Imagen del Museo Nacional de Escocia

Incluso puede encontrarse alguna bola de piedra tallada en la que podemos interpretar un dodecaedro. En la siguiente imagen vemos el modelo 3d de una bola de piedra tallada, encontrada en Aboyne, Aberdeenshire (Escocia), con 12 abultamientos, cada uno de los cuales está rodeado de otros cinco, luego simulan caras pentagonales lo que hace que la bola de piedra tallada parezca un dodecaedro.

Dos vistas del modelo 3d, realizado por Hugo Anderson-Whymark, de una bola de piedra tallada, encontrada en Aboyne, Aberdeenshire (Escocia), con 12 abultamientos, cada uno de los cuales está rodeado de otros cinco (primera imagen), luego simulan caras pentagonales lo que hace que la bola de piedra tallada parezca un dodecaedro (segunda imagen)

Por otra parte, si relacionamos los abultamientos con los vértices de un poliedro regular, podríamos relacionar la anterior bola de piedra tallada con el icosaedro, lo cual está relacionado con el hecho de que el dodecaedro y el icosaedro son duales, como veremos.

Nos podríamos plantear si en el neolítico conocían los poliedros regulares convexos, como sugería Critchlow. Todo hace pensar que, aunque podamos relacionar algunas de las bolas de piedra talladas con los sólidos platónicos, esto no demuestra que las personas que tallaron estas piedras esféricas con abultamientos simétricos tuvieran en mente los poliedros regulares a la hora de crearlos. Claramente tenían cierta intuición geométrica, relacionada con la simetría, pero no un conocimiento de los sólidos platónicos. La relación de las bolas de piedras talladas con los poliedros regulares es más bien una interpretación moderna de las bolas. Además, como ya hemos comentado antes, existen bolas con muy distinto número de abultamientos, que van desde 3 hasta 160.

Bolas de Piedra talladas del Hunterian Museum de Glasgow (Escocia)Algunos poliedros regulares antiguos

Lo que sí podemos afirmar es que existen algunas representaciones antiguas de algunos de los sólidos platónicos, como los dodecaedros romanos, de bronce o piedra, encontrados (hasta un centenar de ellos) en diferentes partes de Europa, que datan de entre los siglos II y IV, luego no anteriores a Teeteto o Platón, y cuya función se sigue desconociendo hoy en día, o el icosaedro romano encontrado en una excavación de Alemania.

Fotografía de dos dodecaedros y un icosaedro romanos de bronce, del siglo III, encontrados en dos excavaciones alemanas y que pertenecen al Museo regional renano Tréveris. Imagen de kleon3 a través de Wikimedia Commons

 

Incluso existen algunos más antiguos, como el dodecaedro etrusco, un dodecaedro de piedra encontrado en una excavación en Monte Loffa (Véneto, Italia), datado por lo menos en el 500 a.n.e. En algunos libros se acompaña esta afirmación con la imagen de un dodecaedro romano, como los anteriores, sin embargo, esa imagen no se corresponde con el dodecaedro etrusco. Amelia Carolina Sparavigna, del Politécnico de Turín (Italia), en su artículo An Etruscan Dodecahedron / Un dodecaedro etrusco, acude a la investigación original, el artículo Intorno un dodecaedro quasi regolare di pietra a facce pentagonali scolpite con cifre, scoperto nelle antichissime capanne di pietra del Monte Loffa / Sobre un dodecaedro de piedra casi regular, con caras pentagonales talladas con figuras, descubierto en las antiguas cabañas de piedra de Monte Loffa (1885), de Stefano De’ Stefani, quien estudia este pequeño dodecaedro de piedra y lo acompaña con una ilustración del mismo (la de la siguiente imagen).

Ilustración del dodecaedro etrusco perteneciente al texto Sobre un dodecaedro de piedra casi regular, con caras pentagonales talladas con figuras, descubierto en las antiguas cabañas de piedra de Monte Loffa (1885), de Stefano De’ Stefani

En opinión de De’ Stefani el dodecadero etrusco podría ser un dado y las marcas corresponderse con algún tipo de representación de los números del 1 al 12.

También se han encontrado diferentes dados icosaédricos, realizados con distintos materiales, del Antiguo Egipto, tanto del período helenístico, como del romano, entre el siglo II a.n.e. y el siglo IV n.e., y con números, en griego o romano, en sus caras.

Dos dados icosaédricos, con 20 caras, con letras griegas en sus caras del Antiguo Egipto, entre los siglos II a.n.e. y IV n.e. Imágenes del Museo Metropolitano de ArteDualidad

Antes de dar por finalizada esta entrada del Cuaderno de Cultura Científica vamos a explicar el concepto de dualidad para los poliedros. Se dice que dos poliedros son duales si las caras de uno se corresponden con los vértices del otro, y recíprocamente. Construyamos los poliedros duales de los sólidos platónicos.

Dado un poliedro regular convexo se construye el poliedro dual uniendo los puntos centrales de las caras adyacentes, de esta forma cada cara del poliedro original se corresponde con un vértice del nuevo poliedro. De forma análoga, cada vértice del poliedro original se va a corresponder con una cara del nuevo poliedro, ya que cada vértice del poliedro original tiene alrededor una serie de caras adyacentes dos a dos y conectadas de forma cíclica, de manera que al unir sus centros, que son los vértices del nuevo poliedro, se obtiene la cara de ese nuevo poliedro, que está conectada con el vértice del que partíamos).

Por ejemplo, el poliedro dual del dodecaedro es el icosaedro, como se muestra en la siguiente imagen. Como vemos, las caras del dodecaedro se corresponden, por construcción, con los vértices del icosaedro, así como los vértices del dodecaedro se corresponden con las caras del icosaedro.

sólidos platónicosImagen que ilustra que el icosaedro es dual del dodecaedro, realizada por la estudiante Klara Mundilova (2012), utiñizando POV-Ray – The Persistance of Vision Raytracer, para la clase del profesor Hans Havlicek, de la TU DMG Technische Universität Wien, de Austria

 

Resulta que los poliedros duales de los sólidos platónicos siguen siendo sólidos platónicos. Más concretamente, el dodecaedro y el icosaedro son duales, el cubo y el octaedro son duales, y el tetraedro es dual de sí mismo, como podemos observar en la siguiente imagen.

Dualidad de los sólidos platónicos. Imagen del proyecto ATRACTOR de Portugal, a través de su página web

La dualidad se puede obtener mediante otros procesos, pero no vamos a entrar en ellos en esta ocasión. Para terminar esta entrada vamos a mostrar las esculturas basadas en la dualidad de los sólidos platónicos de la artista saudí-palestina Dana Awartani (1987),

Escultura Tetraedro dentro de un tetraedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Octaedro dentro de un cubo II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Cubo dentro de un octaedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Icosaedro dentro de un dodecaedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Dodecaedro dentro de un icosaedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana Awartani

En la siguiente entrada continuaremos hablando de los sólidos platónicos, los poliedros regulares convexos.

Bibliografía

1.- Geaninne Gutiérrez-Guimaraes (editora), Gego, midiendo el infinito (catálogo de la exposición), Museo Guggenheim Bilbao, 2023.

2.- Pedro Miguel González Urbaneja, Los sólidos pitagórico-platónicos (Geometría, Arte, Mística y Filosofía), FESPM, 2008.

3.- Claudi Alsina, Las mil caras de la belleza geométrica (los poliedros), El mundo es matemático, RBA, 2010.

4.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los sólidos platónicos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Cómo garantizar la seguridad de los vehículos autónomos

mar, 2024/01/23 - 11:59

A medida que los automóviles y aeronaves pilotados por ordenador se vuelven más comunes, la clave para prevenir accidentes, según muestran los investigadores, es saber lo que no se sabe.

Un artículo de Steve Nadis. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

seguridadSeñor Salme para Quanta Magazine

Los automóviles y aeronaves sin piloto ya no son cosa del futuro. Solo en la ciudad de San Francisco, dos compañías de taxis han registrado colectivamente 12,9 millones de kilómetros de conducción autónoma hasta agosto de 2023. Y más de 850.000 vehículos aéreos autónomos, o drones, están registrados en los Estados Unidos, sin contar los militares.

Pero existen preocupaciones justificadas sobre la seguridad. Por ejemplo, en un período de 10 meses que finalizó en mayo de 2022, la Administración Nacional de Seguridad del Tráfico en Carreteras de los Estados Unidos informó de casi 400 accidentes que involucraron automóviles que utilizaban alguna forma de control autónomo. Seis personas murieron como consecuencia de estos accidentes y cinco resultaron gravemente heridas.

La forma habitual de abordar este problema, a veces denominada “prueba por agotamiento”, implica probar estos sistemas hasta que estés convencido de que son seguros. Pero nunca se puede estar seguro de que este proceso descubrirá todos los defectos potenciales. «La gente realiza pruebas hasta que agotan sus recursos y su paciencia», explica Sayan Mitra, científico informático de la Universidad de Illinois en Urbana-Champaign. Sin embargo, las pruebas por sí solas no pueden ofrecer garantías.

Mitra y sus colegas sí pueden. Su equipo ha logrado demostrar la seguridad de las capacidades de seguimiento de carriles para automóviles y de los sistemas de aterrizaje para aeronaves autónomas. Su estrategia se está utilizando ahora para ayudar a aterrizar drones en portaaviones, y Boeing planea probarla en un avión experimental este año. «Su método para proporcionar garantías de seguridad de extremo a extremo es muy importante», afirna Corina Pasareanu, científica investigadora de la Universidad Carnegie Mellon y del Centro de Investigación Ames de la NASA.

Su trabajo consiste en garantizar los resultados de los algoritmos de aprendizaje automático que se utilizan para informar a los vehículos autónomos. A alto nivel, muchos vehículos autónomos tienen dos componentes: un sistema de percepción y un sistema de control. El sistema de percepción te dice, por ejemplo, a qué distancia está tu coche del centro del carril, o en qué dirección va un avión y cuál es su ángulo con respecto al horizonte. El sistema funciona alimentando datos sin procesar de cámaras y otras herramientas sensoriales a algoritmos de aprendizaje automático basados en redes neuronales que recrean el entorno fuera del vehículo.

Luego, estas evaluaciones se envían a un sistema independiente, el módulo de control, que decide qué hacer. Si se avecina un obstáculo, por ejemplo, decide si aplica los frenos o gira para evitarlo. Según Luca Carlone, profesor asociado del Instituto de Tecnología de Massachusetts, si bien el módulo de control se basa en tecnología bien establecida, «toma decisiones basadas en los resultados de la percepción y no hay garantía de que esos resultados sean correctos».

Para brindar una garantía de seguridad, el equipo de Mitra trabajó en asegurar la confiabilidad del sistema de percepción del vehículo. Al principio supusieron que es posible garantizar la seguridad cuando se dispone de una representación perfecta del mundo exterior. Luego determinaron cuánto error introduce el sistema de percepción en su recreación del entorno del vehículo.

La clave de esta estrategia es cuantificar las incertidumbres involucradas, conocidas como banda de error, o las “incógnitas conocidas”, como lo expresa Mitra. Este cálculo proviene de lo que él y su equipo llaman contrato de percepción. En ingeniería de software, un contrato es un compromiso de que, para una determinada entrada a un programa de ordenador, la salida estará dentro de un rango especificado. Calcular este rango no es fácil. ¿Qué precisión tienen los sensores del coche? ¿Cuánta niebla, lluvia o resplandor solar puede tolerar un dron? Pero si puedes mantener el vehículo dentro de un rango específico de incertidumbre y si la determinación de ese rango es lo suficientemente precisa, el equipo de Mitra demostró que puedes garantizar su seguridad.

seguridadSayan Mitra, informático de la Universidad de Illinois, Urbana-Champaign, ha ayudado a desarrollar un enfoque sistemático para garantizar la seguridad de ciertos sistemas autónomos. Foto: Virgil Ward II

Es una situación familiar para cualquiera que tenga un velocímetro impreciso. Si sabes que el dispositivo nunca se desvía más de 5 kilómetros por hora, puedes evitar la multa por exceso de velocidad manteniéndote siempre 5 km/h por debajo del límite de velocidad (tal y como lo indica tu velocímetro no confiable). Un contrato de percepción ofrece una garantía similar de seguridad de un sistema imperfecto que depende del aprendizaje automático.

«No se necesita una percepción perfecta», explica Carlone. «Lo único que quieres es que sea lo suficientemente buena como para no poner en riesgo la seguridad». Las mayores contribuciones del equipo, afirma, son «introducir la idea completa de los contratos de percepción» y proporcionar los métodos para construirlos. Lo han hecho recurriendo a técnicas de la rama de la informática llamada verificación formal, que proporciona una forma matemática de confirmar que el comportamiento de un sistema satisface un conjunto de requisitos.

«Aunque no sabemos exactamente cómo la red neuronal hace lo que hace», como afirma Mitra, han demostrado que todavía es posible probar numéricamente que la incertidumbre de la salida de una red neuronal se encuentra dentro de ciertos límites. Y, si ese es el caso, entonces el sistema será seguro. «Podemos entonces proporcionar una garantía estadística sobre si (y en qué medida) una red neuronal determinada realmente cumplirá esos límites».

La empresa aeroespacial Sierra Nevada está probando actualmente estas garantías de seguridad al aterrizar un dron en un portaaviones. Este problema es, en cierto modo, más complicado que conducir automóviles debido a la dimensión adicional que implica volar. “Al aterrizar, hay dos tareas principales”, explica Dragos Margineantu, tecnólogo jefe de IA en Boeing, “alinear el avión con la pista y asegurarse de que la pista esté libre de obstáculos. Nuestro trabajo con Sayan implica obtener garantías para estas dos funciones”.

«Las simulaciones que utilizan el algoritmo de Sayan muestran que la alineación [de un avión antes del aterrizaje] mejora», afirma. El siguiente paso, previsto para finales de este año, es emplear estos sistemas mientras aterriza de hecho un avión experimental de Boeing. Uno de los mayores desafíos, señala Margineantu, será descubrir lo que no sabemos – “determinar la incertidumbre en nuestras estimaciones” – y ver cómo eso afecta a la seguridad. «La mayoría de los errores ocurren cuando hacemos cosas que creemos saber, y resulta que no es así».

 

El artículo original, How to Guarantee the Safety of Autonomous Vehicles, se publicó el 16 de enero de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Cómo garantizar la seguridad de los vehículos autónomos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El origen incierto de las islas evanescentes de Titán

lun, 2024/01/22 - 11:59

Titán es un mundo apasionante. Junto con la Tierra, es el único lugar de nuestro Sistema Solar donde existe un ciclo hidrológico, aunque radicalmente distinto al nuestro: Mientras que en nuestro planeta este ciclo funciona con el agua y sus cambios de estado, las frías temperaturas de Titán -hablamos de unos 180 grados centígrados bajo cero de media- hacen que este ciclo esté basado en el metano y el etano, que a esas temperaturas se comporta de una manera similar al agua en nuestro planeta.

En este exótico o extraño -para nuestros ojos, claro- ciclo, las nubes de metano y etano se forman sobre una atmósfera compuesta principalmente por nitrógeno y desde ella precipitan las gotas de lluvia capaces de llenar lagos y mares y de excavar unas redes de drenaje que nos recuerdan tanto a nuestros valles, ríos y ramblas.

TitánTitán, visto desde la sonda Cassini. En luz visible, no podemos ver nada de su superficie, solo su atmósfera. Cortesía de NASA/JPL-Caltech/Space Science Institute.

Este ciclo hidrológico -entiéndase en todo este artículo el uso del término hidrológico lato sensu – es susceptible de comparaciones con el nuestro, puesto que, a pesar de ser mundos radicalmente diferentes, es capaz de modelar el paisaje de una manera similar, lo que nos da una perspectiva sobre la gran diversidad de procesos que se dan en los distintos cuerpos del Sistema Solar y como son capaces de crear paisajes similares. Eso no quita que no se puedan dar procesos diferentes a los que hay en la Tierra, aunque, por muy marciano que nos parezca un paisaje, en ocasiones tenemos más cosas en común que diferencias.

La llegada de la sonda Cassini al sistema de Saturno fue una verdadera revolución en nuestro conocimiento sobre este satélite, ya que la distancia a nuestro planeta y una superficie perpetuamente cubierta de una neblina de compuestos orgánicos, hacía tarea imposible que pudiésemos saber que pasaba en su superficie, algo que tuvo solución gracias a los datos de radar, pero también a las imágenes tomadas en determinadas “ventanas” ópticas -entiéndase por ventanas en el sentido de longitudes de onda- que también nos aportaban algunos detalles de una superficie hasta entonces inédita para el ser humano.

TitánLas islas que aparecen y desaparecen en Ligeia Mare, vistas con el radar de la misión Cassini. Cortesía de NASA/JPL-Caltech/Space Science Institute.

En el año 2014 un equipo de científicos publicó el descubrimiento una nueva isla en Ligeia Mare, el segundo mar más extenso de Titán y que se encuentra en la región polar del hemisferio norte. Era la primera vez que observábamos un fenómeno dinámico en las masas de líquido del satélite… pero, ¿por qué no estaba esta isla antes? ¿Qué había provocado su aparición?

Las primeras teorías apuntaron a que fuesen el resultado de las olas que provocaron un “reflejo” de las ondas de radar que tendría ese aspecto, a la presencia de burbujas de gas ascendiendo desde el fondo del mar, trozos de compuestos orgánicos sólidos que al calentarse el líquido dejasen flotarlos… e incluso islas de verdad, pero los científicos no tenían ninguna preferencia muy marcada…. Al fin y al cabo, era la primera vez que veíamos algo así.

Un nuevo estudio publicado en Geophysical Research Letters afirma que la aparición de estas islas en realidad tiene mucho que ver con la relación entre la composición de la atmósfera y las reacciones químicas que allí se dan, los lagos y los materiales sólidos que se depositan en la superficie procedentes también de la atmósfera.

TitánLigeia Mare, la segunda masa de líquido más grande de Titán. Obsérvense las numerosas redes de drenaje que desembocan en el mar. Cortesía de NASA/JPL-Caltech/Space Science Institute.

Estos sólidos compuestos de compuestos orgánicos se acumulan cerca de la línea de costa, con el paso del tiempo pueden formar una capa que, al romperse, podría acabar flotando sobre el mar, de una manera muy similar a como ocurre la ruptura de los glaciares terrestres que da lugar a los icebergs u otros trozos de hielo flotante.

Estas masas flotantes estarían durante un tiempo sobre el mar, ya que poco a poco se irían saturando sus poros y poco a poco hundiéndose, como ocurre con la pumita -esa roca de origen volcánico- en la Tierra, que al principio flota y a veces incluso la vemos en los océanos formando grandes “balsas” de roca, pero conforme esos poros se llenan de agua, lentamente se van hundiendo en el agua.

De algún modo estamos hablando de glaciares, pero, en este caso, de compuestos orgánicos que, además, según este estudio, no se disolverían en las masas de metano y etano como tampoco sería muy raro que ocurriese si estas partículas tuviesen una determinada composición.

Algunos de los mares y lagos de la región polar norte de Titán. Si contamos los más pequeños, hay decenas de estos cuerpos de líquido. Cortesía de NASA/JPL-Caltech/Space Science Institute.

Pero este estudio también se centra en un detalle muy importante y que hasta ahora no ha tenido tampoco una explicación clara… ¿Por qué los mares de Titán tienen una superficie tan suave, sin un oleaje visible? Los autores sugieren que podría ser fruto de una capa de compuestos orgánicos sólidos congelados que cubre la superficie de estos, una capa muy fina, dándole esa apariencia poco revuelta.

Si todo va bien, es posible que podamos saber si este estudio está en lo cierto con la llegada de la misión Dragonfly a Titán en el año 2034 y que, si todo va bien, despegará de nuestro planeta en julio de 2028. Esta misión tendrá una duración estimada de unos dos años y no solo nos mostrará la superficie desde el nivel del suelo, sino que será un dron capaz de surcar los cielos de este satélite tan interesante.

Referencias:

Hofgartner, J. D., Hayes, A. G., Lunine, J. I., Zebker, H. A., Stiles, B., Sotin, C., Barnes, J. W., Turtle, E. P., Baines, K. H., Brown, R. H., Buratti, B. J., Clark, R. N., Encrenaz, P., Kirk, R., Gall, A. L., Lopes-Gautier, R., Lorenz, R. D., Malaska, M. J., Mitchell, K. L., . . . Wood, C. A. (2014). Transient features in a Titan sea Nature Geoscience doi: 10.1038/ngeo2190

Yu, X., Yu, Y., Garver, J., Zhang, X., & McGuiggan, P. (2024). The fate of simple organics on Titan’s Surface: A theoretical perspective Geophysical Research Letters doi: 10.1029/2023gl106156

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo El origen incierto de las islas evanescentes de Titán se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Einstein, Tesla, Eratóstenes y sus triángulos

dim, 2024/01/21 - 11:59

Los triángulos son los polígonos más simples, pero los más especiales. Aprendemos en la escuela a temprana edad sus mágicas propiedades, como por ejemplo que sus ángulos siempre suman 180 grados o el famoso teorema de Pitágoras, que se cumple si uno de los tres ángulos es recto. Estas sencillas peculiaridades pueden aplicarse al mundo real y ayudarnos a comprender mejor cómo funcionan las cosas.

Foto: Tusik Only / UnsplashRelatividad especial

La conocida teoría de la relatividad especial de Albert Einstein relaciona el tiempo y el espacio, y da lugar a llamativas consecuencias físicas. Entre ellas, las más mencionadas son la dilatación del tiempo, la contracción de la longitud o el aumento de la energía que podemos medir, si un objeto se desplaza a cierta velocidad con respecto a nosotros. Todo esto parece muy complicado, pero puede expresarse mediante un simple triángulo rectángulo.

La velocidad por el tiempo es igual a la distancia. Si tenemos un láser y un detector colocados a cierta distancia como vemos en la Figura 1, podemos detectar el instante t en el que llega la luz al extremo superior. Como la velocidad de la luz es c, la distancia recorrida es c por t.

Figura 1: Láser y detector: al llegar la luz al detector nos marca el instante t y podemos calcular la distancia recorrida por el haz (c por t).

 

Si, como aparece en la Figura 1, montamos el láser en una plataforma que se mueve a velocidad v, pero en dirección perpendicular a como apuntamos el láser, podemos repetir el experimento, pero esta vez observándolo desde fuera de la plataforma. Como se muestra en la Figura 2, desde fuera veremos un recorrido diagonal del láser, debido a la composición del movimiento vertical y horizontal que percibimos desde el exterior. Como la velocidad de la luz es siempre c, la distancia diagonal recorrida por el láser que vemos desde fuera es c por t’. Finalmente, el tercer lado del triángulo de la Figura 2 es el recorrido horizontal de la plataforma (v por t’).

Figura 2: Distancias recorridas por el láser y la plataforma, observadas desde fuera, completando un triángulo rectángulo

 

Tenemos un triángulo rectángulo, así que podemos aplicar el teorema de Pitágoras: la suma de los cuadrados de los catetos es igual al cuadrado de la hipotenusa. Con este simple cálculo extraemos de este triángulo las transformaciones de Lorenz, que son las fórmulas que nos cuantifican cuánto se dilata el tiempo o se contrae la longitud, si un objeto se mueve a una velocidad v respecto a nosotros. Este factor se llama factor de Lorenz γ. Si llamamos β a la razón entre una velocidad v y la máxima velocidad posible (la velocidad de la luz en el vacío c) podemos construir otro triángulo rectángulo como mostramos en la Figura 3:

Figura 3: Cómo calcular el factor de Lorenz: bajas velocidades (izquierda) y altas velocidades (derecha)

 

Aplicando de nuevo el teorema de Pitágoras podemos fácilmente calcular cuánto se modifican las medidas del tiempo y la longitud cuando los objetos se mueven a mayor o menor velocidad. Vemos por ejemplo que si β es pequeña (bajas velocidades, a la izquierda de la Figura 3), 1/γ es ligeramente menor que 1 y. por tanto, γ es ligeramente superior a 1, con lo cual las medidas del tiempo y longitud apenas se modifican. Para velocidades altas (a la derecha de la Figura 3), 1/γ es muy pequeño, con lo que el factor de Lorenz γ es muy grande, y se produce un gran efecto.

Una de las consecuencias más llamativas de la relatividad especial es la relación energía-momento, que se utiliza en todas partes, desde la mecánica cuántica hasta la relatividad general. Una vez más el teorema de Pitágoras nos permite cuantificar la energía de un objeto de cierta masa y de cierta cantidad de movimiento (momento o ímpetu p). Este triángulo mostrado en la Figura 4 nos permite calcular la energía de cualquier objeto móvil, incluso aquellas partículas sin masa, como los fotones, que viajan a la velocidad de la luz, cuyo cateto derecho de la Figura 4 es nulo, o un objeto inmóvil, cuyo cateto inferior en la Figura 4 sería nulo, pero su energía sería igual a la famosa equivalencia de masa y energía de Einstein E=mc2.

Figura 4: Cómo calcular la energía de un objeto de cierta masa m y cierto momento p.

 

Energía eléctrica

La mayoría de los generadores de electricidad son máquinas rotatorias, como un aerogenerador (“molino” de viento), un salto de agua de un embalse, que mueve las turbinas de una central hidroeléctrica, o el vapor de agua que se produce en una central nuclear o en una térmica, que también actúa sobre sus turbinas de vapor, que giran y generan electricidad.

Al ser máquinas rotatorias, la electricidad que se produce es de corriente alterna. Las señales alternas se expresan de forma compacta en matemáticas con números complejos, lo cual a veces parece algo muy complicado de entender, pero de nuevo aparecen los sencillos triángulos para representar gráficamente la tensión (voltios), la corriente (amperios) y la impedancia (ohmios) de cualquier circuito eléctrico.

La potencia eléctrica que nos da un suministrador es el producto de la tensión por la corriente eléctrica que circula cuando enchufamos un aparato. Resulta que si medimos los voltios y los amperios alternos que circulan, puede ser que estas oscilaciones no se produzcan a la vez, sino que la corriente esté ligeramente desfasada con respecto a la tensión. Este desfase se representa en la Figura 5 mediante el ángulo φ del triángulo mostrado. Este triángulo nos indica que si el desfase φ es grande, no aprovechamos bien la electricidad generada y transportada. En trigonometría el coseno de un ángulo pequeño es cercano a 1, y el cosφ es el conocido factor de potencia eléctrica, que cuanto más cerca esté de 1, más eficiente resulta el circuito.

Figura 5: Potencia eléctrica Activa (P: que hace trabajo), Aparente (S: que debe generarse y transportarse) y Reactiva (Q: que no se aprovecha). Si conseguimos que la corriente y la tensión oscilen en fase (φ=0), aprovechamos eficientemente la energía eléctrica

El desfase φ se produce típicamente por la gran cantidad de cableados y bobinados que son necesarios para generar, transformar y transportar la energía eléctrica. Para mejorar la eficiencia podemos contrarrestar el desfase en este caso mediante un conjunto de condensadores eléctricos para regular φ hacia valores mínimos y mejorar el factor de potencia.

Medida del radio de la tierra

Eratóstenes de Cirene (276-194 a.e.c.) fue uno de los sabios de la antigüedad que más conocimiento pudo adquirir y aplicar, al hacerse cargo de la Biblioteca de Alejandría durante más de 40 años. Entre sus muchas contribuciones a la ciencia, la maravillosa criba de Eratóstenes, sencillo algoritmo para obtener números primos y la medida del radio de la Tierra con instrumental rudimentario son, en mi opinión, sus más alucinantes aportaciones, por la importancia de sus resultados aplicados, la simplicidad de su realización y la potencia de su razonamiento.

No sabemos con todo detalle cómo midió Eratóstenes el radio de la Tierra, ya que no nos han llegado sus escritos directos, sino lo narrado por otros autores. Así todo, es brillante su observación de que el solsticio de verano, el sol al mediodía no arrojaba sombra en los pozos de Siena (hoy Asuán), y, sin embargo, en su ciudad, Alejandría, los árboles, obeliscos o palos verticales sí que proyectaban sombra de longitud medible.

Figura 6: Posible medida de Eratóstenes y sus colaboradores

 

Si Eratóstenes utilizó alguno de los antiguos obeliscos de Alejandría, de una altura aproximada de 21 metros, pudo medir una sombra bien mensurable de unos 2,6 metros. Sus colaboradores o los datos de la Biblioteca le dieron una medida de distancia entre las ciudades de Asuán y Alejandría de aproximadamente 800 kilómetros (ver Figura 6).

El cálculo de Eratóstenes suele narrarse con cierta exactitud geométrica, al aplicar el quinto postulado de Euclides, de Los Elementos, que con seguridad se hallaba presente en la Biblioteca de Alejandría. Este postulado equivale a que los ángulos de cualquier triángulo suman 180 grados, o también que, si dos rectas son paralelas, los ángulos alternos internos formados con otra recta que corta a ambas son iguales. Sin embargo, resulta muy complicado medir con exactitud un ángulo tan pequeño como el de los rayos del sol proyectando sombra en Alejandría, ya que Eratóstenes no disponía entonces de cálculo trigonométrico.

Figura 7: Posible cálculo de Eratóstenes, utilizando la longitud de los catetos de dos triángulos semejantes en lugar de un ángulo difícil de medir. Nótese que el ángulo real de Eratóstenes es aún mucho menor que el mostrado en este diagrama

 

Para evitar un cálculo fino de 7,2 grados, y, por tanto, el ángulo del sector terrestre que separa ambas ciudades, en la Figura 7 se muestra un posible cálculo no exacto, pero sí sencillo, que es plausible Eratóstenes pudo haber usado para obtener el radio de la Tierra. Se trata de dos triángulos semejantes. Tenemos bien medidos los dos catetos del triángulo pequeño del obelisco, y aproximadamente medido el cateto pequeño del triángulo grande, que es la distancia entre ambas ciudades. Esta distancia curva entre ciudades es solo ligerísimamente inferior a la longitud L mostrada en la Figura 7, de modo que la magia de dos triángulos semejantes permitiría a Eratóstenes efectuar una simple regla de tres, y el radio de la Tierra es R=L(h/s), es decir R = 800 km (21 m/2,6 m) = 6461 km. Los triángulos son asombrosos.

Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)

El artículo Einstein, Tesla, Eratóstenes y sus triángulos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¡Ups! Galileo y las mareas

sam, 2024/01/20 - 11:59

Muchos desconfiaron de la teoría de Johannes Kepler para explicar las mareas. Según el astrónomo alemán, estas se debían por alguna clase de atracción misteriosa que la Luna ejercía sobre las mareas. Uno de los que desconfió de esta teoría fue Galileo Galilei y se puso a pensar en la suya propia. Para él las mareas eran producto de la rotación y la traslación de la tierra. Aquello parecía tener todo el sentido del mundo. Al girar sobre sí misma y alrededor del sol, la tierra sufría aceleraciones y desaceleraciones periódicas. Hoy sabemos que Galileo se equivocó y las arriesgadas intuiciones de Kepler eran correctas.

Los vídeos de ¡UPS¡ presentan de forma breve y amena errores de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se han emitido en el programa de ciencia Órbita Laika (@orbitalaika_tve), en la 2 de RTVE.

Producción ejecutiva: Blanca Baena

Guion: José Antonio Pérez Ledo

Grafismo: Cristina Serrano

Música: Israel Santamaría

Producción: Olatz Vitorica

Doblaje: K 2000

Locución: José Antonio Pérez Ledo

Edición realizada por César Tomé López

El artículo ¡Ups! Galileo y las mareas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Primera vía metabólica que produce óxido nítrico en plantas a partir de aminoácidos

ven, 2024/01/19 - 11:59

Una investigación, liderada por la Universidad Pública de Navarra (UPNA) y en la que colabora la Universidad del País Vasco (UPV/EHU), muestra la primera vía metabólica que produce óxido nítrico (NO) en plantas a partir de aminoácidos y la importancia de las oximas, un tipo de compuestos químicos, como productoras de dicha molécula. Este hallazgo, anhelado durante más de veinte años en el ámbito de la biología vegetal, tiene potenciales aplicaciones en la agricultura y la medicina.

óxido nítrico

El monóxido de nitrógeno (según la nomenclatura IUPAC), más conocido como óxido nítrico, una molécula pequeña (un átomo de nitrógeno unido a un átomo de oxígeno, NO), gaseosa e incolora, juega un papel clave como señalizador en muchas funciones vitales de los organismos vivos. En humanos regula aspectos cruciales como la salud cardiovascular e influye en el rendimiento deportivo. Además, está involucrado en la síntesis de antioxidantes y en procesos inflamatorios. Su importancia fue reconocida con el Premio Nobel de Medicina de 1998.

A diferencia de los animales, que producen óxido nítrico a través de una enzima (denominada NO sintasa), las plantas han utilizado predominantemente para su síntesis un proceso reductivo: toman nitrato y, a través de procesos enzimáticos mediados por la nitrato reductasa, lo convierten en óxido nítrico. Hasta este trabajo no se habían identificado, ya sea en experimentos de laboratorio o en condiciones naturales dentro de las plantas, vías metabólicas que pudieran producir óxido nítrico a partir de dos fuentes: el amonio libre (NH4+), usado como fertilizante, y los aminoácidos (los componentes básicos de las proteínas que también contienen nitrógeno).

“Aunque puede parecer que el asunto es trivial, desde hace muchos años se consideraba una cuestión no resuelta en biología vegetal y se sospechaba que su descubrimiento permitiría entender otros procesos esenciales en las plantas, como así está siendo. De hecho, a principios de siglo, importantes publicaciones científicas dieron a conocer varios trabajos en este ámbito, luego retractados por no ser correctos. En 2004, la revista Science se hizo eco de estos reveses y reconoció la importancia de encontrar esta vía metabólica. Aunque en los años posteriores se han publicado innumerables trabajos sobre esta cuestión, ninguno había llegado a mostrar una vía bioquímica que condujese a la producción de óxido nítrico a partir de nitrógeno reducido, como el del amonio, o los aminoácidos”, explica el catedrático José F. Morán, del IMAB (Instituto de Investigación Multidisciplinar en Biología Aplicada) de la UPNA .

Resistencia de las plantas ante el estrés

La investigación ha revelado una vía alternativa: la producción de óxido nítrico utilizando enzimas, llamadas peroxidasas, que actúan sobre un tipo de compuestos químicos, las oximas (como la indolacetaldoxima). Esta investigación promete mejorar la tolerancia de las plantas a condiciones de estrés, como la sequía, y podría influir en la nutrición vegetal, particularmente, en contextos de uso sostenible de fertilizantes.

Las aldoximas estudiadas han mostrado formar óxido nítrico en pequeñas cantidades ‘in vitro’ —en tubos de ensayo— e ‘in vivo’ —dentro de las células vivas de la planta—, y todas muestran un efecto inductor en el crecimiento de raíces laterales “lo que podrá ayudar a mejorar la tolerancia de las plantas en procesos de estrés como la sequía. Pero como tienen un efecto hormonal, representarán una herramienta útil con la que simular etapas del desarrollo vegetal, especialmente, en otras condiciones de estrés como la deficiencia de nutrientes, las altas temperaturas o la tolerancia a la nutrición con amonio como única fuente de nitrógeno. Este tipo de nutrición es importante, por ejemplo, cuando se quieren utilizar los purines de ganadería en vez de emplear fertilizantes nitrogenados fabricados con gran consumo de combustibles fósiles”, indica el equipo investigador.

Investigación en salud humana

Además, el papel de las aldoximas en la producción de óxido nítrico podrá abrir caminos en la investigación en humanos: en concreto, sobre enfermedades cardiovasculares y en el diseño de nuevos fármacos. A ello se suman otras vías de estudio relacionadas con la salud de las personas. “La indolacetaldoxima es una molécula con una importante homología estructural con la serotonina y con la melatonina, las hormonas de la felicidad, y de los ciclos circadianos y del sueño en humanos, respectivamente —señala José F. Morán—. El descubrimiento de su efecto y su modo de acción generará nuevos abordajes en los estudios para entender mejor los efectos de estas dos hormonas. Asimismo, las bacterias digestivas son capaces de sintetizar estas hormonas beneficiosas, por lo que indolacetaldoxima es una candidata de interés en el análisis de la señalización entre el cuerpo humano y sus bacterias intestinales”. Y el óxido nítrico “también está implicado en la gestión del ciclo celular y será esencial estudiar su efecto sobre células cancerosas y metastáticas”, concluye el catedrático de la UPNA.

Referencia:

López-Gómez P., Buezo J., Urra M., Cornejo A., Esteban R., Fernández de los Reyes J., Urarte E., Rodríguez-Dobreva E., Chamizo-Ampudia A., Eguaras A., Wolf S., Marino D., Martínez-Merino V., and Moran J.F. (2024) A new oxidative pathway of nitric oxide production from oximes in plants Mol. Plant. doi: 10.1016/j.molp.2023.12.009

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

 

El artículo Primera vía metabólica que produce óxido nítrico en plantas a partir de aminoácidos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

No estaban tan locos estos romanos

jeu, 2024/01/18 - 11:59

He modificado ligeramente una famosa cita que Obélix repite constantemente en todos los cómics de Uderzo y Goscinny porque resume muy bien el tema que voy a tratar en esta ocasión: los secretos geológicos que se esconden detrás de las técnicas de construcción de la República y el Imperio Romanos.

hormigónTestigo de hormigón romano del siglo I de nuestra era (izquierda), que resiste una compresión superior a 100 kg/cm2, y testigo de hormigón del siglo XXI fabricado con las técnicas modernas (derecha), resistente a compresiones de 200 a 300 kg/cm2. Muestras expuestas en el Museo del Teatro Romano de Caesaraugusta (Zaragoza). Foto: Blanca María Martínez

Si hay algo que realmente nos sorprende de la Roma clásica es que muchas de sus colosales edificaciones han resistido en pie más de 2000 años. Y esas impresionantes dotes de ingeniería tienen que ver con sus conocimientos geológicos, posiblemente a partir de descubrimientos involuntarios pero funcionales. Pero no me estoy refiriendo a las rocas de diferente origen, composición y hermosas coloraciones naturales usadas como materiales ornamentales en fachadas, escalinatas o estatuas, sino al componente empleado para anclar los cimientos y levantar los muros de sus construcciones, el hormigón.

Seguro que todo el mundo que está leyendo este texto se ha acercado alguna vez a una obra y ha visto al personal vertiendo, generalmente a paladas, un par de materiales en una hormigonera, añadirle agua y esperar a que la máquina de varias vueltas para mezclar bien todos los componentes y generar así una pasta grisácea a la que denominamos hormigón. Uno de esos materiales que se añaden a la mezcla son los áridos, es decir, rocas que se rompen y machacan hasta alcanzar tamaño grava o arena. Y el otro es el cemento, una mezcla de arcillas y calizas deshidratadas tras calentarlas por encima de los 1200ºC, obteniendo así una cal viva (óxido de calcio) que tiene la propiedad de endurecerse al añadirle agua.

hormigónDetalle de los cimientos de uno de los muros del Teatro Romano de Caesaraugusta (Zaragoza), construido en el siglo I de nuestra era, a partir de la mezcla de cal viva, arena y cantos extraídos de las terrazas fluviales del río Ebro, mezcladas con el agua dulce del mismo. Los cantos de la imagen tienen tamaños superiores a los 5 cm de largo. Foto: Blanca María Martínez

El hormigón parece ser el típico producto complejo descubierto recientemente debido a la evolución técnica en el mundo de la construcción, pero nada más lejos de la realidad. Desde al menos el siglo II antes de nuestra era, los romanos ya empleaban esta misma técnica para fabricar su propio hormigón, el denominado opus caementicium. Lo que hacían era calcinar la roca caliza en hornos de cocción, o caleros, hasta los 500-600ºC para obtener la cal viva utilizada como cemento mezclándola con arena y agua, añadiendo después cantos y fragmentos de rocas para obtener un hormigón tan resistente que emplearon para rellenar encofrados que actuaban como cimientos o soportes de muros de carga en sus construcciones.

Incluso, en poco tiempo le dieron una vuelta de tuerca a esta receta, consiguiendo mejorarla. En la zona de la bahía de Nápoles empezaron a utilizar una ceniza volcánica denominada puzolana (formada por óxidos de aluminio y silicio) para mezclarla con el resto de la arena. Y descubrieron que esta nueva mezcla podía ser utilizada en medios acuáticos, como el litoral marino, incluso aumentando la resistencia del hormigón, debido a una reacción química entre el agua de mar y la puzolana, que da lugar a la formación de nuevos minerales (como la tobermorita rica en aluminio) que consolidan los materiales.

hormigónVista general de las gradas del Teatro Romano de Caesaraugusta (Zaragoza), con las marcas dejadas por los dientes metálicos de la pala excavadora que sacó a la luz los restos de la construcción al rozar con el hormigón romano endurecido. Foto: Blanca María Martínez

Pero el uso de ceniza volcánica en la mezcla no es el único secreto de la durabilidad del hormigón romano. Recientemente, un equipo internacional de investigadoras e investigadores ha descubierto que los romanos mezclaban la cal viva (óxido de calcio) con pequeñas partículas de cal apagada o cal hidratada (hidróxido de calcio), un compuesto muy reactivo que es capaz de generar carbonato cálcico. Esto aporta al hormigón romano una capacidad de autorregeneración similar a la mostrada por el T-1000 de la película Terminator 2 mediante el siguiente proceso: cuando el material se fracturaba, podía circular agua por las grietas y reaccionar con las partículas de cal apagada, dando lugar a un fluido cargado en calcio que precipitaba en forma cristalina como carbonato cálcico, actuando como una especie de parche que cerraba la grieta. Si encima el hormigón tenía puzolana en su composición, la reacción química con el agua lo endurecería aún más. Y, de esta manera, las construcciones romanas han podido resistir el paso del tiempo por más de 2000 años.

La receta de este hormigón tan increíble nunca se dejó por escrito, al menos de manera detallada, ya que las menciones de los escritores romanos a sus técnicas de construcción fueron demasiado vagas e, incluso, ambiguas. Por eso, tras la caída del Imperio Romano, se dejó de emplear y no se ha conseguido replicar, con algunas diferencias, hasta hace un par de siglos.

Por supuesto, hay que darle al césar lo que es del césar, y es innegable que los romanos fueron unos maestros en los avances técnicos y de ingeniería, además de saber aprovechar las características geológicas de los materiales que utilizaron, aunque no conociesen exactamente la base científica en la que sustentaban sus éxitos. Pero es bien sabido que siempre copiaban e intentaban mejorar todo aquello que aprendieron de la gran civilización mediterránea previa. Por lo que sí, el primer hormigón de la historia se descubrió unos cuatro siglos antes en Grecia, preparándolo con una mezcla de cal viva, arena, rocas molidas y agua. Y sí, también usaban fragmentos de rocas volcánicas en esa argamasa. Aunque los griegos no fueron capaces de encontrar esos secretitos de la durabilidad y autorregeneración que descubrieron los romanos, aunque lo hiciesen por pura casualidad.

Referencia:

Linda M. Seymour et al. (2023) Hot mixing: Mechanistic insights into the durability of ancient Roman concrete. Science Advances doi:10.1126/sciadv.add1602

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo No estaban tan locos estos romanos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Pages