Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 48 min 37 sec ago

Objetivo: Diezmar los mosquitos con caballos de Troya

Mon, 2023/10/09 - 11:59

Los animales que más vidas humanas se llevan por delante no son las serpientes, ni los perros y ni siquiera los propios seres humanos, sino diminutos insectos, en apariencia inofensivos, aunque letales: los mosquitos. Como vectores de multitud de enfermedades infecciosas (dengue, malaria, zika, fiebre amarilla, chikungunya, virus del Nilo Occidental…), estos insectos son unos de los principales enemigos de la Salud Pública mundial. Se calcula que diferentes especies de mosquito provocan, de forma indirecta, la muerte de en torno a 750.000 personas al año. Todo ello a pesar de las diversas medidas que se toman diariamente para limitar su número y evitar que piquen a los humanos: eliminación y tratamiento de aguas estancadas, mosquiteras, repelentes, insecticidas…

Fuente: Pixabay

Para empeorar aún más las cosas, la crisis climática está potenciando la expansión de los mosquitos a nuevos territorios. Las inundaciones y las olas de calor cada vez más frecuentes y graves en Europa, junto con unos veranos más cálidos y largos, crean unas condiciones más favorables para la expansión de los mosquitos invasores Aedes albopictus (más conocido como «mosquito tigre») y Aedes aegypti, que no son propios de esta zona del planeta. España atestigua la gran capacidad que tiene el mosquito tigre para extenderse: la primera vez que se detectó su presencia fue en Sant Cugat del Vallés en el verano de 2004, desde entonces este vector ha conseguido expandirse ya por casi todo el país.

En esta eterna lucha contra los mosquitos, los científicos llevan décadas investigando una solución más drástica para combatirlos: liberar individuos con ciertas características especiales para que se integren en las poblaciones de mosquitos y así destruirlas desde dentro, como si fueran caballos de Troya.

En ese sentido, una estrategia radical es modificar genéticamente a estos insectos para que se vuelvan estériles y así erradicar poblaciones completas al transmitir este rasgo entre los individuos a lo largo de sucesivas generaciones. Es algo que se ha conseguido ya en el laboratorio y que se ha probado en el mundo real. En 2019, por ejemplo, se liberaron por primera vez mosquitos macho genéticamente modificados para ser estériles en Burkina Faso. Los investigadores comprobaron que muchos de estos insectos murieron sin dejar descendencia, mientras que otros sí que fueron capaces de reproducirse con las hembras, pero sin llegar a tener descendencia viable. En conjunto, esto contribuyó a que el número total de mosquitos disminuyera de forma significativa en la zona.

Otra opción para diezmar a los mosquitos es la liberación de mosquitos portadores de bacterias Wolbachia. Este género de bacterias es muy común y se encuentra de forma natural en torno al 50-60 % de los insectos, incluyendo a algunas especies de mosquito, pero no todas. La especie Aedes aegypti, por ejemplo, vector principal de numerosas enfermedades infecciosas, no es portadora natural de Wolbachia. Sin embargo, es posible introducir estas bacterias a través de diferentes métodos, como depositarlas en los huevos.

El efecto positivo para los humanos es doble cuando se liberan mosquitos con Wolbachia en poblaciones de estos insectos. Por un lado, los mosquitos macho con estas bacterias que se aparean con los mosquitos hembra pueden dar como resultado huevos que no son viables. Este fenómeno, cuyos detalles siguen sin comprenderse todavía muy bien, se debe a que dichas bacterias causan una incompatibilidad citoplasmática entre los espermatozoides y los óvulos, de forma que los primeros son incapaces de fertilizar a los segundos.

Además de este efecto, cuando los mosquitos A. aegypti portan bacterias Wolbachia ocurre un hecho peculiar: estos microorganismos dificultan la transmisión de diferentes virus (como aquellos que causan dengue, zika, chikungunya, fiebre amarilla…) a través de su picadura. Estas bacterias compiten con los virus por los recursos biológicos en el interior de las células de los mosquitos y dificultan su multiplicación, por lo que el riesgo de contagio cuando una persona sufre una picadura con algún mosquito portador de Wolbachia y algún virus patológico es mucho menor. Además, los mosquitos con esta bacteria pueden ir transmitiéndola progresivamente con el paso del tiempo a sus compañeras, hasta que gran parte de la población sea portadora.

Esta última estrategia, la liberación de mosquitos con bacterias Wolbachia, se ha puesto a prueba en múltiples ocasiones en el mundo real (en un total de 13 países) con muy buenos resultados. Además, se ha comprobado que es una opción segura tanto para las personas como para el medio ambiente. Hace unos años, en Yumbo, Colombia, se liberaron mosquitos con estos microorganismos para limitar los casos de dengue en dicha zona. Más recientemente, Médicos Sin Fronteras ha puesto en marcha en Honduras, junto al Ministerio de Salud del país y el World Mosquito Program, la suelta de mosquitos A. aegypti con Wolbachia para reducir la capacidad de dichos insectos para transmitir diferentes tipos de virus como el que provoca el dengue.

La ventaja de este enfoque, a diferencia de extinguir poblaciones enteras de mosquitos al dejarles estériles mediante ingeniería genética, es que no existe el riesgo de alterar los ecosistemas en los que habitan los mosquitos. Aunque provoquen estragos en la salud del ser humano, los mosquitos también cumplen su papel en la naturaleza y eliminarlos podría provocar cambios perjudiciales sobre otras especies animales y vegetales. Al fin y al cabo, los mosquitos (hembra) no solo chupan la sangre, también polinizan plantas y son el alimento de multitud de animales como diferentes tipos de peces, aves, murciélagos, ranas o cangrejos.

Nuestra visión antropocéntrica (especialmente desde el punto de vista de la medicina) no debería hacernos olvidar que, por mucho odio que tengamos hacia el mosquito, este insecto simplemente se alimenta de nosotros para reproducirse (poner huevos) y tiene su función útil en los ecosistemas. Que sea portador de enfermedades infecciosas que matan a infinidad de personas cada año es un efecto colateral.

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo Objetivo: Diezmar los mosquitos con caballos de Troya se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Aplaudir

Sun, 2023/10/08 - 11:59

aplaudir

Aplaudir. 1. Palmotear en señal de aprobación o entusiasmo. 2. Celebrar a alguien o algo con palabras u otras demostraciones.

Diccionario RAE.

Quiero medir por dónde deben ir mis pasos, condicionar cuál debe ser mi actitud, presentarme ante vosotros resistiendo hasta donde deba resistir los impulsos arrebatadores de vuestros aplausos, obedeciendo al mandato de mi conciencia.

Conferencia de Don Niceto Alcalá Zamora pronunciada en el Teatro de Apolo, de Valencia el día 13 de abril de 1930.

Doña Elena llegó sobre las 21.40 horas a la plaza de toros acompañada de su prima. Ambas entraron en el coliseo con discreción, pero la nube de fotógrafos y cámaras de televisión que las rodeaba advirtieron a los aficionados, que se encontraban en la plaza y que al reconocerla rompieron en un aplauso.

Entrada de Doña Elena en la Plaza de Toros de Palma el 13 de agosto de 2010.

Por su complejidad, utilidad y ubicuidad en contextos sociales y culturas, el interés por los aplausos podría extenderse a politólogos, historiadores, sociólogos, musicólogos, psicólogos, etólogos y todo observador humano curioso.

Alan Crawley, 2023.

aplaudirFoto: Valentin Lacoste / Unsplash

Hace unas semanas, en la retransmisión de las etapas del Tour de Francia o de la Vuelta a España y en los debates de investidura en el Congreso de Diputados, había multitud de personas aplaudiendo a ciclistas y diputados. Aplaudían todos, desde los bebés colocados en hombros de sus padres hasta los ancianos en silla de ruedas, incluso, y mucho, lo hacían los diputados cuando discurseaba su líder. Y, sin embargo, son escasos los estudios científicos y las hipótesis sobre el origen, función e intención de los aplausos, de la acción de aplaudir, del palmoteo en señal de aprobación o, incluso, de entusiasmo, como lo describe el Diccionario. Hoy los aplausos suceden a diario en miles de eventos, desde cumpleaños hasta actos políticos.

El aplauso, en general, es un refuerzo de la identidad de grupo, esencial en la conducta de la especie humana. Con ello se consolida el grupo, hacia su interior, y se evidencia su separación de otros grupos, hacia el exterior. Pero el aplauso requiere coordinación y es interesante conocer como se consigue.

La importancia del aplauso como señal de aprobación o reconocimiento es algo conocido desde la antigüedad. Por ejemplo, se cuenta que el emperador Nerón pagó a 5000 caballeros y soldados, los llamados Augustiani, para vitorear sus apariciones públicas con aplausos. Los directores de teatro y los empresarios descubrieron que podían hacer lo mismo en sus eventos, contratando gente para aplaudir; era y es la claque. En el siglo pasado, la televisión y los medios encontraron que podían copiar esta estrategia con la risa enlatada o, si se quiere, con el aplauso enlatado. Así incluso los políticos dan la apariencia de que más personas asistieron a sus mítines. Otra función social conjunta de los aplausos colectivos es habitual cuando un equipo de fútbol sale al campo de juego y el público recibe a los jugadores con cánticos, estruendo y aplausos. Aplaudir cumple dos funciones: expresar apoyo al equipo e intimidar al rival. 

En fin, como escribe Alan Crowley, de la Universidad del Salvador en Buenos Aires, hoy en día, hay muchas preguntas sin resolver y grandes lagunas en el conocimiento como para afirmar que el comportamiento de los aplausos está poco estudiado, que la razón de los evidentes y extendidos aplausos en la especie humana es poco conocida.

Una definición de aplaudir

En primer lugar, la definición de aplauso. Para Alan Crowley, después de revisar la bibliografía, considera que no es fácil llegar a una conclusión. Este autor, después de debates y dudas, nos ofrece una definición realmente extensa y detallada:

Aplaudir es una acción corporal universal realizada conscientemente en la que los dos movimientos primarios son 1) el movimiento lateral hacia adentro de los antebrazos en el eje transversal, generalmente, hacia el centro del eje sagital y 2) la connivencia entre las manos abiertas izquierda y derecha contra cada una de ellas en una posición frecuente prototípica, con variaciones en las opciones de mano, brazo y postura, que produce a partir del golpe un sonido acústico humano ampliamente reconocible. El objetivo mecánico de tal acción es comprimir y explotar una pequeña burbuja de aire entre las palmas de las manos. Se realiza con una posterior repetición constante de la misma acción en la mayoría de los casos, siguiendo un ritmo relativamente estable con tendencia a aumentar o disminuir la cantidad de palmadas por minuto. Una cosa más es que los aplausos generalmente se realizan con la intención de comunicar algo.

Una definición compleja que merece meditación, debate y conclusiones. Además, hay que añadir que una persona puede aplaudir pero solo se convierte en aplauso cuando varias lo hacen repetidamente y al mismo tiempo.

Así, por ejemplo, el grupo de Z. Neda, desde la Universidad Babes-Bolyai de Cluj-Napoca, en Rumania, escribe que una audiencia expresa aprecio por una buena actuación por la fuerza y ​​la naturaleza de sus aplausos. El estruendo de los primeros aplausos a menudo se convierte repentinamente en aplausos sincronizados, y esta sincronización puede desaparecer y reaparecer varias veces durante los aplausos. Primero, los aplausos iniciales no están sincronizados, pero se sincronizan eliminando, cada participante, el segundo golpe del aplauso. El fenómeno es una expresión de auto organización social que muestra un ejemplo a escala de la especie humana de los procesos de sincronización que ocurren en numerosos sistemas naturales, que van desde las luciérnagas asiáticas hasta las reacciones químicas oscilantes.

Por otra parte, es curioso, según los autores, que la sincronización es más habitual en los aplaudidores de Europa oriental mientras que solo se da esporádicamente en Europa occidental o en Norteamérica.

Es evidente que los políticos, o los actores, buscan el aplauso de su audiencia durante sus discursos. Peter Bull, de la Universidad de York, en Inglaterra, publicó una revisión de lo publicado sobre este tema hasta 2006. La primera conclusión es que se sobreestiman los trucos de los oradores para provocar el aplauso de sus seguidores. Y, por el contrario, hay otros dispositivos poco estudiados como, por ejemplo, los aplausos que no están sincronizados con el texto del discurso, el conocimiento previo por la audiencia del contenido del discurso, y, también, los aplausos no invitados, no preparados de antemano.

La falta de relación entre discurso y aplauso provoca que solo el 61% de los aplausos están verdaderamente sincronizados. Hay cuatro incidentes principales detrás de esta no sincronización: aplausos aislados y no del grupo, aplausos retrasados respecto del texto del discurso, aplausos que interrumpen al político y aplausos interrumpidos por el propio orador.

Para Crowley, aplaudir puede tener motivaciones muy antiguas en la historia de Homo sapiens:

1. Redirigir la atención de los compañeros hacia un evento o hacia el individuo mismo,

2. Señalar afiliación o no a través de momentos de entusiasmo que invitan a un encuentro lúdico,

3. Amenaza con códigos visuales y auditivos,

4. Mensaje afectivo,

5. Crear pertenencia colectiva al grupo con sincronización de conductas.

Y desde el significado cultural, el aplauso puede funcionar para:

1. Aprobación, con aplausos

2. Celebración, generalmente con aplausos

3. Apoyo, con aplausos

4. Cooperación, generalmente con aplausos

5. Intimidación, con aplausos

En conclusión, escribe Alan Crawley, aplaudir es una conducta con muchas variantes según los mensajes que se transmiten y según las formas de hacerlo. Aplaudir es una conducta típica que incluye significados positivos de apoyo y aprobación. El tipo de mensajes enviados con los aplausos quizá dependa de diferencias en la conducta de cada persona. Los aplausos se pueden realizar de diferentes maneras y con diferentes propósitos y significados y, por ello, los mensajes que se envían contienen mensajes no verbales polisémicos y multipropósito. Las funciones que cumple el aplauso podían ser una o varias de las siguientes: 1) atraer o redirigir la atención, 2) ser una invitación lúdica a participar en el juego, o 3) es amenaza visual y acústica ante cualquier alarma. Estas tres funciones se cumplen al menos en parte con los aplausos, tal como los utilizamos en este siglo en la mayoría de las situaciones sociales. Pero parece que el mensaje de aprobación del aplauso es la función principal del aplauso en nuestra cultura.

Aprender a aplaudir

Todo lo anterior plantea una pregunta interesante: quizá aplaudir no sea un comportamiento innato sino adquirido durante el desarrollo. Si es así, ¿cuándo y cómo aprenden los humanos a aplaudir?  ¿Aprendimos a aplaudir o es un legado biológico? Posiblemente, los humanos aprendan primero a aplaudir, y solo después del desarrollo de habilidades cognitivas específicas puedan usar el aplauso como tal, como aplauso.

Si el aplauso se adquiere durante la ontogenia, debe tener un origen accesible a toda la humanidad y ser fácil de aprender para justificar su distribución mundial. El Homo sapiens ha desarrollado una serie de patrones de conducta universales, como reír, bostezar y sonreír, presentes en las culturas más heterogéneas, todos los cuales tienen un repertorio con diferentes significados que pueden transmitir. Sin embargo, tienden a ocurrir transculturalmente con mayor frecuencia, en relación con un conjunto concreto de situaciones y significados. La cuestión es si el aplauso puede ser una conducta en esta misma categoría.

Para el inicio del aplauso solo se necesita que una persona comience a aplaudir para que este comportamiento sea adoptado y replicado por todos los demás. El hecho de que un solo individuo pueda provocar espontáneamente un acto cooperativo transitorio entre pocas o, incluso, miles de personas merece destacarse como una de las pocas conductas de nuestra especie que se copia e imita con tanta rapidez y participación. Quizá al ser un acto poco representativo de la identidad de cada individuo, puede aumentar la probabilidad de realizarlo con anonimato y, por tanto, es más fácil de utilizar para rituales sociales colectivos.

En el estudio de Paula Fitzpatrick y sus colegas, de la Universidad de Connecticut en Storrs, se muestra que los niños aprenden a aplaudir tarde durante el primer año de vida aunque no tienen la coordinación necesaria para producir una secuencia estable y predecible de palmadas, característica de la sincronía del aplauso. El grupo estudiado lo forman 20 niños de 3 a 7 años de edad. Parece que aplaudir es más difícil de aprender que otras actividades corporales básicas. El control motor óptimo necesario para producir un aplauso constante se desarrolla solo a partir de los siete años. Quizá el niño descubre el aplauso al chocar las palmas y se ayuda de la imitación de lo que observa en personas de más edad. Y, finalmente, se entrenará para conseguir un aplauso específico para conseguir un palmoteo concreto.

La hipótesis más aceptada es la que dice que aplaudir era un vehículo de comunicación cuando los ancestros de los primates carecían de aparatos vocales adecuados para producir el lenguaje en un momento dado de la evolución, pero tenían los músculos y la capacidad motora y estructural indispensables para producir palmas. Aplaudir es un modo de comunicación compartido con otros primates como, por ejemplo, los gorilas, tal como describen Ammie Kalan y Hugo Rainey, de la Universidad Brookes de Oxford y de la Sociedad de Conservación de la Vida Salvaje de Brazzaville, en la República del Congo, y es probable que la especie humana haya heredado esta conducta de algún predecesor primate. Para Kalan y Rainey, en los gorilas de Likouala, en el nordeste del Congo, aplaude una hembra adulta, da dos palmadas cada vez y parece un comportamiento que mantiene y refuerza la cohesión del grupo durante alguna amenaza. También se han detectado palmas en chimpancés de Guinea, en las montañas Nimba, para difundir alguna alarma en el grupo. Por otra parte, también las focas, otro grupo de mamíferos, aplauden con sus extremidades anteriores.

Todo lo anterior sobre la evolución del aplauso son especulaciones ya que las palmas son la señal no vocal con mayor volumen acústico y consiguen una capacidad muy eficaz de proyección de volumen. Esta es una acción simple, rápida y efectiva. Sin embargo, por ello mismo, su origen es borroso y siempre en debate. 

La biología es la causa y el origen de muchos de nuestros comportamientos como especie. Cada gesto, expresión, postura o sonido que emitimos los humanos desde el principio hasta el final de nuestra vida está diseñado, influenciado, limitado y adquirido por nuestra biología y también moldeado por la cultura e individualidad humanas. 

Los que hayan obtenido como producto de sus acciones, logros o reputación, y los aplausos de sus compañeros habrán experimentado satisfacción y disfrute. Dado que los aplausos provocan en la persona bienestar en la mayoría de los casos, es probable que los humanos hayan repetido conductas que impulsaron el aplauso de los demás hacia ellos. Quizás una parte de las conductas en los adultos venga de buscar la aprobación no verbal con el aplauso por parte de las personas influyentes más cercanas. Por ejemplo, después de completar una tarea, el niño que recibió una serie de aplausos puede intentar repetir ese comportamiento en el futuro para revivir el refuerzo positivo. En función del nivel de positividad experimentado tras la realización de la acción, el organismo tiende a repetir o no la acción. 

Así, el lector puede deducir sus propias conclusiones hasta que no quede duda sobre el verdadero origen del aplauso. En la ciencia encontrará respuesta, pero mientras tanto, el conocimiento imperfecto es mejor que ninguno para navegar en las aguas de nuestro entorno social. Siempre es mejor tener una teoría para comprender un comportamiento de uso frecuente y ampliamente transcultural en lugar de no tener nada.

Referencias:

Bull, P. 2006. Invited and uninvited applause in political speeches. British Journal of Social Psychology 45: 563-578.

Bull, P. & M. Noordhuizen. 2000. The mistiming of applause in political speeches. Journal of Language and Social Psychology 19: 275-294.

Crawley, A. 2023. Clap, clap, clap – Unsystematic review essay on clapping and applause. Integrative Psychological and Behavioral Science doi: 10.1007/s12124-023-09786-9.

Fitzpatrick, P. et al. 1996. Dynamical patterns in the development of clapping. Child Development 67: 2691-2708-

Kalan, A. K. & H.J. Rainey. 2009. Hand-clapping as a communicative gesture by wild female swamp gorillas. Primates 50: 273-275.

Mouratidis, J. 1985. Nero: The artist, the athlete and his downfall. Journal of Sport History 12: 5-20.

Neda, Z. et al. 2000. The sound of many hands clapping. Nature 403: 849-850.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Aplaudir se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

¡Ups! La constante cosmológica

Sat, 2023/10/07 - 11:59

constante cosmológica
constante cosmológica

Hasta cuando se equivocaba, Einstein acertaba. En 1917, época en la que se daba por hecho que el universo era estacionario, las ecuaciones de Einstein predecían un universo dinámico. Convencido de que no podía ser así, añadió a la ecuación un elemento: la constante cosmológica. Años después tuvo que admitir que esta fue un error cuando tras varias observaciones astronómicas se confirmó que, efectivamente, el universo se expandía. Hoy sabemos que el universo se está expandiendo de forma acelerada. Y la culpable de esa aceleración es lo que llamamos energía oscura que, curiosamente, se comporta igual que la constante cosmológica.

Los vídeos de ¡UPS¡ presentan de forma breve y amena errores de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se han emitido en el programa de ciencia Órbita Laika (@orbitalaika_tve), en la 2 de RTVE.

Producción ejecutiva: Blanca Baena

Guion: José Antonio Pérez Ledo

Grafismo: Cristina Serrano

Música: Israel Santamaría

Producción: Olatz Vitorica

Doblaje: K 2000

Locución: José Antonio Pérez Ledo

El artículo ¡Ups! La constante cosmológica se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Renovarse o morir: cuando se atasca el sistema de reciclaje cerebral

Fri, 2023/10/06 - 11:59

reciclaje

reciclajeFuente: UC Regents Davis campus – http://brainmaps.org / Wikimedia Commons

Las células que componen nuestro cerebro son como pequeñas ciudades. En su interior hay una base, el núcleo, donde están codificadas la identidad y función de la célula en forma de genes y elementos regulatorios.

La información de este núcleo y los estímulos externos determinarán si la célula será una neurona, encargada de transmitir información nerviosa, o pertenecerá al linaje glial, el que se ocupa de acondicionar, facilitar y optimizar el trabajo neuronal. En cualquier caso, los datos codificados en el núcleo determinarán no solo el linaje, sino también el aspecto y la función de la célula.

El producto final de un gen es la proteína, el “ladrillo” básico de la vida. Existe una gran diversidad de proteínas en la célula, y su síntesis y procesamiento dependerá de su destino y ocupación final. Algunas llevarán a cabo una función de soporte estructural en las murallas o membranas celulares; otras participarán en la comunicación entre células, recibiendo, amplificando y enviando señales; y finalmente, algunas se especializarán en el plegamiento, transporte o ruptura de otras proteínas.

Por tanto, las proteínas no solo son las protagonistas principales de la actividad en la ciudad celular, sino también las dianas a intervenir con fármacos en caso de trastorno o enfermedad.

Reciclaje y renovación

El código proteico no es estático, es decir, las proteínas y las estructuras formadas con ellas, como las organelas celulares –mitocondrias, ribosomas, citoplasma…–, no se mantienen durante toda la vida de la célula. Al contrario, ambas se renuevan de forma gradual, como parte del mantenimiento de la maquinaria celular.

Tal renovación es posible debido al envío de estructuras macromoleculares al lisosoma –la “trituradora celular”– mediante un proceso denominado autofagia, palabra que significa “comerse a uno mismo”. Los lisosomas están equipados con ácidos y proteínas que destruyen todo tipo de macromoléculas –moléculas de gran tamaño– celulares, incluyendo grasas, azúcares, material genético y otras proteínas.

Este mecanismo, por tanto, permite la síntesis de nuevas proteínas tras su reciclaje. Por eso es clave en los procesos de mantenimiento y renovación celular en todas las etapas de vida del cerebro.

Problemas con el servicio de calidad

Cuando la trituradora celular falla, se acumulan las proteínas dañadas y otros desechos celulares. Es el desencadenante de las enfermedades de almacenamiento lisosomal, patologías raras que se transmiten por herencia genética. Debido a la importancia de la renovación celular desde edades tempranas, estas dolencias normalmente se manifiestan en la niñez.

Los organismos afectados pierden la capacidad de romper algún tipo de componente celular, normalmente proteínas y grasas con componentes azucarados, lo que facilita su acumulación en los compartimentos de los lisosomas. En consecuencia, se pierde la capacidad de renovación, lo que crea desorden y enfermedad.

Entre las patologías de almacenamiento lisosomal, la enfermedad de Gaucher es la más frecuente. Se hereda por mutaciones (presentes en ambos progenitores) en el gen con las instrucciones para producir la proteína glucocerebrosidasa (GBA). Esto causa una reducción significativa o una falta de actividad de la GBA, que se encarga de destruir grasas azucaradas.

En algunos casos, los desechos de grasa y azúcar se acumulan en células nerviosas, lo que produce un deterioro de las funciones cognitivas, motoras y autónomas (respiración, presión arterial…) cerebrales. Esto se debe principalmente a alteraciones en las conexiones locales o sinapsis neuronales, así como en las estructuras lipídicas que aíslan las prolongaciones neuronales y permiten la transmisión de alta velocidad. Son procesos que dependen del óptimo funcionamiento de las vías de renovación autofágicas y lisosomales.

Una nueva esperanza para el párkinson

En los últimos años se ha descrito una conexión entre la enfermedad de Gaucher y la enfermedad de Parkinson. La mutación de una única copia del gen GBA no es suficiente para producir la primera, pero es el factor de riesgo genético más importante de sufrir párkinson.

Se estima que esta enfermedad afecta a más de 8,5 millones de personas en el mundo, lo que la convierte en el trastorno de movimiento más frecuente. Se desconoce la causa del 85 % de los casos, con la edad como principal factor de riesgo junto con otros factores desencadenantes genéticos y/o ambientales.

Los síntomas motores (temblor, rigidez, dificultades para iniciar movimientos…) son los más frecuentes, pero también puede afectar a funciones cognitivas y autónomas cerebrales, al igual que las enfermedades de almacenamiento lisosomal.

Entre los factores de riesgo genético que contribuyen de forma significativa al desarrollo del párkinson no solo se encuentra, como hemos señalado, la mutación del gen que codifica la proteína GBA, sino también otros genes relacionados con la regulación de las redes autofágicas y lisosomales. Esto refuerza la evidencia de que la alteración de esas vías contribuye a los déficits neurológicos causados por el párkinson esporádico.

La restauración de la función de proteínas relacionadas con la regulación de la trituradora cerebral –y más en concreto la GBA– podrían modificar el inicio y/o la progresión tanto del párkinson como de la enfermedad de Gaucher.

Y aquí podría venir en ayuda el ambroxol, un fármaco mucolítico clásico con capacidad de replegar la proteína GBA mutante. Diferentes investigaciones han mostrado que el ambroxol puede aumentar la actividad destructora de grasas azucaradas por la GBA, mejorando el flujo del tráfico de las redes autofágicas y lisosomales.

Ahora mismo se están haciendo ensayos clínicos para evaluar la eficacia del ambroxol, y en los próximos años sabremos si este esfuerzo de investigación mejorará la calidad de vida de los pacientes y sus familias.The Conversation

Sobre la autora: Ainhoa Plaza Zabala, Profesora e Investigadora en Biomedicina, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Renovarse o morir: cuando se atasca el sistema de reciclaje cerebral se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La realidad resulta enigmática porque es no lineal

Thu, 2023/10/05 - 11:59

no lineal

Aunque el origen de la Dinámica se fundó a partir de los experimentos de Mecánica efectuados por Galileo Galilei, el cálculo infinitesimal -inventado por Isaac Newton y Gottfried Leibniz- permitió describir matemáticamente la evolución general de algunas de las más relevantes magnitudes de todas las ciencias. Las maravillosas ecuaciones diferenciales nos permiten describir, predecir e incluso controlar la dinámica de sistemas no sólo basados en las leyes de la mecánica clásica o relativista, el electromagnetismo o la mecánica cuántica, sino en todas las ciencias naturales y sociales, así como en todas las ingenierías.

El gran Henri Poincaré estableció a finales del siglo XIX las propiedades cualitativas de la teoría de ecuaciones diferenciales, con la Mecánica Celeste [1] como ejemplo de aplicación, pero más allá de esto, estableció su teoría matemática generalizada para fundar la Ciencia General de la Dinámica de Sistemas, aplicable a modelar, predecir su evolución en el tiempo y caracterizar las propiedades esenciales de cualquier efecto medible en cualquier tipo de realidad científica.

El mundo a nuestro alrededor es mayormente no lineal. Foto: Jorge Fernández Salas / UnsplashEl principio de superposición

La mayoría de los científicos naturales o sociales, muy a menudo consideramos verdadera la hipótesis de que la respuesta neta causada en un sistema por dos o más estímulos es la suma de las respuestas que habría causado cada estímulo por separado. Esto es el Principio de Superposición, que parece ser una cuestión casi de sentido común, y que muchas veces la asumimos sin demasiadas cautelas.

Una función matemática que satisface el principio de superposición se denomina función lineal. Estas funciones lineales, muy utilizadas con gran generalidad en todas las ciencias, incorporan dos propiedades matemáticas muy útiles como la aditividad y la homogeneidad, y nos permiten un análisis e interpretación muy profunda -y bastante sencilla- de leyes que establezcamos, experimentos que realicemos, generalizaciones que propongamos o conclusiones que extraigamos de una investigación.

El principio de superposición se aplica a cualquier sistema lineal, descrito mediante ecuaciones algebraicas o ecuaciones diferenciales lineales. Los estímulos sobre un sistema y las respuestas de éste pueden ser números, funciones, vectores, campos vectoriales, señales variables en el tiempo o cualquier otro objeto que cumpla ciertos axiomas muy comunes. Los Sistemas Lineales son una de las maneras más utilizadas para describir la realidad, aún estudiando situaciones complejas, como aquellas basadas en las leyes de Newton, las ecuaciones de Maxwell, la ecuación de Schrödinger o modelos en econometría, ecología, o cualquier tipo de ciencia para la que tratamos de expresar matemáticamente su funcionamiento. Una ventaja que tenemos es que, cuando escribimos un estímulo muy general en un sistema lineal como la superposición de estímulos de una forma específica y simple, a menudo la respuesta global resulta más fácil de calcular y predecir.

Modelos lineales ordinarios o extraordinarios

Muchos sistemas dinámicos, basados en algunas de las leyes más valiosas de la historia de la ciencia, se pueden expresar mediante ecuaciones diferenciales ordinarias lineales con coeficientes constantes. Los matemáticos han suministrado para este tipo de sistemas -llamados autónomos- un verdadero arsenal de medios para resolverlos analíticamente, por muy complejos éstos sean. Por ejemplo, la conocida Transformada de Laplace reduce un complejo sistema de ecuaciones diferenciales ordinarias lineales en un sistema de ecuaciones algebraicas, mucho más fácil de solucionar. Ello además nos permite nos solo conocer al dedillo la evolución en el tiempo del sistema dinámico que hemos resuelto, sino también descubrir sus sorprendentes propiedades en el dominio de la frecuencia, extrayendo nuevo conocimiento que no pensábamos obtener de la mera integración de una sencilla ecuación diferencial.

Las ecuaciones diferenciales ordinarias son un caso particular de las ecuaciones en derivadas parciales, muy comunes también para describir la dinámica en todas las ciencias, y que, en contraposición con las anteriores más sencillas descripciones ordinarias, podemos denominar modelos extraordinarios. Aunque su resolución en este caso es algo más compleja, las ecuaciones diferenciales lineales, sean ordinarias o no, permitieron a los físicos expresar asuntos clave como la dinámica de los planetas, todo el electromagnetismo o la dualidad onda-corpúsculo, entre muchas otras cuestiones. Hoy día científicos e ingenieros de toda especie establecen modelos dinámicos para explicar por qué ocurre la realidad experimentada en su propio ámbito.

La realidad es no lineal

Muy pocos científicos utilizan ecuaciones diferenciales no lineales. Sentimos una cierta reacción alérgica a su empleo, quizás por la dificultad de resolver la matemática de estas ecuaciones o quizás por abandonar el principio de superposición que tanto apreciamos. En la teoría general de relatividad de Albert Einstein, las ecuaciones son no lineales, y su resolución casi siempre implican métodos matemáticos de linealización o de perturbaciones. Incluso para sistemas mucho más sencillos, descritos en simples ecuaciones diferenciales ordinarias no lineales, nuestra tendencia es linealizar el sistema en torno a unas ciertas condiciones y resolver ecuaciones lineales, para tratar de extraer información -al menos parcial- de la realidad que hemos modelado.

La cuestión es que la realidad es no lineal, y nuestras ecuaciones lineales pueden modelar bastante bien las cosas, pero en ocasiones ocurren fenómenos muy imprevisibles y no intuitivos, tanto en las ciencias naturales como en las ciencias sociales o en las ingenierías. Estos fenómenos no se producen en los modelos lineales, y son por tanto exclusivos de los sistemas no lineales.

Múltiples puntos de equilibrio

Los puntos de equilibrio son las soluciones constantes en una ecuación diferencial. En sistemas lineales autónomos, el modelo tiende a un único punto de equilibrio. Uno de los ejemplos más sencillos podemos encontrarlo en la aproximada ley de enfriamiento de Newton: una simple ecuación diferencial lineal de primer orden que explica la transferencia de calor entre dos cuerpos partiendo de diferentes temperaturas. El punto de equilibrio es único y establece igualdad de temperaturas entre ambos cuerpos.

Si a esta sencilla ecuación diferencial añadimos un simple término cuadrático nos encontramos con un básico sistema no lineal, cuya resolución numérica puede observarse en la Figura 1.

Figura 1: Dos puntos de equilibrio en una simple ecuación diferencial ordinaria autónoma no lineal de primer orden: punto de equilibrio estable en 0 y punto de equilibrio inestable en 1. Ecuación =-x+x2 . Fuente: [2] Cap. 1, pp.: 5-6.

Vemos que linealizando el sistema en torno a la temperatura 0, la solución (trayectorias azules) tienden al punto de equilibrio previsto por la ley de enfriamiento de Newton, si partimos de las inmediaciones en torno a la cual hemos linealizado. Pero si resolvemos el sistema no lineal completo, descubrimos que partir de otras condiciones iniciales nos puede dar lugar a otras soluciones radicalmente diferentes causadas por un segundo punto de equilibrio en 1. Cualquier perturbación partiendo de esta segunda temperatura hace que el sistema abandone la situación y, o bien tienda al anterior equilibrio 0 (trayectoria verde), o bien la temperatura crezca sin límite (trayectoria roja).

Ciclos límite

Los sistemas no lineales pueden oscilar sin excitación externa, con amplitud y frecuencia fijas. Las oscilaciones lineales como por ejemplo las de un péndulo linealizado en torno a la vertical, puede cambiar la amplitud de sus oscilaciones (por ejemplo, empujando más o menos un columpio). Balthasar Van der Pol, hacia 1920, añadió un término no lineal a la ecuación diferencial lineal del péndulo, haciendo depender su coeficiente de amortiguamiento con su posición. Se trata entonces de una sencilla ecuación diferencial ordinaria no lineal de segundo orden.

En sistemas dinámicos de orden dos o superior, se emplea muchas veces el espacio de fases para representar los grados de libertad del sistema. En la Figura 2 se muestra la solución de la ecuación de Van der Pol con dos condiciones iniciales diferentes.

no linealFigura 2: Ciclo límite estable en la ecuación de Van der Pol: solución representada en el plano de fase (posición-velocidad). Ecuación +(x2-1)+x=0 . Fuente [2] Cap 5, pp: 95-99.

Partiendo de posición y velocidad pequeñas (trayectoria azul inicialmente cerca de cero en la Figura 2), el sistema amplifica su oscilación sin excitación externa y tiende a cierta frecuencia y amplitud fijas (ciclo cerrado azul). Partiendo de posición y velocidad amplias (trayectoria roja) el sistema pierde energía y al final tiende a oscilar exactamente igual. En el plano fásico observamos el ciclo cerrado, llamado ciclo límite, efecto causado por la no linealidad añadida por Van der Pol. Ante cualquier perturbación creciente o decreciente que sufra la posición o velocidad de este especial péndulo no lineal, el dispositivo corregirá la situación y volverá a oscilar a la misma frecuencia y amplitud propias. Se trata de un sorprendente ciclo límite estable, exclusivo de los sistemas no lineales, y que nos lleva a un nuevo concepto de región de equilibrio estable, generalización del concepto de punto de equilibrio estable que hemos descrito arriba.

Caos

En sistemas dinámicos lineales estables, la ligera modificación de sus condiciones iniciales da lugar a ligeros cambios en su respuesta. Sin embargo, en sencillos sistemas no lineales se puede observar una extrema sensibilidad a las condiciones iniciales, propiedad exclusiva de la no linealidad, y que se denomina caos.

En la Figura 3 se muestran las soluciones de una ecuación diferencial ordinaria no lineal de segundo orden que modela un sistema mecánico con deflexiones elásticas no lineales y forzado con un coeficiente no constante ([2] p.7).

Figura 3: Evolución imprevisible de dos trayectorias en un simple sistema no lineal de segundo orden con dos condiciones iniciales casi idénticas. Ecuación +0,1+x5=6sen t. Fuente: [2] Cap. 1, pp.: 7-8.

Puede observarse que, ante condiciones iniciales casi idénticas, las dos trayectorias del sistema (azul y roja) son al principio iguales, pero en pocos instantes se produce una bifurcación radical en el comportamiento del sistema. Nuestro modelo es totalmente determinista, su ecuación puede ser exacta, pero su comportamiento es imprevisible: muy parecido a la imposible previsión del tiempo atmosférico que conocemos. Este ejemplo es aún más sencillo que el famoso modelo de dinámica atmosférica que presentó el conocido matemático y meteorólogo Edward Lorenz. En la Figura 4 se muestra una implementación física del atractor de Lorenz y su medida caótica en el laboratorio.

no linealFigura 4: Circuito electrónico que satisface el modelo del famoso atractor de Lorenz y medida de su respuesta caótica en el plano fásico. Fuente: Dept. de Electricidad y Electrónica UPV/EHU

 

La dinámica de la naturaleza y las sociedades es inherentemente no lineal. Los sistemas lineales deben entenderse como caso particular de los más generales sistemas no lineales. Los fenómenos impredecibles, anti-intuitivos o sorprendentes los podemos modelar, explicar, predecir, experimentar y controlar en el laboratorio, así como tratar de contribuir a descubrir o solucionar los enigmas de lo que llamamos realidad.

Referencias

[1] Henri Poincaré (1892-1893-1899) Les méthodes nouvelles de la mécanique céleste TOME I, II et III (PDF). Gauthier-Villars et fils, Paris

[2] Victor Etxebarria (1999) Sistemas de control no lineal y robótica. Servicio Editorial de la UPV/EHU, ISBN 8483731924 – 9788483731925, Bilbao

Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)

El artículo La realidad resulta enigmática porque es no lineal se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El rompecabezas de los cuatro cubos de Nelson

Wed, 2023/10/04 - 11:59

En una reciente entrada de la sección Matemoción del Cuaderno de Cultura Científica, titulada Los cuadrados de MacMahon, estuvimos hablando de un interesante rompecabezas geométrico, cuyo nombre es precisamente el título de la misma. En esta entrada vamos a ir un poco más allá y con los cuadrados de ese juego de ingenio construiremos cubos que nos permitirán crear un nuevo rompecabezas, conocido primero con el nombre de “el rompecabezas de Nelson”, y después como “el rompecabezas de los cuatro cubos”.

cubos de NelsonEl rompecabezas de Nelson, con la firma de su creador Scott Nelson, comercializado en Japón por el inventor, coleccionista y comunicador de rompecabezas matemáticos y juegos de ingenio japonés Nob Yoshigahara (1936-2004). Imagen de la colección online de rompecabezas mecánicos de Jerry Slocum, cortesía de la Biblioteca Lilly de la Universidad de Indiana.Los cuadrados de MacMahon

En primer lugar, recordemos el rompecabezas de los cuadrados de MacMahon, y más concretamente, las piezas con las que se juega al mismo. Percy Alexander MacMahon (1854–1929), que fue un militar y matemático británico, se planteó de cuántas formas distintas, salvo rotaciones, se puede colorear el cuadrado dividido en cuatro partes iguales por sus dos diagonales utilizando tres colores distintos y observó que es posible hacerlo de 24 maneras distintas. A partir de esta información, creó el rompecabezas que lleva su nombre, cuyas piezas, que vemos en la siguiente imagen (con los colores verde, azul y amarillo), son la realización de las 24 formas de colorear el cuadrado dividido en cuatro partes iguales por sus dos diagonales utilizando tres colores distintos.

Las 24 fichas que componen el rompecabezas de “los cuadrados de MacMahon”

 

El rompecabezas consiste en construir un rectángulo de 4 filas y 6 columnas con las 24 fichas del mismo (si deseas imprimirlas te dejamos aquí el PDF con las 24 fichas), de manera que cuando dos fichas tienen un lado en común el color de las regiones triangulares que comparten ese lado, en los dos cuadrados, tienen que tener el mismo color y, además, todo el perímetro, es decir, todas las regiones triangulares que forman el perímetro del rectángulo, tiene que ser de un mismo color, ya sea este, verde, azul o amarillo (para más información sobre este juego de ingenio puede leerse la entrada Los cuadrados de MacMahon).

Con las 24 fichas se puede jugar al rompecabezas de MacMahon, pero también se pueden plantear otros juegos relacionados con el mismo. Por ejemplo, los miembros del Grupo Alquerque de Sevilla, los matemáticos Juan Antonio Hans Martín, José Muñoz Santonja y Antonio Fernández-Aliseda Redondo, plantearon diferentes retos, con diferentes niveles de dificultad, aunque más sencillos que el original (en los mismos solo se pide que se cumpla la primera condición, esto es, cuando dos fichas son adyacentes tienen el mismo color en las regiones de contacto) en su artículo «MacMahon y las matemáticas en colores», publicado en la revista SUMA. Estos problemas serían los siguientes:

A) de las 24 fichas del rompecabezas, separar las 9 que tienen los tres colores y con ellas formar un cuadrado de lado 3, es decir, con tres filas y tres columnas;

Ejemplo de cuadrado de lado 3 formado por las 9 fichas que tienen los tres colores

 

B) con las 12 fichas que tienen sólo 2 colores construir un rectángulo 3 x 4, tres filas y cuatro columnas;

C) con las 12 fichas complementarias de las anteriores, luego las que tienen 1 o 3 colores, componer también un rectángulo 3 x 4;

D) con las 15 fichas que tienen 1 o 2 colores, construir un rectángulo 3 x 5;

E) con las 15 fichas anteriores (que tienen 1 o 2 colores) y otra cualquiera de las que tienen 3 colores, formar un rectángulo de lado 4, luego con cuatro filas y cuatro columnas;

F) dividiendo primero las 24 fichas en dos grupos de 12 fichas, componer dos rectángulos 3 x 4;

G) con todas las 24 fichas construir rectángulos de tamaños 2 x 12, 3 x 8 y 4 x 6 (si a estos últimos les añadimos la condición del perímetro tenemos el rompecabezas de MacMahon, aunque en los dos tamaños anteriores esta condición nos lleva a que no existan soluciones);

H) con todas las 24 fichas construir rectángulos huecos de tamaños 3 x 11, 4 x 10, 5 x 9, 6 x 8 y 7 x 7 (todos ellos de perímetro igual a 24, que son las piezas que tenemos para construirlos).

Ejemplo de cuadrado hueco de lado 7 formado por las 24 fichas

 

Los cubos de Nelson

El matemático, programador informático y diseñador de juegos de ingenio estadounidense Harry Lewis Nelson (1932), quien diseñó un juego basado en los cuadrados de MacMahon denominado Pohaku (véanse las siguientes imágenes), planteó la cuestión de si sería posible utilizar las 24 piezas cuadradas de MacMahon como las caras de cuatro cubos (como hay 6 caras por cubo, son 24 caras en total) de manera que, si dos caras comparten una arista, el color de las regiones triangulares de contacto sean del mismo color.

Portada del juego Pohaku, inventado por el matemático estadounidense Harry L. Nelson y comercializado por Penny Norman, que consistía en 5 juegos, para jugar entre dos personas, que utilizaban los 24 cuadrados de MacMahon, denominados Domino Pohaku, Standard Pohaku, 5 x 5 Pohaku y Toroidal Pohaku. Imagen de eBay

 

Reglas de los juegos Domino Pohaku, Standard Pohaku, 5 x 5 Pohaku y Toroidal Pohaku. Imagen de eBay

 

La cuestión planteada por el matemático fue resuelta por su hijo Scott Nelson en 1970, cuando tenía tan solo 9 años y fue el nacimiento de un nuevo rompecabezas. En la siguiente imagen se muestran los cuatro cubos, cumpliendo las condiciones de Harry Nelson, al desplegar en el plano las seis caras de los mismos.

cubos de Nelson

¿En qué consiste el rompecabezas de Nelson? Se trata de crear formas tridimensionales con los cuatro cubos, como una fila de cuatro cubos o los cuatro cubos juntos formando una estructura cuadrada (véase la siguiente imagen), de manera que en las caras visibles se cumpla la condición de que las caras adyacentes tengan el mismo color en las regiones de contacto.

Por ejemplo, las soluciones a las dos figuras anteriores son las siguientes.

cubos de Nelson

Las formas tridimensionales que aparecían en el juego comercial, divididas por nivel de dificultad, eran las siguientes. Nivel para principiantes:

Nivel intermedio:

Nivel experto:

Como cada vez que hablamos de rompecabezas, mi consejo es que construyáis los cuatro cubos de Nelson, cuyas caras son los 24 cuadrados de MacMahon, y disfrutéis del juego.

El rompecabezas de Nelson fue comercializado como el rompecabezas de los cuatro cubos por la empresa Binary Arts, que hoy es ThinkFun. Imagen de la colección online de rompecabezas mecánicos de Jerry Slocum, cortesía de la Biblioteca Lilly de la Universidad de Indiana

Bibliografía

1.- Percy A. MacMahon, New Mathematical Pastimes, Cambridge University Press, 1921 (puede obtenerse una copia en pdf a través de la biblioteca digital Internet Archive [archive.org]).

2.- Martin Gardner, Nuevos pasatiempos matemáticos, Alianza editorial, 2018.

3.- Juan Antonio Hans Martín, José Muñoz Santonja y Antonio Fernández-Aliseda Redondo, MacMahon y las matemáticas en colores, SUMA 63, pp. 51-57, 2010.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El rompecabezas de los cuatro cubos de Nelson se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Primera observación de la rotación de un agujero negro supermasivo

Tue, 2023/10/03 - 11:59
rotaciónIlustración del modelo de disco de acreción inclinado. El eje de giro del agujero negro se alinea verticalmente y la dirección del chorro es casi perpendicular al disco. La desalineación entre el eje de giro del agujero negro y el eje de rotación del disco provocará la precesión (balanceo) del disco y del chorro. Fuente: Yuzhu Cui et al. 2023 / Intouchable Lab@Openverse / Zhejiang Lab

Un equipo científico internacional, con participación del Instituto de Astrofísica de Andalucía (IAA-CSIC), ha analizado datos de 23 años del centro de la galaxia Messier 87 (M87), que alberga un agujero negro supermasivo (6.500 millones de veces más masivo que el Sol), el primero del que se obtuvo una imagen.

Los resultados revelan que el chorro que emerge del agujero negro a altísima velocidad oscila hacia arriba y hacia abajo con una amplitud de unos 10 grados, lo que a su vez confirma que el agujero negro se halla en rotación.

Los agujeros negros absorben grandes cantidades de material debido a su fuerza de gravedad, tan potente que ni siquiera la luz escapa de ellos, e impulsan un flujo de plasma en forma de chorro que se mueve casi a la velocidad de la luz y abarca enormes distancias. La galaxia M87, por ejemplo, presenta un chorro que emerge de sus regiones centrales y se extiende mucho más allá del tamaño de la propia galaxia.

Sin embargo, el mecanismo de transferencia de energía entre los agujeros negros supermasivos, los discos de acreción y los chorros aún se desconoce. La teoría predominante sugiere que se puede extraer energía de un agujero negro en rotación, permitiendo que parte del material que rodea el agujero negro sea expulsado a gran velocidad. A pesar de ello, la rotación de los agujeros negros supermasivos, un factor crucial en este proceso y el parámetro fundamental, además de la masa del agujero negro, nunca se ha observado directamente.

Un chorro en precesión

El análisis del equipo de investigación, que incluye una comparación con una simulación teórica, indica que el eje de rotación del disco de acreción se desalinea con el eje de giro del agujero negro, lo que genera un chorro en precesión (como el balanceo de una peonza).

La detección de esta precesión constituye una evidencia inequívoca de que el agujero negro supermasivo de M87 se halla, en efecto, girando, lo que abre nuevas dimensiones en nuestra comprensión de la naturaleza de estos objetos.

La desalineación entre el agujero negro y el disco es relativamente pequeña y el período de precesión es de alrededor de once años, por lo que un análisis exhaustivo de los datos de alta resolución de la estructura de M87 acumulados durante dos décadas han sido suficientes para poder detectarla

Pero, ¿qué fuerza puede alterar la dirección de un chorro tan poderoso? La respuesta podría hallarse en el comportamiento del disco de acreción: a medida que los materiales que caen orbitan alrededor del agujero negro, forman una estructura de disco antes de girar gradualmente en espiral hasta que son absorbidos por el agujero negro. Pero si el agujero negro gira, ello ejerce un impacto significativo en el espacio-tiempo circundante, provocando que los objetos cercanos sean arrastrados a lo largo de su eje de rotación, es decir, produciendo el “arrastre de marco” (frame dragging) predicho por la Relatividad General de Einstein.

Si bien este estudio arroja luz sobre cómo funciona un agujero negro supermasivo, también abre grandes incógnitas. La estructura del disco y el valor exacto del giro del agujero negro supermasivo M87* son aún inciertos, y este trabajo predice que existen más factores que intervienen en esta configuración, lo que añade nuevos desafíos a la investigación.

Referencia:

Cui, Y., Hada, K., Kawashima, T. et al.  (2023) Precessing jet nozzle connecting to a spinning black hole in M87  Nature doi: 10.1038/s41586-023-06479-6

Edición realizada por César Tomé López a partir de materiales suministrados por IAA-CSIC

El artículo Primera observación de la rotación de un agujero negro supermasivo se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La importancia del dióxido de carbono en la dinámica geológica de Europa

Mon, 2023/10/02 - 11:59

En al menos tres ocasiones, en Planeta B hemos hablado sobre Europa, uno de los satélites más interesantes de Júpiter: “La evolución del interior de la luna Europa”, “Una tectónica de placas más allá de la Tierra” y “¿Y si pudiésemos llegar al océano de Europa sin necesidad de atravesar toda la corteza?”.

Y es que cuando lo miramos de cerca, su superficie atestigua una historia reciente de actividad geológica, quizás no solo pretérita, sino también en la actualidad, con la posible existencia de procesos que siguen rejuveneciendo el aspecto de este satélite. Además de esa juventud que aparenta en términos geológicos, el Hubble descubrió hace una década la posible existencia de penachos de agua que surgen de su superficie, lo que sería otra prueba a favor de ser un mundo activo, aunque estos serían bastante elusivos.

EuropaLos penachos de vapor de agua en Europa tal y como los detectó el telescopio espacial Hubble, abajo a la izquierda, anotados por la palabra “Plumes”. Imagen cortesía de la NASA, ESA, W. Sparks (STScI) y USGS Astrogeology Science Center.

¿De dónde procede toda esta actividad geológica que observamos? Lo más probable es que el responsable directo sea un océano de agua líquida bastante salado -valga la redundancia- que a su vez está en contacto también con el núcleo rocoso del satélite, de donde procedería la energía para mantener líquido el océano. Este último serviría como una cinta transportadora de materia y energía desde el interior de Europa hacia el exterior, provocando esos cambios que observamos en su superficie.

Una manera indirecta de conocer con mayor grado de detalle la composición química del agua de ese posible océano sería si estuviese de algún modo conectado al exterior, ya que, de momento, carecemos de la tecnología para poder llegar hasta este, que requeriría una sonda capaz de atravesar varios kilómetros de hielo hasta llegar al agua.

Saber qué elementos y compuestos existen en el océano nos abre una puerta a saber si es un océano habitable -habitable para nuestros estándares- puesto que la existencia y abundancia de determinados elementos y compuestos puede ser crucial para el desarrollo de la vida. Por supuesto, esto no quiere decir que haya vida o se pueda haber desarrollado, pero si nos puede indicar si es un lugar hospitalario.

Los lugares más prometedores para “saborear” -me van a permitir que me tome una licencia literaria- este océano serían los penachos de vapor de agua (muestreándolos desde la órbita, por ejemplo- y por supuesto las zonas donde pueda existir actividad geológica reciente en Europa, ya que a través de las fisuras generadas como resultado de la dinámica del satélite podría haberse transportado material desde el océano hasta el exterior. Sería una manera indirecta, pero válida mientras no tengamos una tecnología capaz de llegar al océano.

Pero bueno, ¿qué se ha descubierto ahora que ha generado tanto revuelo? Lo cierto es que descubrir -gracias a Jesús Martínez-Frías por su corrección- no se ha descubierto nada en el sentido más estricto de la palabra, sino que se ha podido identificar mejor en que regiones de la superficie de Europa podemos encontrar dióxido de carbono, algo que ya contaba con detecciones previas como podemos leer en Hansen et al. (2008) y McCord et al. (1998).

El dióxido de carbono no es un compuesto que pueda ser estable a lo largo del tiempo geológico en las condiciones de presión y temperatura existentes en la superficie de Europa, por lo que cualquier cantidad de este que quede expuesta, debería de sublimarse y formar parte de la tenue atmósfera del satélite o escaparse al espacio, sin embargo, tanto las observaciones realizadas por la misión Galileo como con el telescopio espacial James Webb han sido capaces de detectar este compuesto en la superficie.

La diferencia entre el descubrimiento original del dióxido de carbono y los datos aportados en el reciente estudio publicado en Science por Trumbo et al. (2023) es principalmente una mejor localización espacial, así como aportar un contexto para su origen, ya que los datos de la Galileo tenían muy poca resolución en comparación con los del James Webb, que ha permitido adscribir la presencia de este compuesto en regiones muy concretas del satélite de Júpiter.

Lo cierto es que el dióxido de carbono no es un compuesto muy raro, y se había detectado previamente en otros lugares del sistema joviano así como en los satélites de Saturno, pero no con una asociación directa a zonas jóvenes de su superficie. Se sospecha que en algunos de estos casos la presencia de este dióxido de carbono podría deberse a factores externos como, por ejemplo, la aportación de compuestos orgánicos por parte de meteoritos o zonas ya ricas en compuestos orgánicos que sufren procesos de degradación a causa de la intensa radiación.

El caso de Europa es diferente, y las concentraciones de dióxido de carbono se encuentran fuertemente asociadas a regiones jóvenes con terreno de tipo chaos -los chaos, explicado de una manera sencilla, son zonas de la superficie de los planetas donde el terreno parece estar agrietado y desordenado- como son Tara Regio y Powys Regio. En el resto de satélites donde se ha detectado, el dióxido de carbono estaba asociado a zonas más oscuras ricas en compuestos orgánicos, cráteres de impacto o las zonas más afectadas por la radiación.

EuropaUn detalle de la zona de Tara Regio capturado por la sonda Galileo en septiembre de 1998 a una resolución de 220 metros por píxel. Se aprecia perfectamente la existencia de juegos de grietas, crestas y una forma como de puzle desordenado. Cortesía de NASA/JPL/USGS.

Esto nos lleva a la siguiente cuestión. Entonces, ¿de dónde sale el dióxido de carbono? Si en los párrafos anteriores hablábamos del posible origen exógeno -impactos de meteoritos y la degradación de los compuestos orgánicos-, ahora nos toca hablar del origen endógeno de este compuesto. Lo normal es que para que sea estable bajo las condiciones actuales, debe de encontrarse atrapado en el hielo.

Los científicos han estudiado otras posibilidades, como que el dióxido de carbono observado procediese de compuestos orgánicos o de minerales del grupo de los carbonatos, pero no se observan en los espectros señales que hagan pensar en estas dos últimas fuentes -sumada a la radiación- podrían ser una forma plausible de formar las concentraciones de dióxido de carbono encontrados tanto en la asociación a estas regiones jóvenes como en sus proporciones.

Así que solo nos queda una posibilidad, y es que el dióxido de carbono proceda directamente del interior de Europa como dióxido de carbono o como alguna otra molécula precursora de este compuesto desde el océano que hay bajo su superficie. Llegaría a la superficie durante la formación de estas zonas más jóvenes a través del ascenso de materiales del océano -ya sea en estado líquido o como masas de hielo con un comportamiento plástico-, por el colapso del hielo sobre zonas donde exista agua líquida bajo la superficie o por el ascenso de líquidos a través de grietas en la corteza.

Pero todavía hay más: y es que para que observemos las concentraciones de dióxido de carbono que vemos en la superficie, debe de haber un mecanismo continuo que vaya reponiendo este dióxido de carbono que se escapa a la atmósfera o bien la llegada de este compuesto a la superficie ha debido ocurrir en un lapso de tiempo muy reciente a escala geológica.

EuropaA la izquierda, una imagen de Europa tomada por el JWST. A la derecha, los mapas de concentración de CO2. Cortesía de NASA, ESA, CSA, G. Villanueva (NASA/GSFC), S. Trumbo (Cornell Univ.) y A. Pagan (STScI).

Las implicaciones de estos resultados de cara a la astrobiología son muy importantes: el primero, que el carbono, que es un elemento que es necesario para la vida tal y como la conocemos, se encuentra presente en el océano de Europa, y también que este océano tendría unas condiciones ligeramente oxidantes, lo que coincidiría con una entrada al océano de compuestos oxidantes que se producen en la superficie a causa de la intensa radiación, completando también la cinta transportadora de materia desde la superficie hacia el océano y no solo desde dentro hacia afuera.

Un océano reductor, desde nuestro punto de vista, podría ser menos hospitalario para la vida, porque aunque haya organismos como los anaeróbicos que, capaces de realizar la respiración anaeróbica usando moléculas diferentes al oxígeno, o los quimioautótrofos, capaces de extraer su energía de compuestos inorgánicos, en nuestro planeta sabemos que la falta de oxígeno reduce las posibilidades de formas de vida más complejas.

Todos estos estudios son muy interesantes, ya que podrán servir de base a las futuras investigaciones de la sonda europea JUICE, que ya se dirige al sistema joviano, y la Europa Clipper de la NASA que, si todo va bien, despegará en octubre de 2024, desde donde poder verificar estas observaciones eso sí, desde mucho más cerca y aportarnos nuevos detalles de este cuerpo tan interesante.

Bibliografía:

Hansen, G. B., & McCord, T. B. (2008). Widespread CO2 and other non-ice compounds on the anti-Jovian and trailing sides of Europa from Galileo/NIMS observations. Geophysical Research Letters, 35(1), L01202. doi: 10.1029/2007GL031748

McCord, T. B., Hansen, G. B., Clark, R. N., Martin, P. D., Hibbitts, C. A., Fanale, F. P., Granahan, J. C., Segura, M., Matson, D. L., Johnson, T. V., Carlson, R. W., Smythe, W. D., & Danielson, G. E. (1998). Non‐water‐ice constituents in the surface material of the icy Galilean satellites from the Galileo near‐infrared mapping spectrometer investigation. Journal of Geophysical Research: Planets, 103(E4), 8603-8626. doi: 10.1029/98JE00788

Trumbo, S. K., & Brown, M. E. (2023). The distribution of CO 2 on Europa indicates an internal source of carbon. Science, 381(6664), 1308-1311. doi: 10.1126/science.adg4155

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo La importancia del dióxido de carbono en la dinámica geológica de Europa se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Aburrimiento musical

Sun, 2023/10/01 - 11:59

José Manuel González Gamarro

La música, ese hecho cultural transversal a lo largo del planeta, esa gran invención humana que casi empuja a caer irremediablemente en lo interdisciplinar, ha sido estudiada de forma poliédrica. La extensísima literatura que aborda la investigación sobre música tiene casi tantos enfoques como disciplinas del conocimiento existen. Uno de los puntos que más consenso encuentra la investigación es el beneficio que aporta escucharla, estudiarla y/o practicarla. Hay quien, interesadamente sesgado, no duda en atribuirle propiedades casi mágicas con discursos grandilocuentes y atractivos titulares de prensa: «Quítele la pantalla y dele un instrumento musical a su hija o hijo», «La música te hace más inteligente», «¿Quiere envejecer mejor? Practique música», etc. Incluso el refranero popular nos dice que quien canta su mal espanta, pero, como todo en la vida, cabe un gran «depende» en todas estas afirmaciones.

aburrimientoFoto: Manuel Nägeli / UnsplashEfectos negativos de la música

Todos los estudios en pos de los beneficios causados por la música o cómo ésta mejora la sociedad, tienen una consecuencia evidente: el número de estudios de los efectos negativos de la música es mucho menor y solo han suscitado interés en los últimos años. Uno de estos efectos “negativos” puede ser el aburrimiento. Este aburrimiento no siempre se puede considerar negativo ya que algunos autores1 lo consideran como una retroalimentación que provoca un cambio de tarea, por lo que cumple una función importante. Este estado emocional puede ocurrir cuando se interactúa con el arte. De hecho, ocurre con más frecuencia de la que se puede imaginar en un primer momento. Es por esto que un reciente estudio2 dirigido por la investigadora del Instituo Max Planck de Estética Empírica, Julia Merrill ha abordado esta cuestión, poniendo el foco de atención en investigar la prevalencia y las situaciones de aburrimiento al interactuar con la música. Aunque el estudio no es concluyente, aborda cuestiones poco exploradas, como qué características puede tener una música aburrida (por más que esto dependa del juicio del oyente), qué emociones se asocian a esta supuesta música aburrida, la importancia del contexto en la escucha musical, los rasgos de la personalidad del oyente o un constructo que se denomina “sofisticación musical” medida con una escala llamada Gold-MSI3 donde se autoevalúa el compromiso activo con la música, habilidades de percepción musical y la percepción de emociones al oír música.

Para arrojar luz sobre todas estas cuestiones, en el Instituto Max Planck se llevaron a cabo dos estudios diferentes y complementarios, atendiendo a métodos cualitativos y cuantitativos. Para el estudio cualitativo se formularon preguntas abiertas a 266 participantes sobre las situaciones en las que experimentaron aburrimiento al escuchar música atendiendo a la ubicación, el entorno, si estaban solos o acompañados, el tipo de música o la duración de ésta. También se formularon preguntas relativas a los sentimientos y emociones evocados al aburrirse y cómo reaccionaron ante esto. Otra de esas preguntas abiertas abordaba la cuestión de la definición de la música aburrida, es decir, qué características tiene la música con la que la gente se aburre. Para el estudio cuantitativo se usaron 719 participantes donde respondieron a una encuesta con tres preguntas: ¿Con qué frecuencia te aburres cuando escuchas música?, ¿con qué intensidad te aburres cuando escuchas música? y ¿Con qué frecuencia utilizas música para afrontar el aburrimiento? Usando en las respuestas una escala del 1 al 7, siendo el 1 nunca y el 7 siempre. Además, se realizó una lista con 14 estilos musicales que también fueron calificados desde el 1 (muy interesante) hasta el 7 (muy aburrido). A partir de estos datos se escogió el estilo más aburrido y uno ligeramente aburrido y se volvió a pedir a los participantes que valoraran estos dos estilos en la escala de 1 a 7, para a continuación presentar 16 razones por las que la música es aburrida con una escala de 5 puntos. A todos estos datos se le añaden los recopilados por la escala, anteriormente mencionada, Gold-MSI que mide la sofisticación musical de cada participante.

Aburrimiento musical

Los resultados del estudio cualitativo aportaron datos que revelan que, además de experimentar aburrimiento musical en situaciones con cierta monotonía como viajar en coche, en bus, etc. o no tener el control sobre qué música escuchar (bares, radio, etc.), también se experimenta aburrimiento cuando se está solo y la escucha es concentrada. El juicio estético influye de manera determinante cuando no se ajusta a las expectativas del oyente o bien la música no encaja con el estado de ánimo durante la escucha. Las estrategias para evitar el aburrimiento causado por la música dependen de las posibilidades del contexto de la escucha, dependiendo si se puede evitar la situación (salirse de un concierto o cambiar de música) o eso no es posible (ignorar la música o distraerse con otro estímulo). Uno de los resultados que arroja el estudio cuantitativo es el porcentaje de personas que experimentan aburrimiento al escuchar música. Aunque hay un porcentaje muy elevado (76,5 %) de personas que nunca o rara vez experimenta aburrimiento en la escucha, el porcentaje de personas que se aburren en diferentes grados de intensidad y frecuencia no es nada desdeñable.

En cuanto a las características musicales, el aburrimiento ocurre cuando existen ciertos aspectos generales de la música, como la repetición, la monotonía o las letras de las canciones, con una interesante relación entre aburrimiento y significado. Sin embargo, no solo la baja excitación y la subestimulación lo provocan, sino también la sobreestimualción y la alta excitación. La música con un mayor índice de complejidad, con mayor número de disonancias o caótica resulta aburrida por una sobreabundancia de características musicales muy intensa que provocan disgusto. Otra cuestión es que la música que no nos gusta la etiquetemos como aburrida y la identifiquemos como tal antes de su escucha. El gusto musical tiene mucho de vínculo y no tanto de observación y análisis, donde las cuestiones identitarias son un punto clave.

Experiencia estética fracasada

La finalidad de la escucha musical, en numerosas ocasiones, es, precisamente, la de acabar con el aburrimiento o provocar en nosotros mismos emociones satisfactorias. Por lo tanto, según los autores del estudio se puede afirmar que, si la música nos provoca aburrimiento, es una experiencia estética fracasada con respecto al éxito de esta experiencia, que se produciría cuando hay un equilibrio entre el agrado, el placer, la excitación, la complejidad y la familiaridad. Sin embargo, este “fracaso” también puede significar éxito, puesto que existe el arte (y por lo tanto la música) deliberadamente aburrido4, es decir, algo creado con la firme intención de aburrir y motivado por diferentes razones.

Por otro lado, juzgar cualquier música como aburrida es controvertido, puesto que puede ser contraproducente tanto para el autor de la música como para la persona que la juzga. Se puede entender que una música es aburrida porque la compositora o compositor no ha sido capaz de crear algo emocionalmente satisfactorio, pero también puede ser negativo para quien juzga, por entenderse que no tiene la suficiente formación o sofisticación para comprender cierta música o sentir emociones satisfactorias al escucharla.

Es de suponer que la música con menos índice de aburrimiento, por decirlo de alguna manera, tendrá un mayor éxito en la sociedad. Sin embargo, como ya se ha advertido, el aburrimiento puede ser una consecuencia de escuchar música con unas ciertas características como una predisposición guiada por nuestro prejuicio y preferencia. Es por ello que también existen investigaciones5 que van más allá, buscando la sincronía neuronal en diferentes individuos al someterse a la escucha, con resultados que indican que a mayor sincronía, mayor éxito musical. Sea como fuere el aburrimiento musical y el fracaso de la escucha para evitarlo dependen en gran medida del concepto (filosófico) de belleza, que se podría establecer en la música como una relación compleja entre uniformidad y variedad. La investigación deberá seguir avanzando para tener una mayor comprensión de todos los factores que componen esta relación adversa con la música. Veremos.

Referencias:

1 Fahlman S. A., Mercer-Lynn K. B., Flora D. B., Eastwood J. D. (2013). Development and validation of the multidimensional state boredom scale. Assessment, 20(1), 68–85. https://doi.org/10.1177/1073191111421303

2 Merrill, J., & Niedecken, T. (2023). Music and Boredom: A First Insight Into an Unexplored Relationship. Music & Science, 6. https://doi.org/10.1177/20592043231181215

3 Müllensiefen D., Gingras B., Musil J., Stewart L. (2014). The musicality of non-musicians: An index for assessing musical sophistication in the general population. PLoS ONE, 9(2), 1–23. https://doi.org/10.1371/journal.pone.0089642

4 Elpidorou A., Gibson J. (2022). Really boring art. Ergo an Open Access Journal of Philosophy, 8(0). https://doi.org/10.3998/ergo.2231

5 Leeuwis, N., Pistone, D., Flick, N., & van Bommel, T. (2021). A sound prediction: EEG-based neural synchrony predicts online music streams. Frontiers in psychology, 12, 672980. https://doi.org/10.3389/fpsyg.2021.672980

Sobre el autor: José Manuel González Gamarro es profesor de guitarra e investigador para la Asociación para el Estudio de la Guitarra del Real Conservatorio Superior de Música “Victoria Eugenia” de Granada.

El artículo Aburrimiento musical se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

¡Ups! La fiebre amarilla

Sat, 2023/09/30 - 11:59

fiebre amarilla

Aunque a día de hoy sabemos que la fiebre amarilla es una enfermedad vírica aguda y hemorrágica, ocasionada por arbovirus del género Flavivirus y transmitida por mosquitos infectados de los géneros Aedes y Haemogogus, no siempre ha sido así. Esta enfermedad acabó con el 10% de la población de Filadelfia en 1793. Tras aquello, el médico Stubbins Ffirth empezó a buscar la causa de la fiebre amarilla. Imprudentemente experimentó consigo mismo y después de restregarse los vómitos de enfermos e incluso bebérselos y no contagiarse, publicó en una tesis titulada ‘A Treatise on Malignant Fever’ en la que expuso que definitivamente la enfermedad no era contagiosa, un dato erróneo como sabemos actualmente.

Los vídeos de ¡UPS¡ presentan de forma breve y amena errores de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se han emitido en el programa de ciencia Órbita Laika (@orbitalaika_tve), en la 2 de RTVE.

Producción ejecutiva: Blanca Baena

Guion: José Antonio Pérez Ledo

Grafismo: Cristina Serrano

Música: Israel Santamaría

Producción: Olatz Vitorica

Doblaje: K 2000

Locución: José Antonio Pérez Ledo

Edición realizada por César Tomé López

El artículo ¡Ups! La fiebre amarilla se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

CartoCell o cómo detectar patrones ocultos en tejidos celulares

Fri, 2023/09/29 - 11:59

Una reciente colaboración entre el Instituto de Biomedicina de Sevilla con la Universidad del País Vasco, el Instituto Biofisika, el Donostia International Physics Center y otros prestigiosos centros nacionales e internacionales, han dado como resultado CartoCell, una herramienta de análisis de imágenes en 3D de alto contenido que revela patrones de morfología celular escondidos. Este software, de código abierto, tiene un gran potencial de aplicación tanto en ciencia básica, con la que ya ha sido probado, como para el desarrollo clínico y médico.

CartoCellCartoCell es una red neuronal artificial que procesa de forma automática epitelios en 3D, esto es, permite la reconstrucción automática en 3D de imágenes obtenidas por microscopía.En busca de patrones ocultos

Los animales y plantas, además de otras estructuras de la naturaleza, presentan patrones que podemos detectar fácilmente: las rayas de las cebras, los polígonos de la jirafa o en las conchas de las tortugas, por ejemplo. Todos estos patrones tienen en común que son macroscópicos. Sin embargo, este mismo fenómeno se da a nivel microscópico, en los tejidos. “Estos patrones también aparecen durante el desarrollo embrionario”, explica Luis M. Escudero, uno de los autores e investigador del Instituto de Biomedicina de Sevilla (IBiS) y profesor de la Universidad de Sevilla. “Por ejemplo, hay genes que se expresan en patrones alternos de rayas y que son fundamentales para establecer los segmentos de los insectos”. Muchos de dichos patrones son ya conocidos y muy estudiados, sin embargo, queda mucho por descubrir.

“En nuestro trabajo hemos encontrado patrones que aún estaban escondidos…. Y que solo han podido ser desvelados al usar herramientas de inteligencia artificial para el análisis de imágenes microscópicas de tejidos. Vemos que, incluso en estructuras muy simples, ya hay asimetrías en la morfología de las células. Esta es la forma en que comienza la morfogénesis”. La morfogénesis se refiere al proceso biológico que causa que un organismo desarrolle su forma y estructura. Es una de las etapas fundamentales durante el desarrollo embrionario y se refiere a la organización y distribución espacial de las células diferenciadas para formar estructuras específicas y eventualmente órganos completos.

CartoCell, una herramienta para cartografiar los tejidos epiteliales

“CartoCell es una herramienta software que permite procesar de manera rápida y automática una gran cantidad de imágenes 3D obtenidas en el microscopio para la reconstrucción y el análisis de tejidos epiteliales a nivel celular”, prosigue el Dr. Escudero. En otras palabras, esta herramienta digital es capaz de trabajar de forma automática muchísima información, especializándose en buscar patrones, formas, distribuciones y estructuras en los tejidos a partir de imágenes.

Según aclara, CartoCell utiliza la potencia de las redes neuronales, específicamente una red neuronal artificial diseñada para optimizar la identificación de células tridimensionales en imágenes de microscopía. La principal ventaja de CartoCell es que puede identificar y estudiar la forma y distribución espacial de cada célula en el tejido epitelial, permitiendo descubrir patrones asociados a diferentes tipos de tejidos.

“Cada célula del tejido es reconstruida con una gran fidelidad, gracias a lo cual podemos estudiar tanto su forma como su distribución espacial. De este modo, CartoCell nos permite descubrir patrones asociados a los diferentes tipos de tejidos y células, así como estudiar sus reglas de empaquetamiento”. De momento, el software ha sido usado para estudios de ciencia básica, permitiendo cartografiar la morfología de las células con imágenes de diferentes tipos de tejidos. “De este modo, hemos podido encontrar patrones ocultos de una manera sencilla y muy visual”, continúa el investigador, “lo que es fundamental para estudiar la organización de tejidos epiteliales donde las células presentan un contacto estrecho”.

Pero, además de los patrones ocultos, y de la investigación biológica de tejidos, CartoCell también muestra un gran potencial de aplicación clínica. “En el ámbito biomédico, la posibilidad de analizar una gran cantidad de muestras de manera rápida y fiable, como hace CartoCell, es ideal para evaluar la reproducibilidad de cultivos de organoides [pequeños tejidos creados para simular un pequeño órgano] epiteliales y realizar comparativas detalladas entre condiciones normales y patológicas. Por poner un ejemplo sencillo”, continúa el investigador, “el testeo del efecto de fármacos en tejidos animales o humanos podría beneficiarse de nuestro método. Nuestro avanzado análisis de imágenes podría detectar cambios sutiles a nivel celular, que a la larga pueden ser importantes, del efecto de cada fármaco contra una determinada enfermedad”.

Redes neuronales y código abierto en su núcleo

El corazón de CartoCell es una red neuronal artificial. La arquitectura de la red fue diseñada partiendo de otros modelos desarrollados anteriormente por el grupo de investigación en visión artificial para bioimagen del Instituto Biofisika y el Donostia International Physics Center (DIPC), en el País Vasco, que participa en el proyecto. “Estos modelos ya habían demostrado gran versatilidad y robustez para problemas similares en imagen de microscopía de diferentes modalidades (microscopía electrónica y microscopía confocal, entre otras)”, explica el doctor Ignacio Arganda, líder de dicho grupo e investigador Ikerbasque afiliado también a la Facultad de Informática de la Universidad del País Vasco (UPV/EHU). “En concreto, la arquitectura y las imágenes de salida que genera fueron adaptadas para optimizar la identificación de células tridimensionales adquiridas mediante técnicas de microscopía”.

“Como toda red neuronal artificial”, continúa, “la nuestra necesita del conocido como conjunto de entrenamiento para aprender a realizar la tarea que le propongamos. En nuestro caso, dicha tarea se trata de la identificación (o “segmentación”) de células epiteliales en imágenes tridimensionales”. Normalmente, para que una red neuronal sea capaz de generalizar y realizar esta tarea con precisión, necesita un conjunto de datos muy grande y heterogéneo. Construir dicho conjunto requiere muchísimo trabajo manual, ya que habría que “pintar” una a una todas las células de las imágenes 3D de entrenamiento.

“Sin embargo”, aclara el experto, “CartoCell utiliza un conjunto de entrenamiento inicial de epitelios pintados muy pequeño. Con ese conjunto, entrenamos nuestra red neuronal una primera vez, e intentamos que prediga las identidades celulares en muchas otras imágenes de epitelios. Como es esperado, el resultado no es el ideal, pues muchas identidades no están completas, y quedan huecos entre las células. Para solucionarlo, empleamos un algoritmo de Voronoi que rellena los espacios vacíos entre las células identificadas, consiguiendo así que contacten entre ellas».

“Estas etiquetas celulares transformadas son las que llamamos weak labels [etiquetas débiles], y las utilizamos como nuestro nuevo conjunto de entrenamiento. Aunque estas etiquetas no son totalmente perfectas, capturan de una forma bastante realista la morfología celular (dado que las células epiteliales comparten algunas características de organización con los patrones de Voronoi). Además, al ser muchas y muy heterogéneas, ayudan a mejorar el proceso de re-entrenamiento de la red. Este paso es clave en CartoCell, ya que nos permite conseguir muy buenos resultados en segmentación sin tener que emplear un tiempo excesivo en etiquetar manualmente un conjunto de entrenamiento grande”, completa el investigador.

Una de las características de CartoCell es su versatilidad, según defiende el Dr. Pedro Gómez-Gálvez, autor también del trabajo y actualmente en el Departamento de Fisiología, Desarrollo y Neurociencia de la Universidad de Cambridge (Reino Unido). En concreto, su red neuronal se podría sustituir por cualquier modelo de segmentación del estado del arte (redes neuronales convolucionales 3D o cualquiera de sus variantes), siempre y cuando se utilice el concepto de etiquetado ligero o “weak labels” anteriormente descrito para mejorar el conjunto de entrenamiento. “De hecho, en nuestro artículo probamos con varias arquitecturas de red modernas y, con todas, los resultados fueron muy buenos tras el etiquetado ligero siguiendo el algoritmo de Voronoi”, confirma Gómez-Galvez.

Además, CartoCell es una herramienta de código abierto, lo que brinda la oportunidad a otros expertos de utilizar, mejorar o adaptar libremente su uso. “Todas las personas que hemos participado en la creación de CartoCell creemos firmemente en la idea de ciencia abierta. Consecuentemente, CartoCell ha sido implementado desde el primer día como código abierto, y siempre ha estado disponible para la comunidad. En ese sentido, nuestra intención ha sido crear una herramienta accesible, fácil de instalar y utilizar por personas no expertas, pero también adaptable y ampliable para quien quiera desarrollar nuevas soluciones sobre ella”, concluye.

Referencia:

Jesus A. Andres-San Roman, Carmen Gordillo-Vazquez, Daniel Franco-Barranco, Laura Morato, Cecilia H. Fernández-Espartero, Gabriel Baonza, Antonio Tagua, Pablo Vicente-Munuera, Ana M. Palacios, María P. Gavilán, Fernando Martín-Belmonte, Valentina Annese, Pedro Gómez-Gálvez, Ignacio Arganda-Carreras, Luis M. Escudero (2023) CartoCell, a high-content pipeline for 3D image analysis, unveils cell morphology patterns in epithelia Cell Reports Methods doi: 10.1016/j.crmeth.2023.100597

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo CartoCell o cómo detectar patrones ocultos en tejidos celulares se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Minerales con brillo

Thu, 2023/09/28 - 11:59

brillo
Los minerales, esas sustancias sólidas naturales formadas por elementos químicos ordenados en estructuras cristalinas, presentan una serie de propiedades físicas y químicas que les son únicas y características, lo que nos permite utilizarlas como criterios identificativos y clasificatorios.

Dicho de otro modo y un poco más sencillo. Debido a la composición química de los minerales y la estructura interna que presentan esos elementos químicos, cada mineral tiene unas características concretas que se pueden observar a simple vista y que son propias de cada uno de ellos, lo que nos permite identificarlos rápidamente diferenciándolos de los demás. Si lo asimilamos a los seres humanos, serían esos caracteres heredados que sirven para describir a una persona sin confundirla con otra, como el color del pelo y de los ojos, el tono de la piel, la altura, la presencia de pecas y lunares o el rango de nuestra voz.

Esto nos da mucho juego cuando organizamos actividades de divulgación geológicas, ya que podemos plantear talleres de identificación de minerales de manera muy sencilla y utilizando artilugios de andar por casa, como un trozo de loza, una navaja o un vidrio, que suelen llamar mucho la atención del público asistente. Y, aunque la mayoría de las propiedades físicas y químicas a las que hacemos alusión son muy fáciles tanto de explicar cómo de entender, hay una que se le suele atragantar a la gente. Me estoy refiriendo al brillo.

brilloA) Ejemplar de galena, mineral con brillo metálico. B) Cristales de cuarzo, mineral con brillo no metálico.

En una definición rápida, el brillo es el aspecto que adquiere la superficie de un mineral cuando refleja la luz. Y de aquí viene la confusión. Cuando hablamos de reflejar la luz, nos imaginamos a las ondas luminosas rebotando con fuerza contra la cara del mineral y volviendo a la fuente de emisión como un nuevo haz de luz, casi como si ese mineral se convirtiese por sí mismo en emisor y produjese un destello luminoso. Esto es lo que vemos, por ejemplo, cuando el Sol incide en un objeto de metal en la calle, cuyo reflejo se convierte en un resplandor que nos marca exactamente su posición y nos molesta si lo miramos fijamente. Esto nos lleva a pensar que existen minerales que brillan, que serían aquellos que generan este efecto luminoso, y minerales que no brillan, entre los que incluiríamos todos aquellos que no provocan ese destello.

Pues este es el error que comentemos todas las personas la primera vez que nos enfrentamos a tener que describir esta propiedad óptica de los minerales, porque, en realidad, todos y cada uno de los minerales del planeta tienen brillo. Precisamente, esa apreciación visual que os he comentado en el párrafo anterior y que es totalmente intuitiva es la que nos permite clasificar el tipo de brillo de los minerales, diferenciando dos grandes grupos. Por un lado, aquellos minerales que tienen el aspecto brillante de un metal cuando les incide la luz decimos que tienen brillo metálico. Se trata de minerales de colores oscuros y opacos, es decir, que no dejan que les atraviese la luz, como la pirita (sulfuro de hierro, FeS2) o la galena (sulfuro de plomo, PbS). Y, por otro lado, tenemos los minerales de brillo no metálico, que son todos aquellos de colores claros y que se comportan como transparentes o translúcidos, por lo que transmiten la luz bien en parte o bien en su totalidad.

brilloTabla con la clasificación de los tipos (metálico y no metálico) y subtipos (adamantino, graso, mate, nacarado, perlado, resinoso, sedoso y vítreo) de brillo más comunes en los minerales, con algunos ejemplos característicos. Imagen modificada del original de Minerales de Visu / Universidad de Alicante

Podemos encontrar diferentes subdivisiones o agrupaciones dentro de los minerales con brillo no metálico, como los de brillo vítreo porque nos recuerdan al brillo que presenta el vidrio de una ventana, que es lo que le ocurre al cuarzo (dióxido de silicio, SiO2), o los de brillo nacarado, que en este caso se asemeja a las irisaciones que se producen en las perlas y es característico del talco (silicato de magnesio hidratado, Mg3Si4O10(OH)2). Pero, por lo general, no entramos en tanto detalle a la hora de clasificar los minerales de acuerdo a su brillo, decimos simplemente que tienen brillo metálico o brillo no metálico.

Sé que he repetido la palabra clave brillo en demasiadas ocasiones a lo largo del texto, pero ha sido totalmente a posta para dejar las ideas bien claras de que todos los minerales tienen esta propiedad y que es una de las características físicas básicas para clasificarlos. Así, cuando os enfrentéis a un apasionante taller divulgativo de identificación de minerales, sabréis la diferencia entre brillo metálico y brillo no metálico y podréis seguir jugando con sus propiedades hasta que acertéis el nombre correcto del ejemplar que tengáis en la mano.

Agradecimiento:

Quiero dar las gracias a Ana Rodrigo, Directora del Museo Geominero del Instituto Geológico y Minero de España (IGME-CSIC), por darme la idea de escribir este artículo tras una interesante conversación sobre cómo mejorar nuestras actividades de divulgación geológicas, resaltando la problemática del público en general a la hora de entender algunas de las propiedades características de los minerales.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Minerales con brillo se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Svetlana Jitomirskaya, la matemática que ganó la mitad de diez martinis

Wed, 2023/09/27 - 11:59

Ella era tan brillante que yo sabía que yo no lo era tanto.

Svetlana Jitomirskaya en [4].

En la anterior cita, la matemática Svetlana Jitomirskaya se refiere a Valentina Borok, su madre, que fue una destacada matemática ucraniana. De ella ya hablamos en este Cuaderno de Cultura Científica.

A pesar de lo brillante que era su madre, Svetlana Jitomirskaya no se queda atrás. Especialista en sistemas dinámicos y física matemática, en 2005 obtuvo el Premio Ruth Lyttle Satter en matemáticas por su trabajo pionero en su especialidad. Y, junto a Artur Ávila, resolvió en 2009 el conocido como problema de los diez martinis en el área de los sistemas dinámicos.

JitomirskayaSvetlana Jitomirskaya. Fuente: Springer.

 

Una familia matemática

Svetlana Yakovlevna Jitomirskaya es la hija pequeña de los matemáticos Valentina Mikhailovna Borok y Yakov Yitomirski, que realizaron conjuntamente una parte importante de su investigación.

Su hermano mayor, Michail Zhitomirski (1958) también ha dedicado su vida profesional a las matemáticas. En este momento trabaja en teoría de variedades diferenciables en el Instituto Tecnológico de Israel en Haifa.

Svetlana Yakovlevna Jitomirskaya nació el 4 de junio de 1966 en Járkov (Ucrania). Comentaba sobre sus primeros años (ver [3]):

Cuando yo nací, mis padres ya eran catedráticos (en una sociedad en la que este título inspiraba mucho respeto). Mi madre era sin duda la matemática más destacada del país. Después de haber criado a mi hermano mayor, que estaba claramente dotado para las matemáticas, mis padres pensaron que un matemático más en nuestra familia sería demasiado. Me animaron a interesarme por cosas variadas, y empecé a inclinarme seriamente por las humanidades. Escribí poesía (premiada) y gané algunos concursos nacionales de bachillerato en literatura rusa. Planeé un futuro estudiando (si no escribiendo) poesía rusa.

A pesar de que ni ella ni su familia pensaban que se iba a dedicar a las matemáticas, Svetlana, a sus 14 años, se enamoró durante unas vacaciones de un chico que vivía en Moscú. Sabía que era difícil mantener una relación a distancia y, ya con 16 años, vio que la única manera que tenía de estar cerca de su amado era ingresando en la Universidad Estatal de Moscú. En aquella época esta institución limitaba el número de estudiantes judíos que podían acceder a sus enseñanzas. Para mantener esas cuotas limitantes los aspirantes judíos eran sometidos a preguntas exageradamente difíciles durante los exámenes orales de ingreso. De esta manera intentaban asegurar que el alumnado judío no constituyera más del 0,5 % del estudiantado total. Svetlana sabía que tenía muy pocas posibilidades de aprobar en cualquier disciplina, pero las matemáticas aparecieron como una opción mejor que las humanidades al haber una competencia mucho menor y una mayor objetividad.

Las matemáticas llegan de manera inesperada

Con esta idea en la cabeza dedicó su último año de instituto a preparar el examen oral de matemáticas. En sus propias palabras (ver [3]):

Creo que durante ese año resolví todos los problemas elementales complicados que había, y algunos más. Me tomaba cada problema como algo personal y lo atacaba como si mi felicidad futura dependiera de si lo resolvía o no. Me aceptaron en la Universidad Estatal de Moscú; sin embargo, no puedo considerarlo una victoria personal como me hubiera gustado. No llegué a mostrar ni una fracción de mis habilidades en aquel examen oral, ya que no me sometieron a ese trato «judío» (quizá, debido a las conexiones de mis padres). Sin embargo, algo me ocurrió durante esa extensa preparación, ya que empecé a amar el proceso.

Y de este modo consiguió acercarse a Moscú para no separarse de Vladimir A. Mandelshtam, quien posteriormente se dedicó a la química, con quien se casó en cuanto alcanzó su mayoría de edad.

Jitomirskaya terminó sus estudios universitarios en 1987, graduándose con matrícula de honor. Continuó con su formación doctoral en la Universidad Estatal de Moscú, bajo la supervisión de Yákov Grigórevich Sinái (1935), que también la había asesorado durante sus estudios universitarios. Sinái es un reconocido especialista en teoría de sistemas dinámicos, física matemática y teoría de la probabilidad. Reconocido con el Premio Abel en 2014, fue el principal artífice de la mayoría de los puentes que conectan el mundo de sistemas deterministas (dinámicos) con el mundo de los sistemas probabilísticos (estocásticos).

Svetlana presentó su tesis doctoral en 1991: Spectral and Statistical Properties of Lattice Hamiltonians. Ese mismo año, Vladimir finalizó también su trabajo doctoral.

Antes de finalizar su tesis, en 1990, comenzó a trabajar como investigadora en el Instituto Internacional de Teoría de la Predicción de Terremotos y Geofísica Matemática de Moscú, centro en el que ya trabajaba su marido.

Un año más tarde ofrecieron a Svetlana un puesto postdoctoral en la Universidad de California en Irvine y a Vladimir otro en la Universidad del Sur de California. Aceptaron ambas ofertas de trabajo porque estarían cerca, aunque no fuera en el mismo centro. Lo que pensaron que iba a ser una estancia de un año se convirtió en su lugar de trabajo y residencia definitivos.

Una matemática reconocida

Jitomirskaya recibió el Premio Ruth Lyttle Satter 2005 de la American Mathematical Society. Este premio se concede cada dos años en reconocimiento a una contribución destacada a la investigación matemática realizada por una mujer en los cinco años anteriores. El comité de selección destacó (ver [1]):

El Premio Ruth Lyttle Satter de Matemáticas se concede a Svetlana Jitomirskaya por su trabajo pionero sobre la localización cuasiperiódica no perturbativa, en particular por los resultados de sus artículos (1) «Metal-insulator transition for the almost Mathieu operator«, Ann. of Math. (2) 150 (1999), no. 3, 1159-1175, y (2) con J. Bourgain, «Absolutely continuous spectrum for 1D quasiperiodic operators«, Invent. Math. 148 (2002), no. 3, 453-463. En su artículo de los Annals, desarrolló un enfoque no perturbativo de la localización cuasiperiódica y resolvió la vieja conjetura de Aubry-Andre sobre el operador casi Mathieu. Su artículo con Bourgain contiene el primer resultado general no perturbativo sobre el espectro absolutamente continuo.

Además, entre otros reconocimientos, Jitomirskaya ganó en 2020 del Premio Dannie Heineman de Física Matemática que se otorga cada año desde 1959 conjuntamente por la American Physical Society y el American Institute of Physics. Svetlana recibió este galardón:

Por su trabajo en la teoría espectral de operadores de Schrödinger casi periódicos y cuestiones relacionadas en sistemas dinámicos. En particular, por su papel en la solución del problema de los diez martinis, relativo a la naturaleza de conjunto de Cantor del espectro de todos los operadores casi Mathieu y en el desarrollo de los aspectos matemáticos fundamentales de los fenómenos de localización y transición metal-aislante.

El problema de los diez martinis lleva este nombre porque el especialista en teoría de la probabilidad Mark Kac (1914-1984) ofreció diez martinis a quien lo solucionara. Jitomirskaya lo resolvió junto al matemático Artur Avila (1979) en el artículo The Ten Martini Problem publicado en 2009.

A Svetlana Jitomirskaya aún le quedan muchos éxitos matemáticos por conseguir. Su madre fue un modelo extraordinario para ella. Al recibir el premio Ruth Lyttle Satter, comentó lo siguiente en su discurso de agradecimiento (ver [1]):

Debo decir que nunca me he sentido en desventaja por ser una mujer matemática; de hecho, hasta cierto punto ocurre lo contrario. Sin embargo, en comparación con la mayoría de las demás, tuve una ventaja única: un modelo fantástico desde muy pronto: mi madre, Valentina Borok, que habría sido mucho más merecedora de un premio así que yo ahora, si hubiera existido en su época. Para mí, recibir este premio es un homenaje especial a su memoria. Es un placer aprovechar esta oportunidad para darle las gracias.

Referencias

[1] AMS; 2005 Satter Prize, Notices of the AMS 52 (4) 447-448, 2005.

[2] Svetlana Jitomirskaya, Valentina Mikhailovna Borok, MacTutor History of Mathematics archive, University of St Andrews.

[3] John O’Connor and Edmund Robertson, Svetlana Yakovlevna Jitomirskaya, MacTutor History of Mathematics archive, University of St Andrews.

[4] Margarita Rodríguez, Svetlana Jitomirskaya, la matemática detrás de la solución a “el problema de los diez martinis” de la mecánica cuántica, BBC News, 10 de diciembre de 2022.

[5] Valentina Borok, Wikipedia.

[6] Svetlana Jitomirskaya, Wikipedia.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Svetlana Jitomirskaya, la matemática que ganó la mitad de diez martinis se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La ‘repulsión de la especie’ permite una alta biodiversidad en los árboles tropicales

Tue, 2023/09/26 - 11:59

repulsión

Debido a que las plántulas de los árboles no crecen tan bien cuando están cerca de sus progenitores, se pueden concentrar más especies de árboles en los bosques tropicales.

Un artículo de Veronique Greenwood. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons

Vista aérea del bosque tropical en la Isla de Barro Colorado. Fuente: Christian Ziegler / Wikimedia Commons / Gewin V, PLoS Biology Vol. 4/8/2006, e278 doi: 10.1371/journal.pbio.0040278

Para los ecólogos, las selvas tropicales encierran muchos enigmas. Una sola hectárea puede contener cientos de especies de árboles, muchas más que en los bosques más cercanos a los polos. De alguna manera estas especies coexisten en una abundancia tan vertiginosa que, como han señalado a veces los naturalistas y ecólogos, los bosques tropicales pueden parecer jardines botánicos, donde cada planta es algo nuevo.

Para que tal multitud de especies esté tan densamente agrupada deben coexistir en un equilibrio muy particular. La evolución parece no favorecer situaciones en las que una sola especie prospera de manera demasiado agresiva, sino que favorece aquellas en las que los organismos están rodeados de especies distintas a la suya. Conciliar estos hechos con lo que se sabe sobre cómo las especies se distribuyen, compiten e influyen entre sí es un desafío.

Para estudiar esta extraordinaria diversidad hace años los científicos comenzaron a establecer parcelas de bosque donde podían registrar y rastrear la ubicación y el estado de cada árbol durante décadas. Una de las primeras parcelas de este tipo, en la isla de Barro Colorado (IBC) en Panamá, tiene 500 metros de ancho por 1.000 metros de largo (el área de unos 70 campos de fútbol) y contiene más de 300 especies. Desde 1980, investigadores de todo el mundo han estudiado minuciosamente los registros detallados de sus habitantes.

En un artículo publicado recientemente en Science, investigadores de la Universidad de Texas en Austin modelaron varios escenarios de distribución y los compararon con datos de IBC. Descubrieron que los patrones en la dispersión de semillas por el viento o por las aves y otros animales salvajes, así como procesos más aleatorios, no eran suficientes para explicar la distribución de los árboles adultos en el bosque. Sugieren que esto es evidencia de una “repulsión específica de la especie”, una teoría de larga data de que los árboles de la misma especie se espacian naturalmente porque el ambiente que rodea inmediatamente a un árbol padre es específicamente hostil a la propia descendencia del árbol.

Distanciamiento social en árboles

Esta idea de repulsión, formalmente conocida como dependencia negativa de la densidad conespecífica, o CNDD (por sus siglas en inglés), se remonta a la década de 1970, cuando los ecólogos Daniel Janzen y Joseph Connell sugirieron de forma independiente que los insectos, herbívoros y patógenos que se alimentan selectivamente de una especie podrían hacer que el área alrededor de un árbol adulto fuese peligrosa para sus semillas. No se impediría con la misma eficacia que otras especies creciesen en la zona, aunque seguirían estando limitadas por problemas no específicos, como la falta de luz solar bajo la copa de un árbol adulto. El resultado sería que los árboles adultos de una especie tenderían a mantener una especie de “distancia social” mínima entre sí.

Los ensayos realizados en las últimas décadas, principalmente con plántulas, apoyan la CNDD, afirma Michael Kalyuzhny, autor principal del nuevo artículo, cuyo trabajo como investigador postdoctoral en la Universidad de Texas en Austin le ha llevado a abrir un laboratorio en la Universidad Hebrea de Jerusalén. Las semillas a menudo no crecen tan bien en el suelo tomado de lugares cercanos a sus árboles progenitores como en el suelo de lugares cercanos a árboles no relacionados.

Sin embargo, incluso una mirada superficial a los datos del IBC muestra que los árboles adultos en ese bosque no parecen repelerse entre sí. En cambio, los árboles se agrupan, formando grupos sueltos de la misma especie en toda la parcela.

Kalyuzhny y Annette Ostling, la ecóloga comunitaria que dirige el laboratorio donde trabaja Kalyuzhny, se propusieron modelar diferentes escenarios que podrían explicar las distribuciones de árboles observadas, para saber si algo podría estar dificultando el papel de la CNDD en el bosque.

El azar por sí solo no es la respuesta: cuando ejecutaron un modelo nulo, en el que los árboles estaban espaciados aleatoriamente, los árboles adultos de una especie se dispersaban demasiado.

Entonces los investigadores introdujeron el efecto de la dispersión de semillas en sus modelos, que podría ser por el viento, las aves y otros animales. Helene Muller-Landau y sus colaboradores de IBC han hecho estimaciones de lo lejos que puede viajar una semilla desde su fuente dentro de una parcela de 50 hectáreas, utilizando redes que capturan las semillas a medida que van a la deriva hacia el suelo del bosque. Las semillas se recolectan periódicamente y se calcula la distancia a sus progenitores. Kalyuzhny y sus colegas se han basado en estos datos para modelar disposiciones de los árboles determinadas únicamente por la limitación de la dispersión.

Adult trees in tropical forests produce seeds and seed pods that have wildly diverse shapes, which allows them to be spread by wind or by animals in different ways. Foto: Christian Ziegler

Pero este modelo produjo árboles demasiado agrupados. Algo parecía estar actuando sobre la distribución producida por la limitación de la dispersión, dispersando los árboles. “Algo está creando esta repulsión. Y no podemos pensar en otra cosa que en la CNDD”, explica Kalyuzhny.

Cuando los investigadores calcularon lo específica que era la repulsión (cuánto peor era para un árbol estar cerca de su propia especie que de otra), descubrieron que habría tenido que ser bastante fuerte para producir el patrón observado. Esto confirmó un punto esencial de las ideas de Janzen y Connell: «Lo que sea que cree la CNDD tiene que ser específico de cada especie», añade Kalyuzhny.

La importancia de los eventos raros

Ryan Chisholm, ecólogo teórico y profesor de la Universidad Nacional de Singapur que estudia la distribución de los árboles tropicales, está de acuerdo en que los hallazgos de Kalyuzhny encajan con trabajos anteriores sobre la CNDD. Sugiere, sin embargo, que los modelos podrían estar subestimando hasta qué punto los mecanismos de dispersión pueden propagar las semillas. Si los eventos de gran dispersión son raros, por ejemplo, podrían ser difíciles de ver en los datos de las trampas de semillas. Y si las semillas son transportadas más lejos de lo que los investigadores creen, eso podría explicar los grupos de árboles más dispersos en los bosques sin necesidad de repulsión.

«Lo que están diciendo aquí es que según su modelo de limitación de dispersión, los patrones que observan son imposibles», dijo Chisholm. «Yo diría que todavía no sabemos lo suficiente para decir eso».

Los eventos raros han sido importantes en la dispersión de especies de todo tipo: se cree que los monos, por ejemplo, llegaron a América desde África en balsas de vegetación, un evento tremendamente improbable que, sin embargo, tuvo consecuencias significativas. «Ocasionalmente, encontrarás ese pájaro que lleva la semilla muy lejos, o que queda atrapado por el viento y se lanza a la aventura», comenta Chisholm.

Señala que todavía no conocemos suficientemente bien la forma de la curva de distribución de semillas; no es una simple curva de campana, como podrían pensar los no expertos, porque parece tener una “cola muy gruesa” al final.

Si los ecólogos tuvieran datos a una escala mucho mayor que 50 hectáreas, algo que prometen las nuevas técnicas de estudio mediante las cuales los científicos pueden contar árboles desde el aire, podría surgir una nueva visión. Podría ser posible ver patrones que no se ven actualmente, lo que podría cambiar la comprensión del papel que desempeñan la CNDD y la limitación de la dispersión de semillas en la disposición de los bosques. «Esta era de simplemente contemplar una parcela de 50 hectáreas parecerá extremadamente pintoresca, como un telescopio portátil en comparación con el Hubble», predice Chisholm.

Por ahora, Kalyuzhny y sus colegas planean realizar análisis similares en otras parcelas de estudio en todo el mundo para ver qué patrones emergen: ahora hay más de 70 sitios en todo el mundo con parcelas de hasta 50 hectáreas de tamaño, todas monitoreadas como la parcela en IBC. También han realizado simulaciones en las que ajustan el alcance de la CNDD y han descubierto que incluso la repulsión en distancias relativamente cortas puede provocar grandes efectos a escala del bosque.

“Yo repelo a mis vecinos, y ellos repelen a sus vecinos, y ellos repelen a sus vecinos”, explica Kalyuzhny, describiendo cómo pueden surgir patrones a gran escala a partir de acciones a pequeña escala. «El bosque es un cristal desordenado».

 

El artículo original,  ‘Species Repulsion’ Enables High Biodiversity in Tropical Trees, se publicó el 13 de septiembre de 2023 en Quanta Magazine.

Traducido por César Tomé López

El artículo La ‘repulsión de la especie’ permite una alta biodiversidad en los árboles tropicales se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

¿Qué salió mal en el primer trasplante de un corazón de cerdo a un humano?

Mon, 2023/09/25 - 11:59
corazónFoto: Ben Mater / Unsplash

Cada año se realizan en el mundo más de 120.000 trasplantes que dan otra oportunidad a decenas de miles de personas para seguir viviendo. Sin embargo, muchas otras mueren en las listas de espera porque la demanda de órganos es muy superior al número de donaciones. Este problema se está acentuando con los años, debido al envejecimiento progresivo de las poblaciones de multitud de países, que incrementa aún más la necesidad de órganos.

Con el objetivo de solucionar este grave problema sanitario, los científicos están investigando otras opciones alternativas a la donación de órganos humanos. En la última década, el campo de los xenotrasplantes (trasplante de células, tejidos u órganos entre diferentes especies) ha experimentado grandes avances gracias a la ingeniería genética y a los avances en el conocimiento y uso de las células madre. En enero de 2022 se dio un hito histórico en ese sentido: por primera vez, se trasplantó con éxito el corazón de un cerdo a una persona y esta siguió viviendo. El animal había sido modificado genéticamente para que no produjera ciertas moléculas en sus células que se consideran extrañas por el sistema inmunitario humano, lo que minimizó el rechazo.

El paciente, David Bennet, recibió el preciado órgano procedente de un cerdo en el Centro Médico de la Universidad de Maryland. Era su única opción, pues no cumplía los requisitos para acceder a la lista de espera de un corazón humano. Parecía que todo iba bien: la función cardíaca era normal y no había signos de rechazo inmunitario agudo. No obstante, a los 47 días del trasplante, Bennet falleció de forma fulminante debido a un fallo cardíaco (el corazón dejó de bombear la sangre necesaria para mantenerle con vida). Antes de ese fatídico día, los estudios de ecocardiografía y otras pruebas mostraban que el corazón funcionaba sin problemas.

En un primer momento, los investigadores no fueron capaces identificar la causa que llevó al trágico desenlace, pero pusieron en marcha diferentes estudios para analizar cada paso tras el trasplante y conocer qué factores estaban involucrados, ya que estos podrían ser obstáculos también en futuros xenotrasplantes. Se espera que en los próximos años aparezcan ensayos clínicos en los que se trasplanten órganos de animales a personas y toda la información que se pueda obtener de casos como el de Bennet resulta esencial.

En ese sentido, un artículo publicado hace unos meses en la revista médica The Lancet aclara con detalle qué pasó para que el paciente falleciera por un fallo cardíaco. Lejos de ser una única causa la responsable del evento, los datos indican que múltiples factores contribuyeron a un deterioro funcional del corazón porcino trasplantado.

Una de las razones que se barajaban inicialmente como causa del fallo cardíaco era el rechazo hiperagudo. Este suele suceder dentro de los primeros días tras el trasplante por la acción de los anticuerpos contra el órgano donado, lo que lleva a la formación de coágulos que llegan a bloquear a vasos sanguíneos pequeños y, como consecuencia, provocan el infarto del tejido por la falta de oxígeno y nutrientes. No obstante, este tipo de rechazo inmunitario no llegó a aparecer. Los investigadores creen que el delicado estado de salud de Bennet, ya antes del trasplante, fue el desencadenante inicial de una serie de eventos que terminó por provocar su fallecimiento.

El paciente tenía una inmunodepresión muy grave, por lo que el uso estándar de inmunosupresores tuvo que restringirse bastante para que no sufriera infecciones fatales. Sin embargo, esto tenía un precio: también aumentaba el riesgo de rechazo inmunitario hacia el órgano recibido, que fue lo que terminó ocurriendo. Otro factor que pudo haber contribuido a la muerte de Bennet fueron las dos veces que se le administró por vía intravenosa inmunoglobulinas (anticuerpos) durante el segundo mes para prevenir infecciones y el intercambio de plasma sanguíneo. Se cree que esto terminó por desencadenar la respuesta inmunitaria de rechazo frente al corazón recibido, porque se detectó un aumento de anticuerpos (sobre todo de IgG) contra moléculas porcinas tras la administración de las inmunoglobulinas y, además, se observó también la unión de estas moléculas a la superficie interna (endotelio) de los vasos sanguíneos del corazón de cerdo.

Los científicos encontraron pruebas indirectas del ataque de anticuerpos hacia células y tejidos del corazón porcino mediante su análisis a través de diferentes técnicas de laboratorio. Por ejemplo, detectaron lesiones generalizadas en el endotelio de los vasos de dicho órgano. Por otro lado, también se identificó la reactivación y la replicación de virus porcinos (en concreto, de citomegalovirus y roseolovirus porcinos) que habían estado sin mostrar señales de actividad hasta ese momento y que probablemente desencadenaron una respuesta inflamatoria que también contribuyó a dañar al órgano donado. Es posible que la atenuación del tratamiento antiviral del paciente como consecuencia de su estado de salud terminase por activar estos virus.

Como resultado de todo lo anterior, el músculo cardíaco fue desarrollando cicatrices (fibrosis) que terminaron por incapacitar al corazón para contraerse con normalidad y bombear la sangre necesaria para mantener a Bennet con vida. Una trágica cadena de desafortunados eventos biológicos que los científicos tratarán de evitar en los próximos pacientes que reciban corazones de cerdo. Ahora están más preparados: cuentan con técnicas novedosas para monitorizar con más detalle a aquellos que reciban un xenotrasplante y así detectar de forma temprana las primeras señales de rechazo inmunitario. Los próximos ensayos clínicos determinarán si los problemas que sufrió Bennet se debieron principalmente a su delicado estado de salud o si, por el contrario, estos aparecerán también en otros pacientes y si será posible evitarlos.

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo ¿Qué salió mal en el primer trasplante de un corazón de cerdo a un humano? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Más que la genética, es la cultura la que configura los grupos humanos

Sun, 2023/09/24 - 11:59

cultura

culturaFoto: Eddi Aguirre / Unsplash

Los cantos populares son verdaderos registros del pasado de las poblaciones humanas. Sus diferencias reflejan las distintas trayectorias que han seguido aquellas a lo largo del tiempo. Junto con la lengua y otros elementos culturales, pueden aportar un complemento valioso a los estudios genéticos como herramienta para conocer el pasado.

Conforme los seres humanos nos dispersamos por el planeta, no sólo se diferenciaron nuestros genomas, también se diversificaron las lenguas y otros rasgos culturales. De hecho, es posible, y no demasiado difícil, establecer correspondencias entre grupos genéticos y familias o variedades lingüísticas. No obstante, en numerosas ocasiones, y por varios posibles motivos, los grupos humanos han perdido la que era su lengua para adquirir otra diferente. Por ello, la correspondencia original entre grupos genéticos y grupos lingüísticos se difumina, lo que dificulta el análisis conjunto de esos rasgos de cara, por ejemplo, a caracterizar la historia y relaciones entre unos grupos humanos y otros.

Además de la lengua, la música tradicional se ha diferenciado también entre grupos humanos conforme éstos se han desgajado unos de otros y se han diversificado genéticamente. El genetista de poblaciones Floyd Reed presentó, en la reunión anual de 2007 de la American Anthropological Association, un estudio realizado con 39 grupos humanos de África que mostraba una estrecha conexión entre su genética y las canciones que cantaban. Esos resultados venían a apoyar la idea de que la música puede ayudar a identificar las profundas relaciones entre diferentes poblaciones humanas. Al parecer, la música es mucho más resistente al cambio que otros rasgos culturales; puede serlo más incluso que la lengua.

El procedimiento utilizado para caracterizar las canciones que sirvieron de base al estudio de Floyd fue desarrollado por los musicólogos y etnógrafos Alan Lomax y Victor Grauer. Lomax, quien había dado a conocer a Woodie Guthrie y Lead Belly al gran público, creó un archivo de unas 5.500 canciones tomadas de 857 culturas. El sistema, denominado “Cantométrica”, diseñado por los dos etnomusicólogos clasifica las canciones basándose en una escala de 37 rasgos relacionados con ciertas características de la melodía.

Floyd desarrolló un método que permitía determinar la distancia entre pares de culturas musicales, y comprobó que, efectivamente, existía una correlación significativa entre las distancias musicales y las genéticas. Observó que los pueblos que se agrupaban musicalmente, tendían a compartir marcadores genéticos. El método empleado suscitó alguna reserva, ya que la cuantificación de los rasgos utilizados en la clasificación es subjetiva, y eso limita su aplicabilidad universal. No obstante, sus defensores señalan que los resultados avalan su validez.

En esa misma línea, en 2014 se publicaron los resultados de una investigación en Taiwán en la que se estudiaron nueve poblaciones indígenas, cuya genética era conocida, y de las que se contaba con abundantes registros de canciones populares de géneros diversos, principalmente de carácter ritual. Los autores de la investigación trabajaron con una muestra de 220 canciones. Las codificaron combinando Cantométrica (para reflejar estilo vocal, ornamentación y dinámica) y un método desarrollado por ellos mismos, CantoCore (para reflejar ritmo, tono, texto, textura y forma). En total trabajaron con 41 caracteres (15 de Cantométrica y 26 de CantoCore) que han servido para codificar los rasgos de cada canción.

Calcularon la distancia, dos a dos, entre las nueve poblaciones, tanto para la genética (ADN mitocondrial) como para los cantos. Estimaron también las distancias entre las lenguas, a partir de cognados lexicales del vocabulario básico de las culturas incluidas en el estudio. Dado que se analizaron nueve poblaciones, contaron con 36 pares, por lo que obtuvieron 36 distancias para cada aspecto estudiado (genética, lengua y canciones). El análisis estadístico consistió, en lo esencial, en análisis de la varianza –para valorar la variabilidad en y entre culturas– y en correlaciones entre las distancias estimadas a partir de cada uno de los tres rasgos –para establecer el grado de correspondencia entre rasgos genéticos y culturales.

La correlación entre distancias musicales y distancias genéticas fue significativa (r = 0,417; p = 0,015), y lo siguió siendo (r = 0,385; p = 0,032) incluso después de descontar el efecto de la distancia geográfica entre las poblaciones. También era significativa la correlación entre distancias genéticas y lingüísticas (r = 0,492; p = 0,006), pero en este caso la significación se esfumó (r = 0,321; p = 0,071) al introducir las distancias geográficas en el análisis. Eso indica que probablemente las distancias entre las canciones están más firmemente relacionadas con las distancias genéticas que éstas con las lingüísticas. Los autores de la investigación concluyeron que es muy probable que se haya producido una covariación de la música y del genoma mitocondrial de los taiwaneses mediante una ramificación a partir de un ancestro común, de manera que las diferencias, genéticas y musicales no serían mera consecuencia de una separación geográfica relativamente reciente de esas poblaciones.

Los valores de correlación que obtuvieron fueron similares, lo que indica, a mi entender, que tanto las distancias lingüísticas como la musicales reflejan, en una medida similar, el grado de diferenciación de los grupos humanos. Es muy interesante, sin embargo, que la correlación entre las distancias musicales y las lingüísticas sea relativamente débil (r = 0,411; p = 0,085), lo que sugiere que la diferenciación de uno y otro elemento cultural no ha seguido el mismo proceso. Así pues, música, por un lado, y lengua, por el otro, retienen aspectos diferentes de la historia de los grupos humanos analizados.

De todos los elementos contemplados en el estudio, el que más me ha llamado la atención es el de la magnitud relativa de las diferencias entre unos elementos y otros. Porque resulta que, utilizando la misma metodología para analizar distancias, las existentes entre las canciones populares y las lenguas son mayores que las genéticas. En todos los casos –lengua, canciones populares y genoma– la variación dentro de cada población es mayor que la variación entre poblaciones, pero, en términos relativos, hay más variación entre poblaciones en canciones populares y lengua que en los genomas mitocondriales.

En conclusión, los grupos humanos se diferencian en mayor medida en los rasgos culturales que en los rasgos genéticos. Y de aquí se extrae una interesante consecuencia: los grupos humanos se constituyen y diferencian unos de otros sobre la base de elementos culturales. O lo que es lo mismo, a los efectos de la configuración de los pueblos, la cultura es lo que nos hace miembros de uno u otro grupo, no los genes que codifican las proteínas que dan forma y función a nuestro organismo.

Fuente: S Brown S, P E Savage, AM-S Ko, M Stoneking, Y-C Ko, J-H Loo, J A Trejaut (2014): Correlations in the population structure of music, genes and language. Proc. R. Soc. B 281.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Más que la genética, es la cultura la que configura los grupos humanos se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La ceguera a las plantas

Sat, 2023/09/23 - 11:59

ceguera

A pesar de la importancia que tienen las plantas en nuestro entorno, el conocimiento sobre ellas es escaso, convirtiéndolas en elementos que muchas veces pasan inadvertidos o que, como mucho, quedan como telón de fondo. ¿Por qué generan tan poco interés las plantas? ¿Es el color de las plantas y los paisajes casi monocromáticos los elementos que provocan esa reacción?

En el año 1999 los botánicos James H. Wandersee y Elisabeth Schussler bautizaron este fenómeno como “ceguera a las plantas” o «ceguera vegetal» y, desde entonces, varias investigaciones han intentado entender las razones del mismo.

Entre los motivos que explicarían la ceguera a las plantas se mencionan los factores biológicos y socioculturales. El ser humano cuenta con un sistema visual que no se siente cómodo al no poder fijar la mirada en un punto concreto de un paisaje que, a primera vista, puede parecer monótono. Además, el sistema visual y el cerebro humano habrían evolucionado para detectar con más facilidad a los animales que a las plantas.

La ceguera a las plantas tiene consecuencias y por ejemplo, como muestra el estudio realizado por la Universidad del País Vasco y Aranzadi, mientras hoy en día los y las jóvenes son capaces de nombrar 10 animales, solo el 7% es capaz de nombrar 10 plantas.

La investigadora Ainara Achurra habló sobre este fenómeno en la charla “La ceguera a las plantas: un fenómeno que sufrimos la mayoría” dentro del ciclo Bidebarrieta Científica organizado por la Cátedra de Cultura Científica de la Universidad del País Vasco y la Biblioteca Bidebarrieta.

Ainara Achurra es doctora en Biología y profesora en la Facultad de Educación y Deporte de la Universidad del País Vasco en Vitoria-Gasteiz.

Edición realizada por César Tomé López

El artículo La ceguera a las plantas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Los cambios en el glaciar de Aneto

Fri, 2023/09/22 - 11:59

El glaciar de Aneto, aunque se considera un glaciar muy pequeño, es el glaciar más grande de los Pirineos y también el más grande del sur de Europa. Sin embargo, el cambio climático ha acelerado su desaparición, al igual que en el resto de los glaciares de la cordillera. La evolución de las técnicas de teledetección de corto alcance posibilita observar la superficie del glaciar con un nivel de detalle muy alto, lo que permite la comparación entre la superficie del glaciar de diferentes años y la evaluación de sus cambios.

AnetoGlaciar del Aneto y vista de la Cresta de los Portillones desde la cima en 2007. Fuente: Faras / Wikimedia Commons

Los glaciares de montaña son excelentes indicadores de la variabilidad y el cambio climático porque su evolución depende del equilibrio entre la acumulación de nieve durante el período frío y la fusión de hielo y nieve durante la estación más cálida. El glaciar del Aneto es uno de los glaciares más meridionales de Europa y, a pesar de ser un glaciar muy pequeño (<0,5 km2), es el más grande de los Pirineos.

Un reciente estudio liderado por el Instituto Pirenaico de Ecología (IPE-CSIC) ha encontrado que, para el periodo 1981-2022, la superficie del glaciar de Aneto ha disminuido un 64,7 % (de 135,7 ha (1,36 km2) a 48,1 ha (0,48 km2)), y su frente ha pasado de 2.828 a 3.026 metros.

El objetivo del estudio era analizar la evolución reciente del glaciar más grande y alto de los Pirineos utilizando el conjunto de datos temporales más largo de pérdida de espesor de los glaciares en los Pirineos. Además, el trabajo ha permitido evaluar el impacto de una única temporada extremadamente cálida y seca (2022) en la evolución de los glaciares. “Hemos realizado el estudio del glaciar de Aneto más detallado (modelos tridimensionales del glaciar de muy alta resolución) y longevo (41 años) hasta el momento. Para ello, hemos reconstruido las superficies del glaciar entre 1981 y 2022 a partir del uso de imágenes aéreas de muy alta resolución que han sido obtenidas, por un lado, por el Instituto Geográfico Nacional para el año 1981 y mediante vuelos LIDAR para el año 2011 y, por otro, por vehículos aéreos no tripulados (drones) para los años 2020, 2021 y 2022 -explica Eñaut Izagirre Estibaritz, profesor del Departamento de Geografía, Prehistoria y Arqueología de la Universidad del País Vasco y participante en la investigación-. Todo ello se complementó con una amplia campaña de georadar en el año 2020, donde a partir de la realización de diferentes transectos (más de 7 km recorridos sobre el glaciar), pudimos conocer el grosor que tenía el glaciar en ese año”.

Desaparición de los glaciares

La pérdida de superficie glaciar en los Pirineos es notable: había más de 100 glaciares en 1850, 39 en 1984, 21 en 2020 y 18 en 2022, correspondientes a una superficie de 2.060 ha (20,6 km2) en 1850, 810 ha (8,1 km2) en 1984, 232 ha (2,3 km2) en 2020 y 170 ha (1,7 km2) en 2022, lo que representa una pérdida del 92 % del área glaciar desde el final de la Pequeña Edad de Hielo.

AnetoLos investigadores midiendo el grosor del glaciar. Fuente: campusa

En el Aneto, durante los últimos 41 años, la superficie glaciar se ha reducido un 64,7 % y el espesor del hielo ha disminuido, en promedio, 30,5 m. “El espesor medio del hielo restante en el otoño de 2022 fue de 11,9 m, frente al espesor medio de 32,9, 19,2 y 15,0 m reconstruido para 1981 y 2011 y observado en 2020, respectivamente. Los resultados demuestran la crítica situación del glaciar, con una inminente segmentación en tres cuerpos de hielo más pequeños y sin evidencia de una zona de acumulación. También encontramos que la influencia de un año extremadamente caluroso y seco, como se observó en la temporada 2021-2022, conduce a una degradación drástica del glaciar, lo que representa un alto riesgo para la persistencia del glaciar de Aneto, situación que podría extenderse al resto de glaciares pirenaicos en un tiempo relativamente corto”, detallan los investigadores.

Los datos de la investigación señalan que la distribución del espesor del hielo muestra zonas alrededor de los glaciares con muy poco espesor (<2 m), por lo que esas zonas están muy cerca de desglaciarse durante los próximos veranos. Las pérdidas de superficie y espesor del glaciar de Aneto indican la situación crítica de esa masa de hielo. Se encuentra en su etapa terminal, mostrando fragmentación en cuerpos de hielo más pequeños y presencia de cubierta de derrubios en algunas áreas. “Las tasas de adelgazamiento del glaciar, que estaban en torno a 1 m por año, se han triplicado en el último año de estudio (entre 2021 y 2022), lo cual demuestra la afección de un año bastante seco y, sobre todo, extremadamente cálido como 2022 sobre la fusión de la nieve y el hielo en el glaciar de Aneto”, concluye el profesor de la UPV/EHU.

Referencia:

Vidaller, I., Izagirre, E., del Rio, L. M., Alonso-González, E., Rojas-Heredia, F., Serrano, E., Moreno, A., López-Moreno, J. I., Revuelto, J. (2023) The Aneto glacier’s (Central Pyrenees) evolution from 1981 to 2022: ice loss observed from historic aerial image photogrammetry and remote sensing techniques The Cryosphere doi: 10.5194/tc-17-3177-2023

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Los cambios en el glaciar de Aneto se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Cómo editar una imagen con matemáticas

Thu, 2023/09/21 - 11:59

En Coordenadas polares os hablé de mi afición por las fotografías con simetría circular. Pero no os conté toda la historia. No solo saco “fotos redondas”. Además, las “despolarizo”, por así decirlo. O, dicho de manera más precisa: utilizo un programa para mapear los píxeles de sus coordenadas polares, sobre los ejes cartesianos de una segunda imagen. Y además de eso, aplico una transformación exponencial sobre el radio, de manera que se conservan las proporciones de cada región en toda la imagen.

Pero… dicho así, creo que suena más complicado de lo que realmente es. Se entiende mucho más fácilmente con un par de imágenes. La idea es convertir la foto de la izquierda en la imagen de la derecha:

imagen

imagen

O, lo que es lo mismo (quizás con un esquema se entienda mejor):

La transformación no se logra con un truco de Photoshop, ni con un filtro de ningún tipo. Es una aplicación de código abierto llamada depolarizer.

¿Qué es depolarizer?

Depolarizer es una aplicación de R creada por Iñaki Úcar y una servidora. El proyecto nació como un pequeño código de java que escribí para poder ejecutarlo desde FIJI. Pero Iñaki lo mejoró infinitamente y añadió una interfaz gráfica para que cualquier persona lo pueda instalar, y jugar con él fácilmente. Si queréis probarlo, solo tenéis que ir al repositorio de GitHub, descargar el código, y abrir la aplicación con RStudio. Una vez la ejecutéis, deberíais ver en vuestro navegador aparece una interfaz parecida a esta:

La interfaz está construida con ayuda de la librería shiny de R. Pero el alma de la aplicación vive en este archivito de Python, depolarizer.py. Es ahí donde se puede donde la imagen de entrada se transforma en su versión “despolarizada”. En concreto, en la función “to_polar”.

Voy a intentar a explicar cómo funciona. Pero no te preocupes: no hace falta saber programar para interpretar su código. Y si se te hace bola, siempre puedes saltar hasta la siguiente sección.

¿Cómo funciona el código?

La idea es más o menos como sigue:

1- Generamos una imagen de salida (pix0), con la resolución la elegida (res0).

Una imagen, en este contexto, no es más que una matriz, una estructura donde vamos a guardar los valores RGB de los pixeles de la nueva imagen. Las coordenadas de la imagen son los índices de cada elemento de la matriz.

En adelante utilizaremos los subíndices “i” de “input” y “o” de “output” para identificar las variables referidas a la imagen de entrada y de salida respectivamente.

2- Definimos algunas variables auxiliares de utilidad.

  • La resolución de la imagen de entrada es resi.
  • Las variables x0 e y0 son las coordenadas de la imagen de salida normalizadas (dividimos sus valores entre la resolución de la imagen, para que vayan de 0 a 1).

Y aquí viene lo más interesante:

  • Las coordenadas polares, r y Θ (angle), están definidas directamente sobre las coordenadas cartesianas de la imagen de salida, x0 e y0 . Es decir, cuando el programa “pinte” la imagen de salida (pix0), en la dirección horizontal (x0) veremos el ángulo (angle), y en la vertical (y0), veremos el radio (r).
  • En el caso de r, utilizamos una transformación exponencial. Y eso por qué, os preguntaréis, pues eso se merece su propio apartado, más abajo.

3- Definimos la función de mapeo, que es una transformación de coordenadas polares a cartesianas.

Lo que hará este mapeo es lo siguiente: el programa intentará rellenar los píxeles de la imagen de salida de uno en uno. Para saber “qué pintar” en cada pixel, buscará las coordenadas del pixel correspondiente en la imagen de entrada según diga el mapa.

¿Y qué es el mapa? ¡No es más que una función! La entrada de esa función son las coordenadas del pixel que queremos rellenar en la imagen final (x0 , y0) y la salida son las coordenadas correspondientes de la imagen inicial (xi , yi).

Si escribimos este código de manera más matemática, y obviamos la resolución (resi = 1) quedaría algo así:

 

Pongamos, por ejemplo, que queremos rellenar el pixel situado en (x0 , y0) = (1/8, 0) . El programa utilizará estas coordenadas como input de las funciones mapx y mapy y encontrará las coordenadas del pixel correspondiente en la imagen de entrada. En este caso serían:

 

¿Y para qué sirve esa función exponencial?

La idea de “desenroscar” las imágenes mediante un cambio de coordenadas resulta más o menos intuitiva después de ver unos cuantos ejemplos. Pero puede que sea más difícil ver qué es lo que hace esa función exponencial sobre el radio. Quizás se entiende mejor si usamos el esquema anterior y representamos el cambio de coordenadas sin la función exponencial. El resultado sería este:

Fíjate en que todas las circunferencias de la imagen de entrada pasan a medir lo mismo en la de salida (son las líneas negras que van de izquierda a derecha). Pero, por eso mismo, el área entre las dos circunferencias más pequeñas queda mucho más “alargada” que la de la circunferencia mayor.

Mira lo que sucede, por ejemplo, con los dos “quesitos” subrayados en color negro. En la imagen de la izquierda los dos son muy parecidos: salvo por un factor de escala, tienen la misma forma. En la imagen de la derecha, en cambio, son muy distintos entre sí. La única manera de preservar las proporciones de todos los quesitos y evitar que distintos puntos de la superficie se deformen es utilizar una función exponencial, la misma que se oculta tras los sucesivos giros de la espiral maravillosa de Bernoulli.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Cómo editar una imagen con matemáticas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El problema de los calissons

Wed, 2023/09/20 - 11:59

Este verano he pasado unos días visitando la región francesa de la Provenza. Mi visita empezó en la hermosa ciudad de Aix-en-Provence, donde compré una caja de los famosos calissons.

Fotografía de mi visita a la Fundación Vasarely, en Aix-en-Provence, Francia. Fotografía: Marian Espinosa

 

Calissons

El calisson es un dulce típico de la región francesa de la Provenza, asociado especialmente con la ciudad de Aix-en-Provence. Está elaborado a partir de una pasta formada por almendras molidas y melón confitado (u otras frutas confitadas), con un glaseado blanco por encima, que se cuece a fuego lento. La forma del calisson es, más o menos, la de un rombo formado por dos triángulos equiláteros (similar a la de la forma de la caja que mostramos en la siguiente imagen).

calissonsFotografía de una caja de calissons, con forma de rombo (como la forma de los propios calissons), que me compré en la ciudad francesa de Aix-en-Provence. Fotografía: Marian Espinosa

 

No está muy claro el origen de este dulce, que parece ser originario de Italia. Como se comenta en la correspondiente entrada de la Wikipedia (en francés), “una de sus primeras referencias se remonta al siglo XII, en un texto medieval italiano en latín que utiliza el término calisone para referirse a un pastel de almendra y harina similar al mazapán moderno”. Y existe otra referencia posterior, el texto Chronique des Vénitiens / Crónica de los venecianos (1275), del italiano Martino Canal, en la que se menciona un dulce, a base de pasta de almendras y nueces a la que se añadían diversas especias (canela y clavo), de nombre “calissons”.

Tampoco está claro cuando llegan estos dulces a la Provenza. Según algunas versiones podría haber sido importado por uno de los cocineros del príncipe francés René d’Anjou / Renato de Anjou (1409-1480), que entre otros títulos fue rey de Nápoles, Sicilia, Aragón y Mallorca. Se cuenta que durante el segundo matrimonio de Renato de Anjou con Jeanne de Laval / Juana de Laval, en 1454, el jefe de la confitería del rey sirvió algunos de estos dulces a la futura reina, que dijo entonces en provenzal “Di calin soun” (que no sé bien cómo traducir, pero para darle cierta gracia me aventuro a traducirlo como “estos son besos”). Por otra parte, en la Wikipedia se cita que el término calisson, con el significado actual, ya aparece en la Provenza en el año 1503. De hecho, la almendra, elemento principal de los calissons, se introdujo en la Provenza en el siglo XVI, por lo que es posible que la introducción del dulce en esta región sea paralela al desarrollo de la producción y comercialización de las almendras.

calissonsFotografía de los calissons dentro de su caja, que me compré en mi reciente visita a Aix-en-Provence. Aunque como vemos la forma de estos calissons es más bien como una vesica piscis y no como un diamante formado por dos triángulos equiláteros. Fotografía: Marian Espinosa

Pero dejemos las cuestiones históricas aparte y vayamos a la cuestión matemática relacionada con estos dulces provenzales. Aunque si os animáis a prepararlos vosotros mismos, podéis encontrar la receta en muchos blogs de postres, o de recetas de cocina, en general.

calissonsFotografía de un plato con calissons, cuya forma es la de un rombo o diamante formado por dos triángulos equiláteros, que hemos tomado de una página francesa de recetas, en la que podéis leer cómo se hacen los calissons. La página de recetas es Odelices.Demostraciones sin palabras

La primera vez que leí sobre el problema de los calissons fue en el magnífico libro Proofs without words / Demostraciones sin palabras, de Roger B. Nelsen. Este es un tema, el de las demostraciones sin palabras, al que le hemos dedicado varias entradas en el Cuaderno de Cultura Científica, entre ellas:

* Pitágoras sin palabras

* Matemáticas para ver y tocar

* Más matemáticas para ver y tocar

* Teoremas geométricos sin palabras: Viviani

* Teoremas geométricos sin palabras: Conway

* Teoremas geométricos sin palabras: Herón

* Teoremas geométricos sin palabras: Snover

Las demostraciones sin palabras, como comenta el matemático Roger B. Nelsen –autor del libro Proofs without words / Demostraciones sin Palabras (publicado por la MAA, Mathematical Association of America, en 1993) –, se fueron haciendo populares en la comunidad matemática a raíz de su publicación en las revistas de la MAA, Mathematics Magazine y The College Mathematical Journal, en las que empezaron a aparecer hacia 1975, primero como imágenes de relleno entre artículos y posteriormente como secciones fijas de las revistas. Las demostraciones sin palabras no son realmente demostraciones matemáticas en sí mismas, son más bien diagramas, esquemas o dibujos que nos ayudan a comprender por qué un teorema es cierto o que encierran la idea de la verdadera demostración matemática. Son sugerentes, atractivas y todo un ejercicio de estímulo del pensamiento.

El origen del problema de los calissons y su demostración visual, tema que nos ocupa en esta entrada del Cuaderno de Cultura Científica, es el artículo The problem of calissons, de los matemáticos Guy David y Carlos Tomei, publicado en 1989 en la revista The American Mathematical Monthly (que también es una revista de la MAA, creada en 1894).

El problema de los calissons

Tomando las mismas palabras que utilizaron David y Tomei en su artículo de la revista The American Mathematical Monthly,

“Un calisson es un dulce francés con la forma de dos triángulos rectángulos pegados por uno de sus lados. Los calissons podrían guardarse en una caja con la forma de un hexágono regular, y su empaquetado sugeriría un interesante problema de combinatoria. Supongamos una caja (hexagonal) cuyos lados tienen longitud n que se llena con calissons cuyos lados tienen longitud 1. La diagonal larga de cada calisson en la caja tiene tres posibles orientaciones, como en la imagen.

Las tres posibles orientaciones de los calissons en una caja hexagonal

 

Nuestro resultado principal es que el número de calissons de cada una de las tres orientaciones es un tercio del número de calissons que entran en la caja (hexagonal).”

El problema de los calissons consiste en cómo demostrar esa afirmación, es decir, que el número de calissons de cada orientación es el mismo, un tercio del total de los calissons que entran en la caja hexagonal. Y lo hermoso de la demostración es que consiste en un argumento intuitivo y visual relacionado con el espacio tridimensional.

Los matemáticos David y Tomei, en su artículo The problem of calissons, toman una caja hexagonal cuyo lado tiene longitud 5 (es decir, n = 5), considerando que los lados del calisson son de longitud 1, que es la imagen que mostramos a continuación, con el objetivo de mostrar que hay la misma cantidad de calissons en cada una de las tres direcciones posibles.

Distribución aleatoria de los 75 calissons que entran en una caja hexagonal cuyo lado tiene longitud 5, considerando que los lados del calisson son de longitud 1, que es la considerada por los matemáticos David y Tomei en su artículo The problem of calissons

La solución consiste en rotar un poco la caja hexagonal para que un vértice quede arriba y colorear cada calisson en función de la orientación que tiene, es decir, los pintamos de tres colores distintos (por ejemplo, en el artículo se utiliza blanco, gris y negro). De esta forma, nuestra imagen de una caja hexagonal rellena con calissons (luego, una imagen esencialmente plana) se convierte en una imagen tridimensional que representa una serie de pequeños cubos apoyados entre tres paredes cuadradas perpendiculares (de tamaño 5 x 5, en el ejemplo de David y Tomei, luego con una superficie de 25 cuadrados, pero en general serán paredes cuadradas con n2 cuadrados), una abajo, otra a la derecha y una tercera a la izquierda. En esta representación tridimensional de pequeños cubos (se verán algunos ejemplos a continuación) puede verse que cada calisson es una cara visible de un pequeño cubo, de manera que todas las caras de un mismo color (que provienen de calissons con la misma orientación) miran en la misma dirección, paralelas a una de las tres paredes sobre las que se apoyan los pequeños cubos. Resulta que todas las caras de pequeños cubos (incluyendo los cuadrados de las paredes de apoyo que no se han cubierto) que miran en una misma dirección son las mismas que todos los cuadrados de la pared de apoyo, por lo tanto, 25 en este caso y n2, en general.

Veámoslo con algunos ejemplos de distribuciones de calissons en una caja hexagonal de tamaño n = 3 (como la que vemos en la siguiente imagen), por lo tanto, que se rellena con 27 dulces con forma de diamante.

Caja hexagonal, cuyo lado mide 3, siendo la medida de los lados de los calissons 1, y los 27 calissons con los que se rellena la caja

 

A continuación, vamos a rellenar la caja hexagonal (de lado 3) con los 27 calissons, de tres formas distintas y vamos a utilizar el procedimiento anterior (girar ligeramente y pintar con tres colores distintos los calissons en función de su orientación en la caja) para comprobar que en los tres casos la cantidad de calissons en cada orientación es igual a 9.

Ejemplo 1, con los calissons agrupados

Ejemplo 2

Ejemplo 3

Este argumento visual nos sirve para cualquier tamaño n de la caja hexagonal, en la que introduciremos 3n2 calissons.

En esta misma línea, la imagen que ilustraba la demostración de David y Tomei, con la distribución mostrada arriba, para una caja de tamaño 5, es la siguiente (utilizando blanco, gris y negro).

 

En consecuencia, se ha demostrado el resultado buscado.

Teorema: En todo empaquetamiento de calissons (con forma de diamante) en una caja hexagonal, la cantidad de ellos con una orientación dada es igual a la tercera parte del total de calissons que se incluyen en la caja.

Distribución de 432 calissons en una caja hexagonal de lado igual a 12, junto con su transformación en una imagen tridimensional, mediante el coloreado –blanco, gris claro y gris oscuro- de los calissons en función de su orientación, y en la que se comprueba que hay la misma cantidad de dulces en cada orientación, en concreto, 144. Imagen del blog Possibly wrong

La demostración que aparece en el artículo de David y Tomei, y que después incluye Nelsen en su libro, es una demostración sin palabras, luego visual e intuitiva, pero no una demostración matemáticamente rigurosa. Sin embargo, sí es posible dar demostraciones más matemáticas de este resultado, y de alguna generalización del mismo, para la cual, además, no es válido el razonamiento visual anterior. Para quienes estéis interesados en la misma (solo se necesita un poco de álgebra de vectores) podéis leerla en el blog Symmetry de Gábor Damásdi.

Bibliografía

1.- Roger B. Nelsen, Demostraciones sin palabras (ejercicios de pensamiento visual), Proyecto Sur, 2001.

2.- Guy David, Carlos Tomei, The problem of the Calissons, American Mathematical Monthly, vol. 96, n. 5, pp. 429-430, 1989.

3.- Gábor Damásdi, Symmetry (blog): Problem of calissons

4.- Wikipedia: Calisson

El artículo El problema de los calissons se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Pages