S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 45 min 24 sec

La clave de la diversidad de especies podría estar en sus similitudes

mar, 2023/06/27 - 11:59

diversidad
Un nuevo trabajo de modelado sugiere por qué la naturaleza es más diversa de lo que predice la teoría ecológica basada en nichos.

Un artículo de Veronique Greenwood. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

diversidadIlustración: Allison Li / Quanta Magazine

Hace más de cuatro décadas los ecólogos de campo se propusieron cuantificar la diversidad de árboles en una parcela boscosa en la isla de Barro Colorado en Panamá, una de las extensiones de bosque más intensamente estudiadas del planeta. Comenzaron a contar cada árbol con un tronco de más de un centímetro de diámetro. Identificaron las especies, midieron los troncos y calcularon la biomasa de cada individuo. Pusieron escaleras en los árboles, examinaron los árboles jóvenes y lo registraron todo en hojas de cálculo cada vez mayores.

Mientras observaban los datos que se acumulaban año tras año, comenzaron a notar algo extraño en ellos. Con más de 300 especies, la diversidad de árboles en la pequeña isla de 15 kilómetros cuadrados era asombrosa. Pero la distribución de los árboles entre esas especies también estaba muy desequilibrada, ya que la mayoría de los árboles pertenecían a unas pocas especies.

Desde esos primeros estudios, ese patrón sobrecargado y altamente desigual se ha visto repetidamente en los ecosistemas de todo el mundo, particularmente en las selvas tropicales. El ecólogo Stephen Hubbell de la Universidad de California, Los Ángeles, quien formó parte del equipo de las mediciones en Barro Colorado, estima que menos del 2% de las especies de árboles en el Amazonas representan la mitad de todos los árboles individuales, lo que significa que el 98 % de las especies son poco comunes.

Una biodiversidad tan alta va en contra de las predicciones hechas por una importante teoría de la ecología, que dice que en un ecosistema estable cada nicho o rol debe ser ocupado por una especie. La teoría de nichos sugiere que no hay suficientes nichos para permitir que todas las especies que los ecólogos observaron existan de manera estable. La competencia por los nichos entre especies similares debería haber llevado a las poco comunes a la extinción.

Un nuevo artículo sobre modelado ecológico en Nature de James O’Dwyer y Kenneth Jops de la Universidad de Illinois, Urbana-Champaign explica al menos parte de esta discrepancia. Han descubierto que las especies que aparentemente deberían ser competidoras frente a frente pueden compartir un ecosistema si los detalles de sus historias de vida, como cuánto tiempo viven y cuántos descendientes tienen, se alinean de la manera correcta. Su trabajo también ayuda a explicar por qué una de las formas con más exito de modelar ecologías a menudo llega a resultados precisos, aunque pasa por alto casi todo lo que sabemos sobre cómo funcionan los organismos.

diversidadEl biólogo de plantas James O’Dwyer de la Universidad de Illinois, Urbana-Champaign quería entender cómo los modelos basados en la teoría neutral de la ecología pueden reproducir tan bien los patrones naturales de la biodiversidad cuando ignoran los detalles de cómo viven e interactúan las especies. Fuente: Universidad de Illinois / Michelle Hassel

En 2001, la paradójicamente alta biodiversidad en la isla de Barro Colorado inspiró a Hubbell a proponer la revolucionaria teoría neutral de la ecología. La teoría de la ecología tradicional enfatizaba la competencia por los nichos entre las especies. Pero Hubbell señaló que las especies podrían no importar realmente en esa ecuación porque, en efecto, los individuos también compiten por los recursos con miembros de su propia especie. Sugirió que los patrones de diversidad en los ecosistemas podrían ser en gran parte productos de procesos aleatorios.

Para una teoría que se ocupaba de la biodiversidad, la teoría neutral de Hubbell era escasa. Ignoró las variaciones en las esperanzas de vida, las peculiaridades nutricionales y otros detalles que distinguen a una especie de otra. En los modelos basados en la teoría cada individuo en un ecosistema teórico es idéntico. Una vez que se empieza a contar el tiempo el ecosistema evoluciona estocásticamente, con individuos compitiendo y reemplazándose entre sí al azar. La teoría estaba completamente en desacuerdo con los enfoques de la ecología basados en especies, y provocó un apasionado debate entre los ecólogos porque parecía muy contraria a la intuición.

Sin embargo, sorprendentemente, a medida que avanzaban las caminatas aleatorias en los modelos neutrales, se reproducían características clave de lo que Hubbell y sus colegas habían visto en sus datos de la isla de Barro Colorado y lo que otros han visto en otros lugares. En este modelado que casi perversamente no reconoce diferencias, hay destellos del mundo real.

Esa tensión entre los modelos y la realidad ha interesado a O’Dwyer durante mucho tiempo. ¿Por qué la teoría neutral parecía funcionar tan bien? ¿Había alguna manera de incorporar información sobre cómo funcionan las especies para obtener resultados que pudieran parecer aún más realistas?

Antes de unirse al laboratorio de O’Dwyer como estudiante de posgrado, Kenneth Jops había estudiado formas en las que las historias de vida podrían usarse para predecir la vulnerabilidad de las especies de plantas a la extinción. Foto: Dra. Hannah Scharf

Una de las cosas que hace que los modelos neutrales sean atractivos, afirma O’Dwyer, es que realmente hay profundas universalidades entre muchos seres vivos. Si bien las especies animales no son idénticas, son notablemente similares a nivel de, digamos, el sistema circulatorio. Los mismos números relacionados con la fisiología surgen una y otra vez en animales y plantas, reflejando quizás las limitaciones de su historia evolutiva compartida. De acuerdo con un principio llamado ley de Kleiber, por ejemplo, la tasa metabólica de un animal generalmente aumenta con su tamaño, escalando como una ley de potencias, la misma ley de potencias, sin importar la especie. (Se han ofrecido varias teorías sobre por qué la ley de Kleiber es verdadera, pero la respuesta aún se debate).

Dados esos signos del orden subyacente, O’Dwyer se preguntó si algunos detalles de cómo viven los organismos importan más que otros para determinar el éxito con el que las especies competirán y sobrevivirán durante el tiempo evolutivo. Tomemos nuevamente el metabolismo: si un ecosistema puede verse como una expresión de los metabolismos de sus habitantes, entonces los tamaños de los organismos son números especiales y significativos. El tamaño de un individuo puede ser más útil para modelar su destino a lo largo del tiempo que cualquier otro detalle sobre su dieta o identidad de especie.

O’Dwyer se preguntó si uno de esos factores cruciales y privilegiados podría ser capturado por la historia de vida, un concepto que combina estadísticas de especies como el número promedio de descendientes, el tiempo hasta la madurez sexual y la esperanza de vida. Imagina una parcela de 50 plantas individuales. Cada una tiene su propia esperanza de vida, su propio patrón de reproducción. Después de tres meses, una planta puede producir 100 semillas, mientras que otra similar produce 88. Tal vez el 80% de sus semillas germine, produciendo la próxima generación, que pasará por su propia versión de este ciclo. Incluso dentro de una especie, el número de plantas individuales variará, a veces un poco, a veces mucho, un fenómeno llamado ruido demográfico. Si esta variación es aleatoria, a la manera de la teoría neutral de Hubbell, ¿qué patrones surgirán en las generaciones sucesivas?

O’Dwyer sabía que había encontrado a alguien que podía ayudarlo a explorar esa pregunta cuando Jops se unió a su laboratorio como estudiante de posgrado. Jops había estudiado previamente si los modelos que usaban historias de vida podían predecir si una especie de planta vulnerable sobreviviría o si estaba a punto de desaparecer. Juntos, comenzaron a elaborar las matemáticas que describirían lo que sucede cuando la historia de vida se encuentra con la competencia.

En el modelo de Jops y O’Dwyer, como en los modelos neutrales, la estocasticidad, la influencia de los factores aleatorios en las interacciones deterministas entre las especies, es importante. Las historias de vida de las especies, sin embargo, pueden amplificar o reducir los efectos de esa aleatoriedad. “La historia de vida es una especie de lente a través de la cual funciona el ruido demográfico”, explica O’Dwyer.

Cuando los investigadores permitieron que su modelo progresara a lo largo del tiempo, poniendo a prueba a cada individuo simulado, descubrieron que ciertas especies podían persistir una junto a la otra durante largos períodos a pesar de que competían por los mismos recursos. Al profundizar en los números en busca de una explicación, Jops y O’Dwyer encontraron que un término complejo llamado tamaño efectivo de la población parecía útil para describir un tipo de complementariedad que podría existir entre las especies. Encapsulaba el hecho de que una especie podría tener una mortalidad alta en un punto de su ciclo de vida, luego una mortalidad baja en otro, mientras que una especie complementaria podría tener una mortalidad baja en el primer punto y una mortalidad alta en el segundo. Cuanto más similar era este término para dos especies, más probable era que una pareja pudiera vivir una junto a la otra a pesar de competir por el espacio y la nutrición.

“Experimentan el ruido demográfico con la misma amplitud”, explica O’Dwyer. “Esa es la clave para que vivan juntos mucho tiempo”.

diversidadEstas cuatro especies de plantas herbáceas perennes (en el sentido de las agujas del reloj desde la parte superior izquierda: Eryngium cuneifolium, Polygonella robusta, Lechea deckertii y Lechea cernua) coexisten en las comunidades de Florida en lugar de llevarse unas a otras a la extinción. Como predice la nueva investigación, las cuatro especies tienen historias de vida excepcionalmente similares. Fuentes: South Florida Listed Species USFWS y Bob Peterson (fila de arriba); Jay Horn.

Los investigadores se preguntaron si prevalecían patrones similares en el mundo real. Se basaron en la base de datos COMPADRE, que alberga detalles sobre miles de especies de plantas, hongos y bacterias tomados de una variedad de estudios y fuentes, y se concentraron en plantas perennes que vivían juntas en las mismas parcelas de investigación. Descubrieron que, como había predicho su modelo, las especies de plantas que vivían juntas tenían historias de vida muy parecidas: los pares de especies que viven en el mismo ecosistema tienden a ser más complementarios que los pares creados al azar.

Los hallazgos sugieren maneras en que las especies que no están necesariamente en competencia directa podrían funcionar bien juntas sin recurrir a nichos distintos, afirma Annette Ostling, profesora de biología en la Universidad de Texas, Austin. “Lo mejor es que señalan que estas ideas… pueden extenderse a especies que son bastante diferentes pero complementarias”, comenta.

Para William Kunin, profesor de ecología en la Universidad de Leeds en Inglaterra, el artículo sugiere una razón por la cual el mundo natural, a pesar de toda su complejidad, puede parecerse a un modelo neutral: los procesos ecológicos pueden tener una forma de anularse entre sí, por lo que que lo que parece una variedad infinita puede tener un resultado simple que describe como «neutralidad emergente». Hubbell, por su parte, agradece la ampliación de su obra inicial. “Ofrece algunas ideas sobre cómo generalizar modelos neutrales, modificarlos para incluir un poco de diferencias específicas, expandirse y contraerse para ver qué sucede con la diversidad en una comunidad local”, dijo.

Sin embargo, este es solo una parte del problema de comprender cómo surge la biodiversidad y por qué persiste. “En ecología, luchamos con la relación entre patrón y proceso. Muchos procesos diferentes pueden producir el mismo patrón”, explicao Ostling. O’Dwyer espera que, en los próximos años, más datos sobre el mundo real puedan ayudar a los investigadores a discernir si el tamaño efectivo de la población es capaz de explicar la coexistencia de manera consistente.

Kunin espera que el artículo inspire a otros a seguir trabajando con ideas de la teoría neutral. En un campo donde las cualidades únicas de los individuos, en lugar de sus puntos en común, han prevalecido durante mucho tiempo, la teoría neutral ha obligado a los ecólogos a ser creativos. “Nos sacó de nuestras rutinas mentales y nos hizo pensar en qué cosas realmente importan”, afirma.

Hubbell, quien planteó la teoría neutral sobre la ecología hace tantos años, se pregunta si conjuntos de datos verdaderamente inmensos sobre bosques reales podrían producir el tipo de detalle necesario para aclarar la relación entre la historia de la vida y la biodiversidad. “Este es el tipo de construcción sobre la teoría neutral que esperaba que sucediera”, comenta sobre el nuevo artículo. “Pero es solo un pequeño paso hacia la comprensión real de la diversidad”.

 

El artículo original, The Key to Species Diversity May Be in Their Similarities, se publicó el 26 de junio de 2023 en Quanta Magazine.

Traducido por César Tomé López

El artículo La clave de la diversidad de especies podría estar en sus similitudes se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La evolución del interior de la luna Europa

lun, 2023/06/26 - 11:59

Europa, el satélite de Júpiter, es uno de los lugares de nuestro Sistema Solar en los que pensamos hay un mayor potencial astrobiológico debido a la posible existencia de un océano de agua líquida debajo de su corteza helada. Algo que esperamos que en la próxima década confirmen misiones como la europea JUICE, que despegó a mediados del mes de abril de este año, o la norteamericana Europa Clipper, cuya fecha de despegue prevista es octubre de 2024, y cuyo ensamblaje se encuentra en una fase muy avanzada.

Europa es un satélite algo más pequeño que nuestra Luna -unos 3100 kilómetros de diámetro frente a 3474 kilómetros- pero a pesar de eso su superficie atestigua que hay una actividad geológica capaz de rejuvenecerla desde dentro, e incluso, como hablamos en “Una tectónica de placas más allá de la Tierra” en diciembre de 2022, podría tener una tectónica de placas, y esto significa que hay alguna fuente de energía interna capaz de provocar estos procesos.

europaEuropa observada por la sonda JUNO en septiembre de 2022. Obsérvese la relativa juventud de su superficie por la escasez de cráteres de impacto que se pueden observar. Imagen cortesía de NASA/JPL-Caltech/SwRI/MSSS/Kevin M. Gill.

Por si esto fuese poco, en 2013 se anunció el descubrimiento de posibles géiseres de agua -capaces de llegar a los cien kilómetros de altura- a partir de datos del Telescopio Espacial Hubble, agua, aunque cuyo origen no sabemos si procede de bolsas de agua existentes en el interior de la corteza o del océano, un fenómeno que sería similar al observado en Encélado, satélite de Saturno, y que añade, si cabe, más interés al estudio de Europa, ya que estudiando el agua que sale despedida en estos fenómenos, podemos intentar averiguar su procedencia, y en el caso de ser del interior de Europa, conocer mejor ese posible océano.

Pero, ¿cómo es Europa por dentro y cómo ha sido su evolución? Un artículo recién publicado en Science Advances aporta un nuevo modelo sobre su estructura interna y la evolución que ha tenido a lo largo del tiempo, algo fundamental de cara a conocer qué fuentes de energía serían las responsables de mantener un océano de agua líquida desde su formación o si el océano en realidad se formó posteriormente.

En las últimas décadas, muchos de los estudios científicos han apuntado a una rápida evolución del interior de Europa tras su formación. Es decir, que los procesos de diferenciación planetaria, aquellos que dan lugar a la estructura por capas de los planetas y otros cuerpos, ocurrieron muy pronto en la historia de Europa, procesos para los que generalmente se necesita mucho calor para fundir total o parcialmente, en este caso Europa, y que los elementos más pesados se hundan hacia el fondo y los más ligeros vayan hacia la superficie.

europaPosible estructura interna de Europa. En rojo y con interrogantes, algunas de las dudas planteadas por el estudio, especialmente sobre un núcleo bien desarrollado. Cortesía de Kevin Trinh/ASU.

Por los datos que tenemos hasta el momento, la estructura de Europa, a grandes rasgos, estaría formada por una corteza de hielo de unos 15 a 25 kilómetros de potencia, un océano subterráneo de entre 60 y 150 kilómetros de espesor, un manto rocoso y un núcleo metálico.

Este nuevo estudio propone que Europa se formó como una mezcla más o menos homogénea de roca, hielo y elementos metálicos que lentamente fue segregándose en las distintas capas, tardando en formarse el núcleo interno -si está formado completamente- a lo largo de miles de millones de años. La existencia o no de este núcleo y su estado nos podría dar pistas sobre el calor interno que todavía se genera en Europa.

Además, proponen que la deshidratación de los minerales silicatados -fruto del calor procedente de la desintegración radioactiva- presentes en Europa -algunos silicatos pueden contener moléculas de agua o grupos hidroxilo en su estructura cristalina- podría haber sido la responsable de la formación del océano y de la capa de hielo, ya que el agua iría migrando desde zonas más profundas hacia las más superficiales, primero formando la corteza de hielo, y después permitiendo, bajo esta, la existencia de un océano.

europaPosibles caminos evolutivos del interior de Europa. Dependiendo de la cantidad de calor disponible para Europa, podría no existir una diferenciación completa de su interior. Imagen cortesía de Kevin Trinh/ASU

Hay algo más. Este modelo es ciertamente desfavorable, ya que predice que la actividad geológica en la interfaz entre el océano y el manto rocoso podría ser muy poca, limitando mucho la existencia de fenómenos hidrotermales o volcánicos en su interior en la actualidad, lo que limitaría de una manera importante el potencial astrobiológico del satélite joviano, algo que también podría explicar la menor actividad que hemos observado con respecto a Encélado.

A pesar de esto, los científicos reconocen que, aunque sus modelos son muy detallados y muestran distintos escenarios evolutivos para Europa, todavía se necesitan más datos para confirmar si realmente están en lo cierto o si incluso pueden estar ocurriendo otro tipo de fenómenos -como el calentamiento por mareas- que mantengan un interior más activo de lo predicho por ellos.

Sea como fuere, probablemente tengamos que esperar todavía hasta la llegada de las misiones JUICE y Europa Clipper en la próxima década para tener más datos que nos permitan conocer un poco mejor el interior de Europa y sentar si es el mundo habitable que todos esperamos o si, por el contrario, las condiciones no son tan favorables como pensábamos anteriormente.

Referencia:

Kevin T. Trinh et al. (2023) Slow evolution of Europa’s interior: metamorphic ocean origin, delayed metallic core formation, and limited seafloor volcanism. Sci. Adv. doi: 10.1126/sciadv.adf3955

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo La evolución del interior de la luna Europa se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La ecuación trascendente de la txalaparta

dim, 2023/06/25 - 11:59
Txalaparta en La menor: idiófono basado en tablones tallados sobre caballetes y bastones para interpretación por parejas a cuatro manos

La txalaparta es un antiguo idiófono original de Vasconia, cuya peculiaridad como instrumento de percusión y su enigmática historia ha despertado mucho interés entre los musicólogos e historiadores. La primera referencia histórica a la txalaparta aparece en 1882 en un libro sobre la producción de sidra en el País Vasco ([1], p. 129), aunque existen menciones anteriores a las toberas (una variante metálica de la txalaparta): la primera de ellas en un documento legal de 1688 ([2], pp. 52-53). Se sabe muy poco sobre la práctica de la txalaparta antes del siglo XX, pero antropólogos, historiadores, músicos y otros científicos han colocado el instrumento en una novedosa vía de crecimiento, utilización y actualización cultural de gran interés internacional:

Las hermanas Sara y Maika Gómez (Ttukunak) en el Festival de Primavera de Budapest, Palacio de las Artes, 2017

La txalaparta ordinaria consta de unos tablones de madera colocados de forma horizontal sobre dos soportes, y golpeados a cuatro manos por bastones también de madera. Debido al origen rural del instrumento, es muy habitual utilizar tablones de maderas de árboles locales como el roble, castaño o aliso, y bastones de fresno, similares a los mangos cortos de las herramientas del campo.

Modelado matemático de la txalaparta

La vibración transversal de los tablones se puede modelar matemáticamente mediante la conocida teoría de vigas o barras de Euler-Bernoulli. Dado que los listones sonoros de la txalaparta están libres sin sujeción a ambos extremos, estas condiciones de contorno restringen las frecuencias permitidas para vibrar. Así, las tablas de la txalaparta solamente pueden sonar según los modos de vibración soluciones de una preciosa ecuación trascendente (no algebraica).

Esta ecuación trascendente se expresa como cosh(kL)cos(kL)=1, donde k es el número de onda de los infinitos modos de vibración y L es la longitud del tablón.

Esta ecuación no puede resolverse de forma analítica sino por medios numéricos o gráficos, y los infinitos modos de vibración de cada tablón siguen una serie inarmónica musical, muy diferente a la serie armónica que resulta en las cuerdas vibrantes de las guitarras, violines o pianos, o en las columnas de aire de las flautas, oboes o clarinetes.

Así pues, si calculamos el modo fundamental de vibración de una tabla golpeada, y resolvemos con métodos numéricos la ecuación trascendente de la txalaparta, resulta que las notas musicales que corresponden a cada tablón siguen una serie de frecuencias sonoras muy poco armónicas: f1, f2=2.76f1, f3=5.40f1, f4=8.94f1, f5=13.35f1,…

Si terminamos los cálculos, podemos también representar la distribución espacial de los primeros modos vibratorios de cada listón sonoro, tal y como se muestra en la figura siguiente. Como el primer modo de vibración es el más importante en cada tabla, la txalaparta apoya sus tablones en las líneas nodales de este primer modo, para dejarlos vibrar con total libertad. Como puede observarse en la figura, el apoyo óptimo del instrumento se encuentra en puntos simétricos cercanos a ¼ de la longitud de cada tabla, si damos preferencia al primer modo de vibración.

Vibraciones transversales de un tablón golpeado en una txalaparta. Se incluyen los cinco primeros modos de vibración, la tabla horizontal en color marrón y sus dos soportes situados en las dos líneas nodales del primer modo: a 22.4% de la longitud del tablón, desde sus extremos izquierdo y derecho. Fuente: cálculo computacional del autor.

 

El movimiento oscilatorio de este primer modo de vibración se puede visualizar en la animación mostrada a continuación. Los modos superiores, cada uno a su propia frecuencia fn, efectúan movimientos vibratorios similares. Los n+1 puntos nodales de cada modo se mantienen inmóviles y sus n máximos y mínimos móviles corresponden con puntos ventrales de la vibración. Notemos que en la figura anterior se pueden localizar los nodos de cada modo mediante la intersección de las gráficas con la tabla horizontal trazada en color marrón. Los puntos ventrales de cada modo se encuentran entre sus puntos nodales, y corresponden con zonas de máxima flexión de las tablas.

Animación del primer modo de vibración transversal de las tablas golpeadas con condiciones de contorno libres a ambos extremos. Fuente: Wikimedia Commons

 

Observamos que la txalaparta es un instrumento de percusión que incluye una serie inarmónica musical. En instrumentos de percusión cromática como los modernos xilófonos o marimbas, las barras sonoras se afinan tallando las maderas para poder conseguir instrumentos con toda la escala cromática ([3], pp 628-629). Aunque la txalaparta no es de naturaleza cromática, es posible construir un instrumento afinado y mejorar su serie armónica y propiedades musicales.

La txalaparta bien afinada

Para construir una txalaparta bien afinada, basta con tallar las tablas eliminando madera en su parte central-inferior. Existen dos razones para realizar este tallado inferior de los tablones: por un lado, alcanzar la afinación de nota (frecuencia) deseada para el primer modo de cada barra sonora del instrumento, y por otro, conseguir notas cercanas a una serie armónica para los principales modos superiores de cada uno de sus elementos vibrantes. Cada tablón se esculpe para ajustar selectivamente la frecuencia y forma de un modo normal de vibración que se pretende, sintonizando la masa y la rigidez de la madera. La eliminación de madera en una zona de flexión pronunciada reduce la rigidez más que la masa de la tabla, de modo que la frecuencia disminuye. Por otro lado, la supresión de madera en una zona de poca flexión reduce la masa más que la rigidez, de forma que la frecuencia aumenta. Esta técnica escultórica permite perfectamente construir una txalaparta musical y afinada.

Proceso de eliminación de madera en la parte central-inferior de uno de los tres tablones de roble de la txalaparta fabricada por el autor.

Aunque no existe un modelo estándar de txalaparta, dependiendo de los estilos musicales o interés de los intérpretes, es común emplear típicamente entre 1 y 5 tablones. Un ajuste básico para poder emitir acordes tonales requiere al menos tres notas simultáneas, que pueden ejecutarse golpeando tres tablas. Utilizando tres robustos listones de roble de longitud 123cm, anchura 16cm y grosor 5 cm, como el mostrado en la fotografía, es sencillo tallar estas barras como hemos indicado y generar potentes y armónicos elementos sonoros. En este caso concreto los tablones han sido esculpidos de manera que sus modos fundamentales vibren a 110 Hz (La1), 131 Hz (Do2), 165 Hz (Mi2): esto nos permite denominar el instrumento como una txalaparta en La menor. Además, el golpeo de los tablones en zonas intermedias, excitan los modos de vibración superiores, que han sido ajustados en una serie armónica. Por todo ello, una buena pareja ejecutante en esta txalaparta afinada puede extraer del instrumento verdadera recóndita armonía.

Hutsun en las calles de Aviñón (Francia)

Referencias

[1] Severo de Aguirre-Miramon (1882) Fabricación de la sidra en las provincias vascongadas. Hijos de I.R. Baroja, San Sebastian, p. 129.

[2] Manuel de Lekuona (1920) Las toberas. Revista de cultura vasca, Euskalerriaren Alde n. 194, pp: 52-53.

[3] Neville H. Fletcher and Thomas D. Rossing (1998) The Physics of Musical Instruments (2nd Edition), ISBN-9780387983745, Springer, New York, pp: 628-629.

Del mismo autor:

Lutería y acústica (serie)

Sobre el autor: Victor Etxebarria Ecenarro está diplomado como lutier por el Conservatorio Juan Crisóstomo de Arriaga (Bilbao) y es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)

El artículo La ecuación trascendente de la txalaparta se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Psicodelia y tratamientos psiquiátricos, notas clínicas y evolucionistas

sam, 2023/06/24 - 11:59

comportamiento maternal

Cómo influyen los parásitos en el comportamiento de los animales, cómo se modifica la conducta de las madres mamífero o cuáles son las enfermedades que nos afectan y desde cuándo hemos desarrollado comportamientos funerarios ante la muerte son algunos de los aspectos que se analizarán en la V Jornada Nacional sobre Evolución y Neurociencias.

Especialistas en ambas materias se reunirán el 11 y 12 de mayo en una nueva edición conducida por Eva Garnica y Pablo Malo, psiquiatras y miembros de la Red de Salud Mental de Bizkaia, y organizada por esa misma entidad y la Cátedra de Cultura Científica de la UPV/EHU.

La jornada, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolucionista y divulgar de un modo accesible para todos los públicos.

En los años noventa del siglo pasado se produjo el resurgimiento de la investigación en psicodelia, abriendo todo un mundo de tratamientos psiquiátricos y un mejor conocimiento de las bases evolutivas en las que se basa el efecto de estos fármacos, como nos cuenta Luis Caballero en esta charla.

Luis Caballero es psiquiatra, jefe de la Sección de Psiquiatría del Hospital Universitario Puerta de Hierro y Profesor Asociado del Departamento de Psiquiatría de la Universidad Autónoma de Madrid.

 



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Psicodelia y tratamientos psiquiátricos, notas clínicas y evolucionistas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Una batería biodegradable para móviles

ven, 2023/06/23 - 11:59
 móvilesFuente: Wikimedia Commons

Actualmente no seríamos capaces de realizar nuestras tareas diarias sin los teléfonos móviles y otros aparatos electrónicos. Pero, desgraciadamente, la esperanza de vida de estos dispositivos es bastante limitada. En España se desechan anualmente más de 20 millones de dispositivos de telefonía móvil.

Detrás de esta cifra está, por un lado, la obsolescencia programada, tanto por incompatibilidad de hardware como por falta de actualización en el sistema operativo. Otro aspecto clave en este tipo de dispositivos es la batería, normalmente basada en tecnología de iones de litio. Estas baterías cuentan normalmente con una vida útil inferior a las 1 000 cargas.

Así, los teléfonos inteligentes tienen una media de uso de 18 meses, y en muy raras ocasiones se emplean durante más de cuatro o cinco años.

Una de las estrategias para solventar estos problemas sería el desarrollo de baterías transitorias (transient, en inglés), basadas en materiales abundantes que se degraden en subproductos no tóxicos. Todo ello, manteniendo los altos estándares de funcionamiento que poseen las baterías convencionales de iones de litio. Pero ¿es esto realmente posible?

Economía circular, una solución parcial

La solución actualmente más extendida consiste en adoptar patrones circulares que se alejen del sistema de producción lineal. Es decir, transitar desde “producir, consumir, tirar” a nuevos hábitos de manera que puedan volver a reutilizarse los dispositivos móviles, o parte de ellos, en otras aplicaciones.

Si consideramos una perspectiva circular, las alternativas de reutilización o remanufactura deben ser preferentes sobre el reciclaje. Una posible opción son los sistemas de garantía extendida, los sistemas de recogida y los mercados de segunda mano.

Existen empresas que, tras una recogida selectiva, reacondicionan teléfonos móviles para posteriormente venderlos a menor coste. Iniciativas como estas generan grandes beneficios ambientales, sociales y económicos.

Otra opción es el reciclaje de las baterías. Mediante diversos tratamientos químicos y térmicos, es posible extraer los materiales económicamente relevantes de las baterías, que serán utilizados posteriormente para fabricar nuevas baterías. De este modo, se limitan los posibles efectos nocivos de materiales como el litio, el cobalto o el manganeso, y se evita la necesidad de procesos de extracción de metales de la minería tradicional.

Pero ¿qué ocurre con los dispositivos electrónicos que no puedan ser tratados?

Los móviles que no se recogen

Debemos tener en cuenta que los teléfonos móviles son los aparatos electrónicos con los índices de recogida más bajos. A pesar de los esfuerzos que desarrollan diversas entidades públicas, como por ejemplo la instalación de puntos limpios móviles no asistidos, existe un altísimo riesgo de que gran cantidad de teléfonos móviles se pierdan en el medio ambiente.

Únicamente el 17,4 % de los residuos electrónicos se recogen, tratan y reciclan adecuadamente. El restante no se documenta, y gran parte acaba en destinos de lo más variados, desde vertederos, a bosques, ríos o mares. Ello implica que gran cantidad de materiales no biodegradables y altamente tóxicos, como son el cobalto, el níquel, el manganeso y los electrolitos orgánicos acaben contaminando los suelos, el aire, el agua y los seres vivos; incluidos los humanos.

Por ejemplo, las sustancias tóxicas que forman parte de las baterías convencionales de iones de litio pueden filtrarse en las aguas subterráneas, donde pueden influir en las especies acuáticas y terrestres. La Organización Mundial de la Salud estima que la exposición a los residuos electrónicos puede provocar alteraciones de las funciones pulmonares y problemas respiratorios, especialmente en niños y adolescentes, entre otros efectos.

Baterías compostables, otra posible solución

En un reciente estudio desarrollado por la Universidad del País Vasco/Euskal Herriko Unibertsitatea, la Escuela Politécnica Federal de Zúrich y la Universidad de Nueva Gales del Sur, hemos demostrado que es posible fabricar baterías compostables que además sean competitivas en cuanto a rendimiento.

La tecnología transitoria busca el desarrollo de materiales, dispositivos o sistemas que experimenten procesos de degradación controlada tras un periodo de funcionamiento estable, dejando tras de sí residuos inocuos.

Así, primero identificamos elementos no tóxicos, abundantes y biodegradables, que ofrecieran unas características físicas, mecánicas y electroquímicas mínimas.

Tras una extensa búsqueda, identificamos y aplicamos las siguientes opciones:

  • Polímeros de origen natural como la celulosa y la agarosa para el electrolito.
  • La polidopamina, un material natural con alta capacidad de reducción-oxidación, para el desarrollo del cátodo.
  • Un ánodo de zinc, metal biodegradable y biocompatible que permite fabricar electrolitos basados en agua.
Fotografías que muestran la degradación de los componentes individuales de la pila transitoria en el tiempo.
Author provided

El trabajo dio como resultado una batería recargable que combina compostabilidad con un rendimiento electroquímico sobresaliente. De hecho, se observó una pérdida de peso del 49,9 ± 2,9 % tras 63 días en condiciones de compostaje industrial.

También se ha demostrado que estas baterías pueden cargarse a lo largo de más de 10 000 ciclos, el equivalente a 27 años continuados considerando una carga diaria. Gracias nuestro prototipo, el sueño de una batería compostable que también cumpla la función completa de un dispositivo de almacenamiento de energía desde el punto de vista electroquímico es una realidad.The Conversation

Sobre el autor: Erlantz Lizundia, Profesor de Ecodiseño y Economía Circular, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Para saber más:

Por qué la tecnología deja de funcionar
Basura electrónica y economía circular

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Una batería biodegradable para móviles se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Existe el Antropoceno con mayúsculas?

jeu, 2023/06/22 - 11:59

Seguro que todo el mundo, en un contexto u otro, ha oído hablar del término Antropoceno y, rápidamente, lo ha asociado con Geología. También lo habréis visto reflejado en llamativas ilustraciones del tiempo geológico como la parte más moderna y actual del mismo. Incluso, podéis encontrar una entrada en el diccionario de la Real Academia Española (la RAE), en la cual la primera acepción dice textualmente: “adj. Geol. Dicho de una época: Que es la más reciente del período cuaternario, abarca desde mediados del siglo XX hasta nuestros días y está caracterizada por la modificación global y sincrónica de los sistemas naturales por la acción humana”.

Con estos precedentes, es más que factible pensar que Antropoceno realmente es un término geológico que define el momento actual en el que vivimos dentro de la historia de la Tierra. Pero, ¿esto es así? Para comprobarlo, tenemos que acudir a una vieja amiga de la que ya os he hablado anteriormente, la tabla cronoestratigráfica internacional o tabla de los tiempos geológicos. La única referencia válida, desde el punto de vista geológico, para darle nombre a las diversas fases por las que ha pasado nuestro planeta a lo largo de su dilatada historia. Y si nos fijamos en la versión más actualizada de la tabla, no aparece por ningún lado la palabra “Antropoceno”. Estamos viviendo en el Piso Megalayense, de la Época Holoceno, dentro del Periodo Cuaternario.

AntropocenoIlustración de la obra “Cruisin’ the Fossil Coastline”, del artista Ray Troll del año 2017, donde refleja la existencia del Antropoceno como la época geológica más moderna. Fuente: Ray Troll

Entonces, ¿de dónde procede la idea de que el Antropoceno representa, geológicamente hablando, el momento actual? Pues vamos a bucear en la historia para descubrirlo. Corría el año 2000 cuando el químico atmosférico neerlandés Paul Crutzen gritó, de manera espontánea, durante una conferencia sobre la situación de nuestro planeta que no estábamos en el Holoceno, que vivíamos en el Antropoceno, término procedente de dos palabras griegas: anthropos – ser humano y kainos – nuevo. Esta interrupción tan gratuita, así como el nombre tan llamativo que acuñó Crutzen, favorecieron la aceptación de su concepción por parte del público allí congregado. El químico desarrolló entonces esta idea, buscando pruebas científicas que evidenciasen esta influencia humana en el medio natural en época reciente. Y la conclusión fue demoledora: un incremento sin igual de la presencia de gases de efecto invernadero en la atmósfera, un aumento exponencial del consumo de recursos naturales, una aceleración en la subida de la temperatura y del nivel del mar, mayor velocidad en la pérdida de biodiversidad, eventos climáticos cada vez más extremos y recurrentes y un largo etcétera que sólo podían significar una cosa, que el ser humano había sido capaz de alterar los ciclos biogeoquímicos naturales de nuestro planeta en las últimas décadas.

Incluso, se le ha podido dar una fecha de inicio a todos estos problemas, mediados del siglo XX. En concreto, a partir de 1950 todos esos indicadores socioeconómicos y ambientales experimentaron un crecimiento exponencial, lo cual, unido a las pruebas con bombas nucleares que dejaron un marcador temporal por todo el mundo, este año se considera como el comienzo oficial del Antropoceno.

AntropocenoVersión más actualizada (abril de 2023) de la tabla de los tiempos geológicos, en la que no aparece la palabra Antropoceno como división temporal dentro del Cuaternario. Fuente: stratigraphy.org

Mientras que gran parte de la comunidad científica ha aceptado las propuestas de Crutzen, llegando a afirmar con rotundidad que nos encontramos en una época diferente a las anteriores, ¿qué opina el ámbito geológico? Pues aquí tenemos un bonito enfrentamiento. Por un lado, el geólogo británico Jan Zalasiewicz es un firme defensor del Antropoceno como una nueva época geológica dentro del Cuaternario, llegando a contar con cientos de especialistas que secundan su propuesta, habiendo constituido un grupo de trabajo sobre esta cuestión dentro de la Unión Internacional de Ciencias Geológicas (IUGS por sus siglas en inglés). Por otro lado, gran parte de las personas que conforman el resto de comisiones de la IUGS son reacias a su consideración.

El principal problema que se esgrime actualmente para definir una nueva época geológica es el concepto tiempo. Un evento que apenas tiene unas décadas de duración y cuya permanencia en el registro geológico dentro de miles o millones de años está seriamente cuestionada, no tiene suficiente entidad, dentro de las normativas formales actuales de la IUGS, para poder ser considerada como una nueva división temporal dentro de la tabla de los tiempos geológicos.

Aunque esta discusión entre especialistas de Geología sigue su curso, el antropoceno, y esta vez lo escribo con minúsculas, no supone ninguna división temporal formal de la historia de la Tierra. Al menos, de momento. Por lo que esa definición de la RAE que os ponía al principio es más que errónea.

AntropocenoDetalle de una roca denominada “beachrock” o playa cementada, formada por escorias de fundición, fragmentos de ladrillos refractarios y restos de plásticos, formada en la playa de Gorrondatxe (Getxo, Bizkaia). Foto: Iranzu Guede Sagastizabal.

Obviamente no estoy diciendo que la influencia humana en el medio natural no esté dejando una huella más que evidente. Si queréis un ejemplo muy llamativo y relativamente cercano de esto, podéis visitar la playa de Gorrondatxe, en Bizkaia, donde encontraréis unas rocas formadas hace menos de doscientos años por la cementación de los residuos de las industrias metalúrgicas de Bilbao vertidos al mar en la desembocadura del Nervión: escorias de fundición, ladrillos refractarios, vidrios, plásticos, latas de aluminio… pero el Antropoceno, como concepto temporal en la escala geológica, no existe. Lo que existe es el antropoceno como definición de nuestra inconsciencia a la hora de consumir, de manera desmedida, los recursos de nuestro planeta. Así que no confundamos términos y sigamos viviendo en el Holoceno, hasta que la IUGS nos diga lo contrario.

Para saber más:

Geología, Antropoceno y cambio climático
¿Son las ‘beachrocks’ una prueba del Antropoceno?
¿Comenzó el Antropoceno con la era nuclear?

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo ¿Existe el Antropoceno con mayúsculas? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Kathleen Booth, la matemática pionera en programación que creó el primer lenguaje ensamblador

mer, 2023/06/21 - 11:59

Andrew era una figura muy extrovertida… mientras que Kathleen era muy tranquila y trabajaba en segundo plano. Así que no me sorprende en absoluto que gran parte del crédito por sus logros conjuntos se le dé a Andrew. Pero admitirían que trabajaron juntos constantemente.

Rick Bunt

La matemática Kathleen Booth contribuyó con su trabajo pionero al desarrollo de las primeras computadoras. Codiseñó uno de los primeros ordenadores operativos, escribió uno los primeros libros sobre diseño y programación de computadoras, creó el primer lenguaje ensamblador, investigó sobre la traducción del lenguaje natural y las redes neuronales, y cocreó el conocido como algoritmo de multiplicación de Booth. Como ha sucedido a otras muchas investigadoras, una figura masculina, aun sin pretenderlo, la eclipsó.

Kathleen Booth. Fuente: Microsoft.

 

Kathleen Hylda Valerie Britten (1922-2022) nació en Stourbridge (Inglaterra); era la segunda de los tres hijos de Gladys May Kitchen y Frederick John Britten, un inspector de impuestos.

En 1944 obtuvo un grado en ciencias con especialidad en matemáticas en el Royal Holloway College, centro en el que pudo estudiar gracias a una beca concedida por tres años.

Como a otras muchas mujeres, la Segunda Guerra Mundial le proporcionó una oportunidad de trabajo basado en la ciencia al margen de la enseñanza, a la que se las limitaba profesionalmente. Así, comenzó a trabajar como oficial científica junior en el Royal Aircraft Establishment en Farnborough; en este centro de investigación colaboró en la realización de pruebas estructurales en materiales que se utilizaron posteriormente en la fabricación de aeronaves.

Los tediosos cálculos cristalográficos

En 1946 Kathleen se unió a un grupo de investigación en cristalografía de rayos X en el Birkbeck College. El equipo estaba dirigido por el cristalógrafo John Desmond Bernal (1901-1971), secundado por el físico Andrew Donald Booth (1918-2009).

Desde 1943 Booth trabajaba en la determinación de estructuras cristalinas usando datos obtenidos por difracción de rayos X. Estas investigaciones requerían cálculos numéricos excesivamente largos y pesados por lo que decidió intentar automatizar el proceso desarrollando una computadora analógica. Kathleen se incorporó al equipo matemáticos de Booth en el Birkbeck College, trabajando con las imágenes obtenidas mediante cristalografía de rayos X y que contribuyeron al descubrimiento de la forma de doble hélice del ADN.

Kathleen y Andrew iniciaron una larga colaboración científica que duraría toda su vida. Britten obtuvo su doctorado en matemática aplicada en el King’s College de Londres en 1950 y, ese mismo año, se casó con Andrew Booth. El matrimonio tuvo un hijo y una hija.

Andrew Booth y Kathleen Britten. Fuente: International Union of Crystallography (Creative Commons).Diseñando y programando ordenadores

Kathleen y Andrew colaboraron en la construcción y programación de tres computadoras. Como físico e ingeniero electrónico, él se encargaba del diseño y ella, con una profunda formación matemática, de la parte de programación.

Booth diseñó entre 1947 y 1948 una computadora electromecánica, la ARC (Automatic Relay Calculator). No era un ordenador de propósito general; fue diseñado específicamente para hacer la síntesis de Fourier, uno de los pasos esenciales para determinar la estructura de un cristal. Aunque Andrew lo diseñó, fue Kathleen quien lo construyó y probó junto a la asistente de investigación Xenia Sweeting.

En esa época Kathleen creó un lenguaje simbólico para simplificar el proceso de programación de la máquina; lo denominó Contracted Notation (en General Considerations in the Design of an All-purpose Electronic Digital Computer, 1947). Se reconoce como el primer lenguaje ensamblador del mundo. Esta propuesta, que traduce unos y ceros en instrucciones legibles por seres humanos, supuso un gran avance en la programación de computadoras, que hasta ese momento se realizaba introduciendo bits individuales e incluso conectando y desconectando cables.

También diseñaron la máquina SEC (Simple Electronic Computer) entre 1948 y 1949.

En esa época Andrew y Kathleen crearon el llamado algoritmo de multiplicación de Booth, de interés en el estudio de la arquitectura de ordenadores.

Su máquina más conocida fue la APEC (All-Purpose Electronic Computer), diseñada en 1949. En 1951, la empresa British Tabulating Machine Company usó sus circuitos de hardware como base para el diseño de su computadora HEC 1 (Hollerith Electronic Computer).

Kathleen Britten y Xenia Sweeting. Fuente: International Union of Crystallography (Creative Commons).

 

Todo este trabajo llevó a Andrew y Kathleen Booth a publicar el libro Automatic digital calculators (1953).

Kathleen lideró el desarrollo de programas para la traducción automática en Birkbeck; en aquel momento se trataba de una propuesta pionera para unas máquinas que estaban pensadas para realizar cálculos numéricos. El 11 de noviembre de 1955, el Laboratorio de Computación de Birkbeck realizó una demostración pública de traducción automática. Kathleen Booth escribió en su computadora (en francés):

C’est un exemple d’une traduction fait par la machine à calculer installée au laboratoire de Calcul de Birkbeck College, Londres.

(Este es un ejemplo de traducción realizada por la máquina de cálculo instalada en el laboratorio de computación de Birkbeck College, Londres).

Y la computadora imprimió (en inglés):

This is an example of a translation made by the machine for calculation installed at the laboratory of computation of Birkbeck College, London.

En 1958 Kathleen publicó el libro Programming for an automatic digital calculator.

La etapa canadiense

El matrimonio Booth realizó un trabajo sobresaliente en Birkbeck College, aunque pensaban que no se les estaba dando el crédito que merecían. Andrew solicitó en varias ocasiones que se creara una Cátedra permanente en Ciencias de la Computación, pero se la denegaron, a pesar de tener incluso una fuente de financiación concedida para sostenerla. Por ese motivo, en 1962, ambos renunciaron a sus puestos en ese centro y decidieron emprender una nueva vida en Canadá.

Comenzaron enseñando e investigando en la Universidad de Saskatchewan hasta 1972 y después en la Universidad de Lakehead hasta su jubilación en 1978.

Kathleen se mantuvo activa en su investigación sobre redes neuronales y, en 1993, publicó el artículo Using neural nets to identify marine mammals junto a su hijo Ian. Fue su último trabajo publicado; tenía 71 años.

Andrew Booth falleció en noviembre de 2009, con 91 años. Kathleen lo hizo casi trece años después, con 100 años de edad. Hizo historia en la teoría de la computación aunque su nombre apenas sea conocido.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Kathleen Booth, la matemática pionera en programación que creó el primer lenguaje ensamblador se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Las redes neuronales necesitan datos para aprender. Aunque sean falsos

mar, 2023/06/20 - 11:59

Los datos reales pueden ser difíciles de obtener, por lo que los investigadores están recurriendo a datos sintéticos para entrenar sus sistemas de inteligencia artificial.

Un artículo de Amos Zeeberg. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

 

datosIlustración: Kristina Armitage / Quanta Magazine

En un día soleado a fines de 1987, una camioneta Chevrolet circuló por un camino boscoso lleno de curvas en el campus de la Universidad Carnegie Mellon en Pittsburgh. El enorme vehículo, llamado Navlab, no destacaba por su belleza o velocidad, sino por su cerebro: era una versión experimental de un vehículo autónomo, guiado por cuatro poderosos ordenadores (para su época) en el área de carga.

Al principio, los ingenieros trás Navlab intentaron controlar el vehículo con un algoritmo de navegación, pero al igual que muchos investigadores anteriores, les resultó difícil dar cuenta de la amplia gama de condiciones de conducción con un solo conjunto de instrucciones. Así que lo intentaron de nuevo, esta vez utilizando un enfoque de inteligencia artificial llamado aprendizaje automático: la camioneta aprendería a conducir por sí misma. Un estudiante de posgrado llamado Dean Pomerleau construyó una red neuronal artificial, hecha de pequeñas unidades de procesamiento lógico destinadas a funcionar como células cerebrales, y se dispuso a entrenarla con fotografías de carreteras en diferentes condiciones. Pero tomar suficientes fotografías para cubrir la amplia gama de posibles situaciones de conducción fue demasiado difícil para el pequeño equipo, por lo que Pomerleau generó 1.200 imágenes sintéticas de carreteras en un ordenador y las usó para entrenar al sistema. La máquina autodidacta conducía tan bien como cualquier otra cosa que se les ocurrió a los investigadores.

Navlab no llevó directamente a ningún avance importante en la conducción autónoma, pero el proyecto mostró el poder de los datos sintéticos para entrenar los sistemas de IA. A medida que el aprendizaje automático mejoró en las décadas siguientes, desarrolló un apetito insaciable por los datos de entrenamiento. Pero los datos son difíciles de obtener: pueden ser costosos, privados o escasos. Como resultado, los investigadores recurren cada vez más a los datos sintéticos para complementar o incluso reemplazar los datos naturales para entrenar redes neuronales. “El aprendizaje automático ha estado luchando durante mucho tiempo con el problema de los datos”, afirma Sergey Nikolenko, director de IA en Synthesis AI, una empresa que genera datos sintéticos para ayudar a sus clientes a crear mejores modelos de IA. “Los datos sintéticos son una de las formas más prometedoras de resolver este problema”.

Afortunadamente, a medida que el aprendizaje automático se ha vuelto más sofisticado, también lo han hecho las herramientas para generar datos sintéticos útiles.

Un área en la que los datos sintéticos están demostrando ser útiles es para abordar las preocupaciones sobre el reconocimiento facial. Muchos sistemas de reconocimiento facial están entrenados con enormes bibliotecas de imágenes de rostros reales, lo que plantea problemas sobre la privacidad de las personas en las imágenes. El sesgo también es un problema, ya que varias poblaciones están sobrerrepresentadas o subrepresentadas en esas bibliotecas. Los investigadores del Mixed Reality & AI Lab de Microsoft han abordado estas preocupaciones y han lanzado una colección de 100 000 caras sintéticas para entrenar sistemas de IA. Estos rostros se generan a partir de un conjunto de 500 personas que dieron permiso para escanear sus rostros.

El sistema de Microsoft toma elementos de rostros del conjunto inicial para crear combinaciones nuevas y únicas, luego agrega un estilo visual con detalles como maquillaje y cabello. Los investigadores dicen que su conjunto de datos abarca una amplia gama de etnias, edades y estilos. “Siempre hay una larga cola de diversidad humana. Creemos y esperamos capturar mucho de eso”, explica Tadas Baltrušaitis, un investigador de Microsoft que trabaja en el proyecto.

Otra ventaja de las caras sintéticas es que el ordenador puede etiquetar cada parte de cada cara, lo que ayuda a que la red neuronal aprenda más rápido. En cambio, las fotos reales deben etiquetarse a mano, lo que lleva mucho más tiempo y nunca es tan consistente o preciso.

Los resultados no son fotorrealistas, las caras se parecen un poco a los personajes de una película de Pixar, pero Microsoft los ha usado para entrenar redes de reconocimiento facial cuya precisión se acerca a la de las redes entrenadas en millones de caras reales.

datosUn equipo de Microsoft creó estos rostros, y muchos miles más, utilizando un conjunto de datos reales. Los rostros sintéticos pueden parecer caricaturescos, pero pueden ayudar a entrenar las redes neuronales con la misma precisión que las fotos reales, con menos preocupaciones sobre la privacidad y la diversidad. Fuente: Microsoft

La capacidad de los ordenadores para generar datos sintéticos útiles también ha mejorado recientemente, debido en parte a mejores GPU, un tipo de chip diseñado para el procesamiento gráfico que puede producir imágenes más realistas. Erroll Wood, un investigador actualmente en Google que también ayudó a crear las caras sintéticas, se basó en las GPU para un proyecto de seguimiento ocular. El seguimiento ocular es una tarea difícil para los ordenadores, ya que implica seguir los movimientos mínimos de ojos de aspecto diferente bajo condiciones de iluminación variadas, incluso en ángulos extremos con el globo ocular apenas visible. Normalmente se necesitarían miles de fotos de ojos humanos para que una máquina aprendiese a dónde está mirando una persona, y esas fotos son difíciles de obtener y prohibitivamente caras.

El equipo de Wood demostró que un ordenador basado en una GPU y ejecutando Unity, un paquete de software para producir videojuegos, podía generar las imágenes necesarias, incluidos reflejos detallados de imágenes digitales cubriendo un ojo humano curvo y húmedo. El sistema GPU tardó solo 23 milisegundos en generar cada foto. (De hecho, cada imagen en realidad tardó solo 3,6 milisegundos en producirse; el resto del tiempo se dedicó a almacenar la imagen). Los investigadores produjeron 1 millón de imágenes oculares y las usaron para entrenar una red neuronal, que funcionó tan bien como la misma red entrenada con fotos reales de ojos humanos, por una fracción del precio y en mucho menos tiempo. Al igual que con las caras sintéticas de Microsoft, la red de seguimiento ocular se benefició de la capacidad del ordenador para aplicar etiquetas perfectas a píxeles de las imágenes de entrenamiento.

Los investigadores también están utilizando los últimos sistemas de IA para crear los datos necesarios para entrenar a los sistemas de IA. En medicina, por ejemplo, un objetivo durante mucho tiempo ha sido crear una red neuronal que pueda interpretar imágenes radiológicas tan bien como los radiólogos humanos. Pero es difícil obtener los datos necesarios para entrenar estos sistemas, ya que las radiografías y las tomografías computarizadas de pacientes reales son información privada de salud. Es muy trabajoso obtener acceso a los miles o millones de imágenes necesarias para entrenar un modelo verdaderamente preciso.

A principios de este año, Hazrat Ali, científico informático de la Universidad COMSATS de Pakistán, describió sus primeros experimentos con DALL·E 2, un popular modelo de difusión, para crear imágenes realistas de rayos X y tomografía computarizada de los pulmones, incluidas representaciones de afecciones pulmonares específicas. Estas imágenes se pueden usar para entrenar una red neuronal para detectar tumores y otras anomalías. Dentro de un año espera que los modelos de difusión establezcan un nuevo punto de referencia para las herramientas de radiología de IA. “Una vez que podamos sintetizar resonancias magnéticas, tomografías computarizadas y tal vez ultrasonidos más realistas, esto acelerará la investigación y, en última instancia, la transferencia clínica, sin generar preocupaciones sobre la privacidad de los pacientes y el intercambio de datos”.

Mientras Navlab avanzaba tímidamente por el campus de CMU, los espectadores probablemente no pensaran que estaban viendo el nacimiento de una tecnología importante. Pero ese lento viaje ayudó a presentar al mundo los datos sintéticos, que han asumido un papel clave en el desarrollo de la inteligencia artificial. Y ese papel puede volverse verdaderamente esencial en el futuro. “Los datos sintéticos han llegado para quedarse”, afirma Marina Ivasic-Kos, investigadora de aprendizaje automático de la Universidad de Rijeka en Croacia. “El final del juego es reemplazar completamente los datos reales con datos sintéticos”.

 

El artículo original, Neural Networks Need Data to Learn. Even If It’s Fake., se publicó el 16 de junio de 2023 en Quanta Magazine.

Traducido por César Tomé López

El artículo Las redes neuronales necesitan datos para aprender. Aunque sean falsos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El mito de la vagina sucia que necesita limpieza

lun, 2023/06/19 - 11:59
vaginaFoto: Alexander Grey / Unsplash

Una de las principales estrategias para crear nuevos nichos de negocio es crear necesidades en los consumidores, que antes no tenían, para convencerles de comprar productos nuevos. Artículos como freidoras de aire, café en cápsulas o robots aspiradora son ejemplos de ello. Sin embargo, en el sector de la higiene y de la salud, este método puede carecer totalmente de ética, al engañar a los consumidores haciéndoles pensar que tienen un problema, cuando no es así, para tratar de venderles su oportuna «solución» (que, en realidad, soluciona poco o nada). En ese sentido, la mayoría de las ventas de complementos dietéticos se origina a partir de esta ilusoria forma de mercadotecnia que lleva a implantar diversas creencias erróneas en la población general.

En el mundo de la higiene, múltiples empresas están empeñadas en implantar una idea clave entre las mujeres de las sociedades occidentales: «Tu vagina está sucia y huele mal si no la limpias». Por supuesto, las compañías que transmiten este mensaje buscan reforzar la venta de sus diversos productos dirigidos a «limpiar» la vagina: irrigadores, geles, soluciones, toallitas, cremas, jabones, perfumes… Sin embargo, esta estrategia publicitaria no solo es falaz, sino que también demoniza una parte del cuerpo de las mujeres, al tiempo que puede causar inseguridad a algunas de ellas sobre el estado higiénico de sus zonas íntimas.

En Canadá, un grupo de psicólogos lleva años prestando especial atención a este fenómeno, muy ignorado en diversos países. A través de diversas encuestas a mujeres, han llegado a las siguientes conclusiones: «Para muchas de nuestras participantes, conseguir la sensación de limpieza y frescura era una necesidad física subjetiva. Esta limpieza y frescura se veía como necesaria para las participantes que percibían consecuencias sociales como la estigmatización como posibles repercusiones por tener olor vaginal y flujo. Las ideas sobre limpieza y frescura no solo influían para usar productos de higiene vaginal, sino que también reflejaban mensajes sociales más amplios en torno a la higiene femenina genital como algo sucio, con fugas y vergonzoso. El uso generalizado de términos como limpieza y frescura en el marketing de productos de higiene vaginal beneficia más a las empresas que se lucran a través de la internalización en las mujeres de estos mensajes negativos sobre los genitales femeninos».

Los inútiles productos de limpieza vaginal

Los productos para la higiene de la vagina son, además de innecesarios, contraproducentes si se considera su anatomía y fisiología. Esta parte íntima de la mujer tiene su propia microbiota (mal llamada «flora»), compuesta principalmente por diversas bacterias del género Lactobacillus. Estos microorganismos se caracterizan por producir ácido láctico, lo que provoca un ambiente ligeramente ácido en la vagina, y protegen frente a la proliferación excesiva de bacterias y hongos patógenos mediante múltiples mecanismos. Además, ciertas especies de lactobacilos producen también agua oxigenada, lo que también contribuye a mantener a raya a microorganismos perjudiciales.

Los lactobacilos hacen que la vagina tenga un leve olor, bastante característico (como a leche ligeramente fermentada), que puede variar con la menstruación, sin que ello suponga en absoluto un problema de higiene o médico. Además de esto, la vagina tiene su propio mecanismo de limpieza, el flujo vaginal, a partir del cual se van eliminando restos de células y microorganismos, al tiempo que mantiene húmeda la zona y contribuye a prevenir las infecciones.

En ocasiones, ciertos cambios en el olor que procede de la vagina sí que puede hacernos sospechar que algo no va bien. Por ejemplo, si esta huele a pescado podrido y aparecen cambios en el flujo vaginal, junto a picores y escozor, existe una sospecha alta de infección vaginal y es necesario acudir al médico.

Los peligros de «limpiar» la vagina

Cuando se aplican con frecuencia duchas o irrigadores vaginales y otros productos dirigidos a «limpiar» la vagina en mujeres sanas se está actuando sobre un problema que no existe ya que es normal que esta zona tenga un ligero olor. Además, estos pueden alterar la microbiota normal de la vagina (al destruir a los lactobacilos o al arrastrar a microorganismos del exterior al interior de la vagina), así como también su pH y lubricación. A su vez, esta perturbación de las condiciones normales de dicha zona del aparato genital femenino incrementa notablemente el riesgo de aparición de sequedad y de infecciones genitourinarias por hongos y bacterias, lo que a su vez provoca mayor riesgo de sufrir enfermedades de transmisión sexual y enfermedad inflamatoria pélvica. Por otro lado, algunos compuestos de dichos productos (como fragancias) pueden irritar la vagina, que es especialmente sensible a ellos.

Una encuesta nacional realizada en Canadá, cuyos resultados se publicaron en 2018, sobre salud vaginal y prácticas higiénicas detectó que el 95 % de las mujeres usaba como mínimo un producto para la zona vaginal o sus alrededores. Los investigadores observaron que aquellas que usaban geles desinfectantes tenían un riesgo 8 veces mayor de sufrir infección vaginal por hongos y casi 20 veces más de padecer una infección por bacterias. Otras prácticas de higiene como las duchas vaginales o el uso de toallitas en esta zona también se asociaban con un riesgo considerablemente mayor de infecciones. Esta encuesta no permite establecer causas y efectos, pero sustenta la idea de que el uso de productos para la higiene de la vagina dista de ser beneficiosa.

Por supuesto, a diferencia de la vagina, la vulva sí necesita higiene, pero nada excesivo: agua y un poco de gel de ducha es más que suficiente para mantener la zona limpia. Los geles íntimos pueden ser recomendables para limpiar esta zona, pero nunca deberían aplicarse en el interior de la vagina.

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo El mito de la vagina sucia que necesita limpieza se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La música alivia el cansancio físico

dim, 2023/06/18 - 11:59
cansancioFoto: Jozsef Hocza / Unsplash

Imagino que la mayoría de nosotros ha participado en alguna actividad física —trabajo o deporte— en que ha acompañado con música el ritmo de la actividad. Incluso quien no lo haya hecho seguramente habrá visto películas en las que grupos de personas trabajan en concierto al son de alguna pieza musical o de algún canto. Y los atletas de alto nivel recurren a menudo a escuchar música durante los entrenamientos o en las pruebas físicas. Al proceder de esa forma se siente menos cansancio. La música y el canto hacen más llevadera la actividad física.

La cuestión es si esa menor sensación de cansancio obedece a que la música o el canto ayudan a prestar menos atención a la señal propioceptiva (recepción sensorial de la situación propia) de fatiga o, además de ese efecto de distracción, hay otro sobre la misma señal de cansancio. Este fenómeno se ha estudiado mediante experimentos en los que se han comparado las sensaciones de personas que estaban escuchando música mientras hacían algún ejercicio físico en condiciones normales con las de otros para quienes era muy difícil, por no decir imposible, que la música les distrajese de la sensación de cansancio, dado que en todo momento se les hacía ser conscientes de la actividad que realizaban.

Los investigadores generaron una condición experimental –a la que llamaron musical agency– en virtud de la cual los participantes modulaban sonidos musicales mediante la ejecución de movimientos corporales. Con ese propósito equiparon máquinas de entrenamiento con sensores que servían para modular la generación de sonidos musicales. De ese modo, en la condición experimental (agencia musical) los participantes se podían expresar musicalmente a través de sus movimientos en la máquina de fitness. Esos individuos eran conscientes en todo momento de la actividad que realizaban, por lo que se supone que el antes citado efecto de distracción no se producía.

Quienes participaron en el grupo de agencia musical experimentaron menor sensación de agotamiento físico que los que escucharon música de forma pasiva. Y esa menor sensación de cansancio no se correspondió ni con una menor fuerza ejercida ni tampoco con un menor gasto metabólico, aunque en este último caso la diferencia entre las dos condiciones se encontraba en el límite de la significación estadística. Como he señalado antes, en ese diseño experimental la percepción propioceptiva es esencial para decidir qué música crear; esto es, a la hora de decidir cómo interactuar con la máquina de fitness, qué frecuencia de movimientos hacer o qué fuerza ejercer, la sensación de cansancio es un elemento esencial, por lo que los participantes no pueden distraerse de esa sensación. Por lo tanto, la menor sensación de cansancio que se experimenta al practicar alguna actividad física mientras se oye o se produce música no se debe solo a la distracción que proporciona esta, sino que dicho efecto tiene entidad propia.

Lo que no parece fácil es atribuir ese efecto a unas causas inmediatas concretas. Los autores de la investigación han sugerido que la condición de agencia musical puede implicar una mayor sincronización entre la estructura musical y los movimientos, y que eso facilite la ejecución de estos porque una mejor coordinación puede conllevar menor esfuerzo. También plantean la posibilidad de que en esa condición sea mayor la capacidad de predecir los tiempos precisos de la ejecución de cada movimiento y que eso tenga algún efecto en la representación en la corteza cerebral de la propiocepción, contribuyendo a reducir la sensación de cansancio.

Por otro lado, quizás la música ejerza un efecto relajante, lo que supondría que la tensión muscular sería menor y ello permitiría una oxigenación más eficiente; esto último explicaría la diferencia (aunque sin alcanzar la significación estadística requerida) en el gasto metabólico entre la condición activa y la pasiva. Tampoco parece que el efecto observado sea debido a que se percibe de forma diferente el cansancio de las contracciones musculares isotónicas (las que generan trabajo) y de las isométricas (las que no lo generan, como cuando empujamos una pared o tratamos de levantar una carga con la que no podemos). Ambas formas de contracción ocurren durante la realización de tareas físicas y podría ser que las isométricas dieran lugar a menos cansancio, pero ese extremo también se comprobó experimentalmente y no fue el caso. En definitiva, no están claras las razones por las que la condición de agencia musical genera menor sensación de cansancio e incluso comporta, quizás, un menor gasto metabólico, aunque la fuerza ejercida sea la misma.

La producción de música (agencia musical) es un aspecto esencial de la mayoría de los rituales y de muchas actividades laboriosas en las sociedades humanas. No es raro que la gente, cuando se reúne para celebrar algo, recurra a la música y la danza como forma de expresión. Tampoco lo es que el desempeño de trabajos colectivos, especialmente si son físicamente exigentes, vaya acompañado de canciones cantadas a coro, a veces acompañadas por instrumentos musicales. Pues bien, el hecho de que la actividad musical module, reduciéndolo, el sentido de cansancio o de agotamiento habría facilitado, en nuestra evolución y en el desarrollo de la civilización humana, ese tipo de actividades que suelen estar integradas en un contexto que implica producción musical, especialmente en las sociedades tradicionales.

Fuente: T. H. Fritz, S. Hardikar, M. Demoucron, M. Niessen, M. Demey, O. Giot, Y. Li, J.-D. Haynes, A. Villringer, M. Leman (2013): “Musical agency reduces perceived exertion during strenuous physical performance” PNAS 110 (44): 17784–17789.

Para saber más:

La música, en el electroencefalograma

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo La música alivia el cansancio físico se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Tienes tu reloj (circadiano) en hora?

sam, 2023/06/17 - 11:59

comportamiento maternal

Cómo influyen los parásitos en el comportamiento de los animales, cómo se modifica la conducta de las madres mamífero o cuáles son las enfermedades que nos afectan y desde cuándo hemos desarrollado comportamientos funerarios ante la muerte son algunos de los aspectos que se analizarán en la V Jornada Nacional sobre Evolución y Neurociencias.

Especialistas en ambas materias se reunirán el 11 y 12 de mayo en una nueva edición conducida por Eva Garnica y Pablo Malo, psiquiatras y miembros de la Red de Salud Mental de Bizkaia, y organizada por esa misma entidad y la Cátedra de Cultura Científica de la UPV/EHU.

La jornada, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolucionista y divulgar de un modo accesible para todos los públicos.

Si tus ritmos internos, lo que se conoce como reloj circadiano, no están ajustados al mundo exterior y tus necesidades de interacción con él, tienes un problema serio. Mariana Astiz nos lo cuenta en esta charla.

Mariana Astiz es Investigadora Ikerbasque en Achucarro donde investiga sobre la fisiología circadiana de las neuronas y las células glia. Doctora en bioquímica por la Universidad de La Plata (Argentina), ha desarrollado su carrera investigadora en esta misma institución, además del Instituto Cajal – CSIC y la Universidad de Lübeck (Alemania).

 



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo ¿Tienes tu reloj (circadiano) en hora? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La poco conocida relación entre la boca y la salud mental

ven, 2023/06/16 - 11:59
bocaFoto: Alexander Krivitskiy / Unsplash

Según el último informe sobre la situación mundial de la salud bucodental publicado por la Organización Mundial de la Salud (OMS), el 45 % de la población mundial sufre alguna enfermedad oral. Argumento de sobra para que visitemos periódicamente al dentista.

Ya sea para hacernos una revisión y limpieza, o como consecuencia de caries y ortodoncias, hacemos bien en preocuparnos por la salud de nuestra boca, porque es un reflejo de nuestra salud general. Y viceversa: el estado de nuestros dientes, encías y boca afecta a otros sistemas del organismo. Esta conexión bidireccional es objeto de estudio por parte de profesionales de la salud de diversas especialidades, incluida la salud mental.

Estrés, depresión y autismo pueden afectar a la salud oral

En general, las personas con enfermedades mentales tienen peor salud bucodental, con mayor pérdida de dientes, necesidad de empastes o enfermedad de las encías. ¿A qué se debe esta interrelación entre salud mental y boca?

Son varios los factores que pueden estar implicados. Por un lado, el estrés y la ansiedad nos llevan a apretar los dientes. El bruxismo provoca un desgaste y movilidad de los dientes, y sobrecarga los tejidos.

En caso de depresión experimentamos falta de motivación, aislamiento social, baja autoestima, fatiga o cansancio y pérdida de interés por actividades habituales. Esta sintomatología puede afectar negativamente a la salud oral, ya que se presta menos atención a la higiene y el autocuidado de la boca.

En cuanto a los trastornos de la conducta alimentaria, como la bulimia o la anorexia, también se reflejan en la boca: una dieta deficitaria o los ácidos de los vómitos provocan que el esmalte dental se debilite y aparezcan más caries.

Las personas con esquizofrenia padecen más patología oral (enfermedad de las encías, mayor pérdida y necesidad de empastes de los dientes) asociada al abuso de tabaco, alcohol y drogas, al descuido de la higiene oral, al comportamiento evasivo y a la dieta rica en azúcares.

En el caso de las personas con trastorno del espectro autista, la dificultad para tolerar el cuidado de la boca, tanto en casa como en la consulta del especialista, poca cooperación o problemas de comunicación son factores que podrían favorecer el deterioro de la salud oral.

Medicamentos que producen sequedad de boca

¿Afectan a la salud oral los tratamientos frente a las enfermedades mentales? La respuesta es sí. Aunque los medicamentos que utilizamos para tratar las enfermedades mentales mejoran significativamente la calidad de vida de los pacientes no están exentos de efectos adversos, y algunos de ellos afectan a la boca.

Uno de los efectos indeseados a nivel oral más frecuente es la modificación de la producción de saliva. Los fármacos que utilizamos para tratar la depresión, la ansiedad o la esquizofrenia disminuyen el flujo salival (xerostomía). Esta sequedad de boca afecta a la ingesta de alimentos y al habla, facilitando además la aparición de infecciones. Afortunadamente, la sequedad de boca producida por los medicamentos es reversible y desaparece al terminar el tratamiento.

Otras alteraciones orales causadas por la medicación empleada en el tratamiento de las enfermedades mentales son las alteraciones del gusto, los movimientos involuntarios de la boca y de la lengua (discinesias orales), las úlceras, así como la enfermedad y/o agrandamiento de las encías.

Mens sana in corpore sano: empecemos por la boca

En general, tenemos interiorizada la necesidad de mantener unos dientes fuertes y saludables, cepillándolos tras las comidas, y acudiendo a la consulta odontológica con cierta regularidad. Estos buenos hábitos, además de evitar enfermedades dentro y fuera de la boca, preservan la buena salud oral, que favorece un estado mental positivo, refuerza la autoestima y mejora nuestro bienestar.

Además de permitirnos sonreír abiertamente.The Conversation

Sobre las autoras: Nerea Jauregizar, Profesora agregada del Departamento de Farmacología, UPV/EHU; Leire Urien, Odontóloga doctoranda en farmacología, UPV/EHU, y Teresa Morera Herreras, Profesora agregada del Departamento de Farmacología, UPV/EHU

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo La poco conocida relación entre la boca y la salud mental se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La catenaria: una historia de innovación (1/4)

jeu, 2023/06/15 - 11:59

catenariaEl tranvía de Sóller (Mallorca, España) opera desde 1913 con varios automotores eléctricos originales. El de la imagen (con el número 20) fue adquirido a Lisboa y adaptado al ancho de vía 914 mm. Foto:  Wojciech Then / UnsplashTodos los medios de transporte se caracterizan por un hecho obvio: se mueven. Lograr el movimiento requiere de algún tipo de causa motriz. Una fuente de energía que pueda ser utilizada, de algún modo, para hacer efectivo el movimiento. Todos los medios de transporte modernos llevan consigo su propia causa motriz, que se convierte así, además, en un factor limitante para la carga útil (pues, al final, el verbo transportar necesita un objeto directo para tener sentido) y el rango de distancias alcanzable.

¿Todos? ¡No! Existe un sistema de transporte, con perdón del casi difunto barco de vela, que transmite regularmente energía generada en cualquier lugar a un vehículo en movimiento: el tren eléctrico. El siglo XIX vio eclosionar, en el contexto de la revolución industrial, el ferrocarril y la electricidad. Era cuestión de tiempo que alguien intentara un maridaje, en principio, retador. Las baterías, derivadas de los primeros trabajos de Alessandro Volta, eran artefactos frágiles, pesados y con una capacidad de almacenamiento escasa. Tal era que los primeros cochecitos eléctricos, apenas juguetes, tenían su capacidad de movimiento limitada por el cable que los conectaba a sus baterías [UPS 2018]. Sin mejoras radicales en la capacidad de almacenamiento de energía eléctrica (que hoy, dos siglos después, aún esperamos), ¿quién plantearía un cable tan largo como para hacer de un transporte electrificado una proposición viable?

catenariaPrimer coche eléctrico de juguete de Ányos Jedlik, 1828. El cable para la batería sale hacia la derecha. Foto: Universidad de BudapestLos primeros trenes eléctricos

El primer ferrocarril electrificado funcionó como un prototipo durante 1876 en la localidad rusa de Sestroretsk, cercana a San Petersburgo [Nikolayenko 2013]. El ingeniero e inventor ucraniano Fiódor Apolónovich Pirotski dispuso conectores eléctricos en los raíles de un tramo de menos de cuatro kilómetros de longitud. Los propios raíles metálicos y las ruedas, también metálicas, cerraban un circuito eléctrico por el que el vehículo, una vagoneta dotada de un motor de corriente continua, podía desplazarse. Apenas tres años después, en la Exposición Industrial de Berlín de 1879, Werner von Siemens mostraba su primera locomotora eléctrica: un carrito de juguete tirando de tres pequeños coches con capacidad para seis pasajeros cada uno, alimentada por un sistema de tercer raíl electrificado. Validado el concepto, el mismo Siemens inauguró en 1881 el primer tranvía en el barrio berlinés de Lichterfelde, ya en servicio regular y con un tamaño apto para transportar hasta veintiséis adultos [BV 2007].

Estos primeros ferrocarriles electrificados tomaban su corriente de los propios raíles, a través de las ruedas, o mediante un raíl específico con el que el vehículo que circulaba se mantenía en contacto mediante una zapata metálica. Ni que decir tiene que aquí hay un desastre en ciernes. Pirotski pudo obviarlo gracias a que realizó sus pruebas en una zona poco poblada. Siemens decidió separar el trazado de su primer tranvía del resto de la calle mediante vallas, pero se vio obligado a dejar pasos abiertos. No hubo de transcurrir mucho tiempo sin que la práctica demostrara que los 180 voltios de corriente continua entre los raíles del tranvía eran más que suficientes para provocar graves quemaduras e incluso la muerte por electrocución a aquellas caballerías que tuvieran la mala fortuna, no tan improbable, de pisar con sus pezuñas herradas los dos raíles a la vez.

Gamberros decimonónicos

También hubo incidentes en los que se vieron involucrados chavales. Los gamberros decimonónicos pronto aprendieron que podían provocar cortocircuitos con trozos de alambre robado. Solo debían tener la precaución de dejarlos caer de modo que tocaran a la vez ambos raíles. ¡No podían simplemente colocarlos, so pena de llevarse una descarga potencialmente mortal! Los alambres se calentaban hasta ponerse al rojo, se desprendían vistosas y peligrosas chispas, y se hacía necesario interrumpir el servicio cuanto antes para evitar daños por cortocircuito en los equipos de alimentación eléctrica.

Siemens dio con la misma solución que tantos padres y madres, desde tiempos inmemoriales, habían aplicado: colocaría la electricidad en alto, como quien pone los cuchillos, los botes de compuestos tóxicos y las galletas bien arriba para no tentar a los niños. Había nacido la línea aérea de contacto. La primera prueba de concepto se mostró en el mismo año, en la Exposición Eléctrica Internacional de París. Dos años más tarde, en 1883, una línea de tranvía de Mödling, localidad cercana a Viena, capital del imperio austrohúngaro, fue electrificada con corriente continua a 550 voltios [Leitner 2007]. Pocos meses después se instaló ese mismo sistema en Lichterfelde, para lamento de los adolescentes locales y tranquilidad compartida de padres y autoridades.

catenariaPrimer tranvía electrificado con catenaria bipolar en la línea Mödling-Hinterbrühl, Austria, 1883. (Autor desconocido)El enchufe deslizante

Las primeras líneas aéreas de contacto surgieron a la vez que los primeros pantógrafos, unos dispositivos que podríamos describir funcionalmente con solo dos palabras: enchufe deslizante. Pero aquellos artefactos apenas se asemejaban a los que hoy reconoceríamos como tales. Eran sistemas de rodillos similares a las sujeciones de las cabinas de un teleférico. Las líneas aéreas, por su parte, eran tubos suspendidos en lugar de los actuales hilos atirantados. Más importante, se trataba de sistemas bipolares. Con dos pantógrafos y dos conductores suspendidos, para poder cerrar el circuito. Hoy esta configuración solo se ve en las pocas redes de trolebuses que quedan en el mundo.

Las mejoras fueron sucediéndose. Para empezar, los ingenieros se dieron cuenta de que podían ahorrarse la mitad del metal de la instalación y uno de los dos pantógrafos si permitían que el retorno de corriente se hiciera por los raíles. Esto funcionaba de forma segura porque, para electrocutarse, había que llevar una pértiga de algún material conductor capaz de alcanzar la parte en tensión del sistema, a muchos metros de altura. Por otra parte, se comprobó que la presencia de un tren no provocaba fugas de corriente peligrosas en las proximidades. La sustitución de los tubos iniciales por hilos tensados nos trajo el nombre hoy más habitual para este tipo de sistemas: catenaria, por la forma que adopta naturalmente una cadena colgada de sus extremos. A la vez, los pantógrafos evolucionaron hacia los sistemas actuales con bandas de frotación conductoras montadas sobre mesillas sujetas por un brazo articulado.

Pronto, los operadores de ferrocarriles suburbanos percibieron las ventajas de evolucionar hacia sistemas eléctricos. Con gran parte de sus trayectos y estaciones bajo tierra, dejarían de sofocar así a sus operarios y pasajeros con el humo y el hollín de las calderas de vapor. En estos entornos controlados, los raíles electrificados, normalmente en forma de un tercer raíl protegido, pudieron subsistir —como en el U-bahn de Berlín—. Muchas otras explotaciones, sin embargo, se ejecutaron con catenaria. A lo largo del siglo XX, conforme aumentaba el conocimiento de los ingenieros y la disponibilidad de centrales eléctricas, las ventajas de la electrificación fueron quedando en evidencia también para aplicaciones en superficie. Al principio fueron trenes de mercancías superando pendientes imposibles para su competencia de vapor. Más adelante, cuando el vapor alcanzó sus máximas prestaciones, la electricidad quedó como la única opción que podía mejorarlas radicalmente.

Pantógrafo en una catenaria de alta velocidad. Foto: Iván RiveraUna catenaria para cada uso

Hoy, la catenaria ferroviaria es un sistema muy optimizado [Keenor 2021]. Un macramé de alta tensión donde los requisitos eléctricos se entrelazan con los mecánicos para dar como resultado una familia de soluciones para el suministro de energía a transportes guiados sobre raíles de todo tipo. Tranvías, metros ligeros, metros convencionales, tren-trams, ferrocarriles metropolitanos y regionales, trenes de mercancías y de alta velocidad. Cada uno de ellos con diferentes necesidades que dan lugar a variantes técnicas a veces muy distintas entre sí. Hilos únicos en las catenarias tranviarias, donde es posible ahorrar al máximo en metal debido a las bajas velocidades y potencias eléctricas. Catenarias rígidas —perfiles de aluminio con un hilo de cobre embutido— que sacrifican la flexibilidad y las elevadas velocidades a cambio de una sección transversal más compacta y un mantenimiento simplificado, ideal en túneles de metro. Y, por fin, catenarias flexibles para dar servicio a ferrocarriles con grandes consumos eléctricos o altas velocidades de circulación.

Las catenarias flexibles son, hoy, la mejor forma de poner a disposición de un tren potencias eléctricas elevadas para solventar los requisitos típicos de tres tipos de tráfico diferentes: las cercanías, con sus frecuentes paradas y arranques, los trenes de mercancías, con consumos elevados, pero aproximadamente constantes y dependientes de la masa remolcada, y los trenes de alta velocidad, mucho más ligeros que un mercante, pero más rápidos. El hilo de contacto, un trefilado —alambre macizo— de cobre o aleación de cobre y plata, tensionado en tramos de longitud variable en el entorno del kilómetro, es un elemento crítico en todos los casos. Sujeto a importantes solicitaciones tanto eléctricas como mecánicas, asegurar que su comportamiento está dentro de los parámetros de diseño del sistema es fundamental para garantizar una buena alimentación de energía.

Sería lógico pensar que el comportamiento real de esta tecnología debería estar más que documentado, pero lo cierto es que el conocimiento de los administradores de infraestructura del sistema de la catenaria es sorprendentemente empírico. Muchos años de experiencia y la estandarización de los componentes —aunque normalmente limitada al ámbito de cada administración— han resultado en un sistema fiable y funcional que optimiza la durabilidad al mismo tiempo que mantiene los costes de materiales, fabricación y despliegue en un nivel aceptable. A la vez, la literatura científica ha ido desarrollando simulaciones mecánicas, térmicas y eléctricas que, partiendo de primeros principios, han aspirado a acotar los parámetros clave del funcionamiento de los equipos. Esto, sin embargo, no ha logrado alcanzar la meta de todo gestor industrial: el mantenimiento predictivo.

Bibliografía

[BV 2007] El primer tranvía electrificado de la historia en Lichterfelde, Berlín (en alemán): Berliner Verkehrsseiten (2007). Erste Straßenbahn in Groß-Lichterfelde (Berlin). Berliner Verkehrsseiten: Online-Magazin zur Berliner Verkehrsgeschichte.

[Keenor 2021] Manual de catenaria bajo licencia Creative Commons (en inglés): Keenor, G. (2021). Overhead line electrification for Railways (6th ed.).

[Leitner 2007] La primera electrificación en catenaria permanente en Mödling, Austria (en alemán): Leitner, R. (2007). Spezialforschungsbericht Moderne Wien und Zentraleuropa um 1900. Universität Graz. https://web.archive.org/web/20200711011526/http://www-gewi.kfunigraz.ac.at/moderne/sheft1l.htm

[Nikolayenko 2013] Fiódor Pirotski, el inventor del primer ferrocarril electrificado (en ruso): Nikolayenko, A., y Chepurin, S. (02/04/2013). Железная дорога. Zelenogorsk.

[UPS 2018] El primer coche eléctrico… de juguete (en inglés): UPS Battery Center. (06/06/2018). The First (Model) Electric Car: Ányos Jedlik 1828.

Del mismo autor:

Los límites del Hyperloop
El camión solar: ¿una posibilidad real?

Sobre el autor: Iván Rivera es ingeniero especializado en proyectos de innovación de productos y servicios para ferrocarriles.

El artículo La catenaria: una historia de innovación (1/4) se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Tienen algún interés los números repitunos, cuyos dígitos son todos unos?

mer, 2023/06/14 - 11:59

En mi anterior entrada del Cuaderno de Cultura Científica, titulada Los números insólitos, observábamos que había algunos números insólitos cuyos dígitos eran todos unos, en particular, 111 y 111.111.111, entre otros, los llamados números repitunos, a los que vamos a dedicar la entrada de hoy.

repitunosPortada del libro Recreations in the Theory of Numbers: The Queen of Mathematics Entertains (1964), del matemático estadounidense Albert H. BeilerLos números repitunos

Empecemos por la definición.

Un número es un número repituno, en base b, si en la representación del número, en dicha base b, todos sus dígitos son unos (1).

Si empezamos con la base decimal (b = 10), que es la base que manejamos normalmente, tenemos que todo número repituno, como los números 11, 111, 1.111 o 11.111, que se representa (en base 10) con todo unos, puede expresarse de la forma

Expresión del número repituno formado por n + 1 unos

Y utilizando la fórmula de las progresiones geométricas, tenemos que los números repitunos (en base 10) son aquellos que pueden expresarse como

Expresión del número repituno formado por n + 1 unos

 

Por ejemplo, el número repituno 111.111 (para el cual n = 5) es igual a (106 – 1) / 9 = (1.000.000 – 1) / 9 = 999.999 / 9 = 111.111.

En general, para cualquier base b se tiene que los números repitunos pueden expresarse de esta forma

Si consideramos los números binarios (b = 2), cuyas cifras básicas son 0 y 1, tenemos que son, por la expresión anterior, los números de la forma 2n + 1 – 1, los llamados números de Mersenne (que reciben su nombre del sacerdote, filósofo, físico y matemático francés Marin Mersenne (1588-1648)). Los primeros números binarios repitunos serían (1)2 = 1, (11)2 = 22 – 1 = 3, (111)2 = 23 – 1 = 7, (1111)2 = 24 – 1 = 15, (11111)2 = 25 – 1 = 31 y (111111)2 = 26 – 1 = 63. Es decir, los números 1, 3, 7, 15, 31 y 63 son números repitunos en base 2.

Para los números ternarios (b = 3), cuyas cifras básicas son 0, 1 y 2, tenemos que son los números de la forma (3n + 1 – 1) / 2. Por lo tanto, los primeros números ternarios repitunos serían (1)3 = 1, (11)3 = (32 – 1) / 2 = 4, (111)3 = (33 – 1) / 2 = 13, (1111)3 = (34 – 1) / 2 = 40, (11111)3 = (35 – 1) / 2 = 121 y (111111)3 = (36 – 1) / 2 = 364, es decir, los números 1, 4, 13, 40, 121 y 364 son números repitunos en su representación en base 3.

Los números en base b = 4, o números cuaternarios, para los cuales las cifras básicas son 0, 1, 2 y 3, son repitunos si son de la forma (4n + 1 – 1) / 3. Los primeros números repitunos cuaternarios son entronces 1, 5, 21, 85, 341 y 1.365, ya que (1)4 = 1, (11)4 = (42 – 1) / 3 = 5, (111)4 = (43 – 1) / 3 = 21, (1111)4 = (44 – 1) / 3 = 85, (11111)4 = (45 – 1) / 3 = 341 y (111111)4 = (46 – 1) / 3 = 1.365.

En general, podemos hacer lo mismo para cualquier base b. Así, el número (1111)7 = 400 es un número repituno en base 7 o el número (11111)16 = 69.905 es un número repituno en base 16.

Si para cualquier base b tomamos n = 0 en la fórmula anterior tenemos que trivialmente el número 1 es un número repituno para cualquier base y si consideramos n = 1 se obtiene que b + 1 es un número repituno en la base b, ya que

Es decir, dándole la vuelta al argumento anterior, todos los números naturales m son repitunos en alguna base, al menos, trivialmente, en la base m – 1.

repitunosBoceto para una obra de arte binaria

 

El nombre de números repitunos, que en inglés se denominan “repunit”, viene de la expresión en inglés “repeated unit” (unidad repetida) y fue acuñada por el matemático Albert Beiler, en su libro Recreations in the Theory of Numbers: The Queen of Mathematics Entertains (1964).

Los números repitunos primos

Una cuestión que ha interesado dentro del estudio de los números repitunos, y que aparecía en el libro de Albert Beiler, es si son, o no, primos. Por ejemplo, el número 11 es un número repituno primo, pero no el número 111, ya que 111 = 3 x 37. Y, en general, se ha estudiado la factorización de los números repitunos.

A continuación, mostramos la factorización de los primeros números repitunos (en base decimal), a los cuales se les denota como Rk si están formados por k unos (a k se le suele llamar índice del número repituno).

Tabla con el árbol irregular de las factorizaciones de los números repitunos (decimales)

 

Entre los veinte primeros números repitunos solo hay dos que sean primos, que son R2 = 11 y R19 = 1.111.111.111.111.111.111. En general, la sucesión de la cantidad de unos (1) que tienen los números repitunos primos que se conocen a día de hoy, es decir, el índice de los mismos, es la sucesión A004023 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, cuyos términos son:

2, 19, 23, 317, 1.031, 49.081 (demostrado en marzo de 2.022), 86.453 (demostrado en mayo de 2023),

y se incluyen otros cuatro índices k tales que el número repituno Rk es probablemente primo, pero no está demostrado aún:

109.297, 270.343, 5.794.777, 8.177.207.

Como podemos observar, encontrar números repitunos primos es muy complicado. Mientras escribo esta entrada solo se conocen 7 repitunos primos y hay otros 4 que probablemente lo sean, pero aún no está demostrado.

Una primera criba sobre los índices de los números repitunos a la hora de buscar aquellos que sean primos es limitar la búsqueda a los índices primos ya que se puede probar que, si el índice k no es primo, tampoco lo es Rk. Vamos a demostrar esto, ya que es bastante sencillo, aunque puedes saltarte la demostración y seguir leyendo un poco más adelante.

Para demostrar la afirmación anterior vamos a hacer uso de la siguiente identidad algebraica, la fórmula de la diferencia de potencias:

Fórmula de la diferencia de potencias

Ahora, supongamos que nuestro índice k no es primo, luego se puede expresar como un producto k = m x n, entonces vamos a probar que el número repituno Rk es divisible por los números repitunos Rm y Rn. De hecho, podemos expresarlo de la siguiente forma:

Fórmula de la diferencia de potencias

 

Luego Rm divide a Rk. De forma similar, se prueba que Rn también divide a Rk.

Por ejemplo, si k = 4 = 22, tenemos que R2 = 11 divide a R4 = 1.111 = 11 x 101, o si k = 6 = 2 x 3, el número repituno R6 = 111.111 es divisible por R2 = 11 y R3 = 111 = 3 x 37.

repitunosGrabado del sacerdote, filósofo, físico y matemático francés Marin Mersenne (1588-1648), realizado por el grabador francés Pierre Dupin en 1735. Imagen perteneciente a la Wellcome Collection

También podríamos preguntarnos cuáles de los números repitunos en otras bases b son primos. Para empezar, de forma similar a como se ha demostrado antes, basta buscar entre los índices primos.

A los números repitunos binarios (b = 2), los números de Mersenne, es decir, de la forma 2k – 1, que son primos se les llama números primos de Mersenne. Esta es una familia de números primos muy importante, en particular, en la búsqueda de números primos muy grandes. El número primo más grande que se conoce, encontrado en 2018, es el número primo de Mersenne

que tiene 24.862.048 dígitos (escrito en base decimal).

Los índices k para los cuales el número repituno binario con k unos (1), que es el número de Mersenne 2k – 1, es primo es la sucesión A000043 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, cuyos primeros términos son

2, 3, 5, 7, 13, 17, 19, 31, 61, 89, …

Y los primos de Mersenne correspondientes forman la sucesión A000668, cuyos primeros términos son

3, 7, 31, 127, 8.191, 131.071, 524.287, 2.147.483.647, 2.305.843.009.213.693.951, 618.970.019.642.690.137.449.562.111, …

Se conocen nueve números repitunos ternarios primos, la sucesión A076481 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, cuyos dos primeros miembros son 13, que expresado en base ternaria es (111)3, y 1.093, que se expresa en base ternaria como (1111111)3.

Para la base b = 4 solo existe un número repituno primo, que es el número 5, es decir, (11)4. Como hemos visto anteriormente, los números repitunos cuaternarios son de la forma (4k – 1) / 3, pero podemos descomponer (4k – 1) como producto de (2k + 1) y (2k – 1). Si tenemos en cuenta que (2k + 1) es divisible por 3 para k impar y (2k – 1) es divisible por 3 para k par, entonces todos los números repitunos cuaternarios, para k mayor que 2, son compuestos (no primos).

Y podríamos analizar también lo qué ocurre para las demás bases, pero dejemos esta cuestión y terminemos la entrada con un par de curiosidades sobre los números repitunos.

Algunas curiosidades de los números repitunos

Seguramente la propiedad más curiosa y conocida de los números repitunos es lo que ocurre cuando los elevamos al cuadrado. Si miramos a los nueve primeros cuadrados de los números repitunos (en la siguiente imagen) vemos que los resultados son una serie de números capicúas muy especiales, ya que están formados por los números naturales del 1 al k (para k desde 1 hasta 9), primero en orden creciente y después decreciente, puesto que son capicúas.

Sin embargo, a partir de k = 10 ya no obtenemos números capicúas, aunque sí se mantiene cierta simetría, como podemos apreciar en la siguiente imagen. Por ejemplo, cuando elevamos el número repituno de índice 10 al cuadrado, lo que queda es el número 1.234.567.900.987.654.321, que claramente no es capicúa. La primera parte, desde la izquierda, 1234567, se repite en sentido contrario en la derecha, 7654321, pero la parte de en medio no mantiene la simetría 900098. Si elevamos R11 se obtiene 123.456.790.120.987.654.321.

Si observamos la siguiente imagen, que se corresponde con los números repitunos hasta índice 40, vemos que se mantiene cierta simetría. Por ejemplo, las cifras 2, 3, 4, 5, 6 y 7 están en posiciones simétricas, mientras que el 1 solo aparece en el lado izquierdo, a excepción de los extremos, y el 8 solo aparece en la derecha. Por otra parte, las cifras 0 y 9 mantienen cierta simetría.

Estructura triangular formada por los cuadrados de los números repitunos desde el índice 1 hasta el índice 40, en la que se ha pintado cada cifra de un color

 

Hemos obtenido números capicúas multiplicando Rk por Rk, para k entre 0 y 9, pero se pueden obtener otros números capicúas si se multiplica un número repunit Rm cualquiera por Rk, para k entre 0 y 9. Dejo como cuestión abierta analizar el resultado de tales multiplicaciones, que podéis analizar de forma progresiva sobre el índice k, empezando en k = 2.

Otra serie de expresiones curiosas para los primeros números repitunos es la siguiente:

Nos podríamos plantear qué pasa para los demás números repitunos, aquellos con índice 11 o más. La respuesta es que, teniendo en cuenta alguna consideración extra, este tipo de expresiones se mantiene. Veamos qué pasa para el caso del índice 11. En la última expresión anterior teníamos 123456789 x 9 + 10. Ahora en el primer número habría que añadir el 10, pero añadiendo solo un dígito, lo cual es posible si lo hacemos como aparece en la siguiente imagen (se añade el 0 en la última posición y el 1 se suma a la posición anterior).

De esa misma forma se continua con 12, 13, 14, etc, algunos de ellos los mostramos en la siguiente imagen.

Vamos a terminar dividiendo los números repitunos por 9 y viendo qué ocurre.

Bibliografía

1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata – ICMAT – FESPM, 2021.

2.- Albert H. Beiler, Recreations in the Theory of Numbers: The Queen of Mathematics Entertains, Dover, 1964.

3.- Página web: Numbers Aplenty.

4.- Página web: Enciclopedia On-line de Sucesiones de Números Enteros – OEIS

5.- Samuel Yates, The Mystique of Repunits, Mathematics Magazine, Vol. 51, No. 1, pp. 22-28, 1978.

6.- Gerard Villemin: nombres : curiosités – théorie – usage

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo ¿Tienen algún interés los números repitunos, cuyos dígitos son todos unos? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Un nuevo experimento arroja dudas sobre la principal teoría del núcleo

mar, 2023/06/13 - 11:59

Al medir el núcleo de helio hinchado, los físicos han desafiado nuestra mejor comprensión de la fuerza que une los protones y los neutrones.

Un artículo de Katie McCormick. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

núcleoLos núcleos de helio excitados se inflan como globos, ofreciendo a los físicos la oportunidad de estudiar la fuerza nuclear fuerte, que une los protones y neutrones del núcleo. Fuente: Kristina Armitage / Quanta Magazine

Una nueva medición de la fuerza nuclear fuerte, que une protones y neutrones, confirma indicios previos de una verdad incómoda: todavía no tenemos una comprensión teórica sólida ni siquiera de los sistemas nucleares más simples.

Para probar la fuerza nuclear fuerte, los físicos recurrieron al núcleo de helio-4, que tiene dos protones y dos neutrones. Cuando los núcleos de helio se excitan, crecen como un globo que se infla hasta que uno de los protones salta. Sorprendentemente, en un experimento reciente, los núcleos de helio no se hincharon según lo planeado: se hincharon más de lo esperado antes de estallar. Una medida que describe esa expansión, llamada factor de forma, es el doble de las predicciones teóricas.

“La teoría debería funcionar”, afirma Sonia Bacca, física teórica de la Universidad Johannes Gutenberg de Mainz y autora del artículo que describe la discrepancia, que se ha publicado en Physical Review Letters. “Estamos desconcertados”.

El núcleo de helio que se hincha, dicen los investigadores, es una especie de minilaboratorio para probar la teoría nuclear porque es como un microscopio: puede magnificar las deficiencias en los cálculos teóricos. Los físicos creen que ciertas peculiaridades en ese hinchamiento la hacen extremadamente sensible incluso a los componentes más débiles de la fuerza nuclear, factores tan pequeños que generalmente se ignoran. Cuánto se hincha el núcleo también corresponde a la blandura de la materia nuclear, una propiedad que ofrece información sobre los misteriosos corazones de las estrellas de neutrones. Pero antes de explicar el aplastamiento de la materia en las estrellas de neutrones, los físicos primero deben averiguar por qué sus predicciones están tan alejadas.

Bira van Kolck, teórica nuclear del Centro Nacional de Investigación Científica de Francia, afirma que Bacca y sus colegas han expuesto un problema importante en la física nuclear. Han encontrado, continúa, un caso en el que nuestra mejor comprensión de las interacciones nucleares, un marco conocido como teoría del campo efectivo quiral, se queda corta.

“Esta transición amplifica los problemas [con la teoría] que en otras situaciones no son tan relevantes”, concluye van Kolck.

La fuerza nuclear fuerte

Los nucleones atómicos (protones y neutrones) se mantienen unidos por la fuerza fuerte. Pero la teoría de la fuerza fuerte no se desarrolló para explicar cómo se mantienen unidos los nucleones. Sino que se usó por primera vez para explicar cómo los protones y los neutrones están hechos de partículas elementales llamadas quarks y gluones.

Durante muchos años los físicos no comprendieron cómo usar la fuerza fuerte para comprender la adherencia de los protones y los neutrones. Un problema era la extraña naturaleza de la fuerza fuerte: se vuelve más fuerte a medida que aumenta la distancia, en lugar de disminuir lentamente. Esta característica les impidió usar sus trucos de cálculo habituales. Cuando los físicos de partículas quieren comprender un sistema en particular, generalmente dividen una fuerza en contribuciones aproximadas más manejables, ordenan esas contribuciones de la más importante a la menos importante y luego simplemente ignoran las contribuciones menos importantes. Con la fuerza fuerte no podían hacer eso.

Luego, en 1990, Steven Weinberg encontró una forma de conectar el mundo de los quarks y los gluones con los núcleos pegajosos. El truco consistía en utilizar una teoría de campo efectiva, una teoría que es tan detallada como necesita ser para describir la naturaleza en una escala de tamaño (o energía) particular. Para describir el comportamiento de un núcleo no necesitas saber de quarks y gluones. En cambio, a estas escalas, emerge una nueva fuerza efectiva: la fuerza nuclear fuerte, transmitida entre nucleones por el intercambio de piones.

El trabajo de Weinberg ayudó a los físicos a entender cómo la fuerza nuclear fuerte emerge de la fuerza fuerte. También les permitió realizar cálculos teóricos basados en el método habitual de aportes aproximados. La teoría, la teoría efectiva quiral, ahora se considera ampliamente como la «mejor teoría que tenemos», explica Bacca, para calcular las fuerzas que gobiernan el comportamiento de los núcleos.

núcleoSonia Bacca, física de la Universidad Johannes Gutenberg de Mainz, ha descubierto que nuestra mejor comprensión teórica de la fuerza nuclear fuerte está en desacuerdo con los resultados experimentales. Foto: Angelika Stehle

En 2013, Bacca utilizó esta teoría de campo eficaz para predecir cuánto se hincharía un núcleo de helio excitado. Pero cuando comparó su cálculo con los experimentos realizados en las décadas de 1970 y 1980 encontró una discrepancia sustancial. Ella había predicho menos hinchamiento que las cantidades medidas, pero las barras de error experimentales eran demasiado grandes para que ella estuviera segura.

Núcleos hinchables

Después de ese primer indicio de un problema, Bacca alentó a sus colegas en Mainz a repetir los experimentos de hace décadas: tenían herramientas más sofisticadas a su disposición y podían realizar mediciones más precisas. Esas discusiones dieron lugar a una nueva colaboración: Simon Kegel y sus colegas actualizarían el trabajo experimental, y Bacca y sus colegas intentarían comprender el mismo intrigante desajuste, si apareciese.

En su experimento, Kegel y sus colegas excitaron los núcleos disparando un haz de electrones a un tanque de gas helio frío. Si un electrón se colaba dentro del alcance de uno de los núcleos de helio, donaba parte de su exceso de energía a los protones y neutrones, lo que provocaba que el núcleo se inflara. Este estado inflado era fugaz: el núcleo perdía rápidamente el control de uno de sus protones, desintegrándose en un núcleo de hidrógeno con dos neutrones más un protón libre.

Al igual que con otras transiciones nucleares, solo una cantidad específica de energía donada permitirá que el núcleo se hinche. Al variar el momento de los electrones y observar cómo respondía el helio, los científicos pudieron medir la expansión. Luego, el equipo comparó este cambio en el hinchamiento del núcleo, el factor de forma, con una variedad de cálculos teóricos. Ninguna de las teorías coincidía con los datos. Pero, extrañamente, el cálculo que más se acercó utilizaba un modelo simplificado de la fuerza nuclear, no la teoría del campo efectivo quiral.

“Esto fue totalmente inesperado”, afirma Bacca.

Otros investigadores están igualmente desconcertados. “Es un experimento limpio y bien hecho. Así que confío en los datos”, afirma Laura Elisa Marcucci, física de la Universidad de Pisa en Italia. Pero, dice, el experimento y la teoría se contradicen entre sí, por lo que uno de ellos debe estar equivocado.

Trayendo el equilibrio a la fuerza

En retrospectiva, los físicos tenían varias razones para sospechar que esta simple medida probaría los límites de nuestra comprensión de las fuerzas nucleares.

Primero, este sistema es particularmente quisquilloso. La energía necesaria para producir el núcleo de helio inflado transitoriamente, el estado que los investigadores quieren estudiar, se encuentra justo por encima de la energía necesaria para expulsar un protón y justo por debajo del mismo umbral para un neutrón. Eso hace que todo sea difícil de calcular.

La segunda razón tiene que ver con la teoría del campo efectivo de Weinberg. Funcionó porque permitió a los físicos ignorar las partes menos importantes de las ecuaciones. Van Kolck sostiene que algunas de las partes consideradas menos importantes y habitualmente ignoradas son, de hecho, muy importantes. El microscopio proporcionado por esta medición de helio en concreto, afirma, está esclareciendo ese error básico.

“No puedo ser demasiado crítico porque estos cálculos son muy difíciles”, agrega. “Están haciendo lo mejor que pueden”.

Varios grupos, incluido el de van Kolck, planean repetir los cálculos de Bacca y descubrir qué salió mal. Es posible que simplemente incluir más términos en la aproximación de la fuerza nuclear sea la respuesta. Por otro lado, también es posible que estos núcleos hinchables de helio hayan expuesto un fallo fatal en nuestra comprensión de la fuerza nuclear.

“Expusimos el rompecabezas, pero desafortunadamente no lo hemos resuelto”, concluye Bacca. «Aún no.»

 

El artículo original, A New Experiment Casts Doubt on the Leading Theory of the Nucleus, se publicó el 12 de junio de 2023 en Quanta Magazine.

Traducido por César Tomé López

El artículo Un nuevo experimento arroja dudas sobre la principal teoría del núcleo se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Nuevas pruebas a favor de un gran océano boreal en Marte

lun, 2023/06/12 - 11:59

Uno de los mayores debates que existen sobre la historia de Marte es si en algún momento existió un gran océano que habría cubierto al menos un tercio de la superficie del planeta, en lo que hoy es la gran cuenca boreal, una enorme “llanura deprimida” que existe en el hemisferio norte y que topográficamente marca un enorme contraste con las tierras altas, mucho más antiguas y elevadas.

Este debate existe por varias razones. La primera es que todavía no tenemos del todo clara la historia climática de Marte, y si en algún momento las condiciones fueron lo suficientemente cálidas y estables como para permitir un océano -al menos no un océano efímero. Aunque sí tenemos claro que al menos hubo agua en superficie por las grandes pruebas de escorrentía, ríos, deltas, lagos e incluso de redes fluviales formadas por la precipitación. Probablemente, de haber existido, habría sido alrededor de los mil primeros millones de años de su historia.

borealVisualización de como podría haber sido ese gran océano marciano que cubriría toda la cuenca boreal al principio de su historia. Cortesía de NASA’s Goddard Space Flight Center.

Los estudios más recientes basados en simulaciones numéricas, como el de Schmidt et al. (2022) afirman que si es posible que hubiese un océano, aunque las condiciones climáticas no serían del todo cálidas, sino más bien frías y húmedas, pero podría haber existido un pequeño efecto invernadero gracias al hidrógeno emitido por las erupciones volcánicas y al dióxido de carbono, permitiendo la existencia de un océano muy cerca del punto de congelación, pero también de un ciclo hidrológico que permitiese algo de precipitación en estado líquido, aunque habría grandes zonas cubiertas por el hielo.

En segundo lugar, las evidencias geomorfológicas sobre una posible línea de costa nunca han sido concluyentes del todo, y esto podía ser debido a varias circunstancias: o bien porque nunca hubo una línea de costa como tal, y, por lo tanto, tampoco un océano, o bien porque esta había sido modificada posteriormente por otros procesos y en consecuencia difícilmente reconocible en la actualidad.

Aun así, también en los últimos años hemos tenido constancia del descubrimiento de depósitos sedimentarios y formas erosivas asociados a antiguos tsunamis que habrían ocurrido precisamente en este posible océano (Rodríguez, J. Alexis et al (2016), Rodríguez, J. Alexis et al (2022)), y cuyo origen habría sido uno o varios impactos de asteroides sobre el océano (Costard et al. (2019)), algo parecido a lo que ocurrió en nuestro planeta hace aproximadamente 66 millones de años y que sentenció a los cinematográficos dinosaurios, entre otras muchas especies.

borealEn la imagen superior, bloques rocosos dejados por un tsunami, donde las flechas amarillas indican una escala de 10 metros, lo que nos ayuda a hacernos una idea de la enorme energía de este fenómeno. Abajo, canales excavados por el agua en su regreso, y cuya dirección marca la flecha de color blanco. Cortesía de Alexis Rodríguez.

Pero tenemos una nueva serie de pruebas muy interesantes aportados por la misión china Tianwen-1, que llevaba consigo un pequeño rover que aterrizaría en mayo de 2021 en Utopía Planitia, la cuenca de impacto más grande de todo el Sistema Solar, el mismo lugar donde por ejemplo aterrizaría también la misión norteamericana Viking 2 en la década de los 70. Esta gran cuenca formaría parte del hipotético océano boreal, aunque las imágenes tomadas de su superficie por la Viking 2 nos recordaba más a un desierto pedregoso que al lecho de un antiguo océano.

Pero el Zhurong parece dispuesto a sorprendernos con las observaciones que ha hecho a lo largo de sus dos kilómetros de recorrido por la superficie marciano. Y es que un nuevo estudio publicado por Long Xiao et al. (2023) en la revista National Science Review aporta las primeras pruebas en superficie de rocas sedimentarias formadas en un ambiente marino que apoyarían la teoría del gran océano boreal.

Estos científicos se han centrado en las estructuras sedimentarias presentes en las rocas que ha podido fotografiar el rover, descubriendo que las estructuras que se observan no coinciden con las de rocas volcánicas, ni tampoco con las que esperaríamos si el modo de depósito hubiese sido eólico, sino que parecen demostrar un flujo alternante entre dos direcciones similar al que en nuestro planeta hay en ambientes marinos poco profundos.

borealInterpretación de las estructuras sedimentarias encontradas por el Zhurong. Las laminaciones de tipo “herringbone” (o cola de arenque, por su forma) se interpretan en este estudio como fruto de corrientes bimodales que se alternaron hacia un lado y hacia otro. Cortesía de Long Xiao et al. (2023).

Esta alternancia en direcciones no es muy habitual tampoco en los ambientes fluviales donde la corriente principal de los ríos suele ser siempre la misma y, aunque en el caso de las dunas eólicas si pueden existir regímenes bimodales de viento, no suelen ser direcciones opuestas, salvo en casos muy concretos. Además, el pequeño tamaño de las estructuras parece también descartar un origen eólico.

Los científicos han podido apreciar en el detalle de estas rocas que la intensidad de las corrientes es diferente hacia un lado que hacia el otro, estudiando el tamaño de los granos que arrastraba el agua, ya que el agua no lleva la misma energía en su subida que en su bajada.

Las estructuras sedimentarias estudiadas por los autores sugieren la existencia de pequeños ciclos de mareas, no tan intensos como los de la Tierra debido al pequeño tamaño de los satélites, formando las estructuras registradas en la roca en ese ir y venir. Además, también piensan que estos depósitos se formaron probablemente en una etapa de regresión del océano, ya que se encuentran a casi 300 kilómetros de lo que habría sido una de las líneas de costa y a 500 metros por debajo del nivel del agua.

Estos nuevos detalles abren de nuevo el debate sobre la existencia de un posible gran océano sobre Marte y la necesidad de volver a explorar con más detalle estas zonas donde podríamos encontrar las pistas definitivas que sienten por fin esta cuestión, que sin duda, abriría otras muchas.

Referencias:

Schmidt, F. et al. (2022) ‘Circumpolar Ocean Stability on mars 3 gy ago’, Proceedings of the National Academy of Sciences, 119(4). doi:10.1073/pnas.2112930118.

Costard, F., et al. “The Lomonosov Crater Impact Event: A Possible Mega‐tsunami Source on Mars.” Journal of Geophysical Research: Planets, vol. 124, no. 7, 2019, pp. 1840–1851, https://doi.org/10.1029/2019je006008.

Rodriguez, J. Alexis, Alberto G. Fairén, et al. “Tsunami Waves Extensively Resurfaced the Shorelines of an Early Martian Ocean.” Scientific Reports, vol. 6, no. 1, 2016, https://doi.org/10.1038/srep25106.

Rodriguez, J. Alexis, Darrel K. Robertson, et al. “Evidence of an Oceanic Impact and Megatsunami Sedimentation in Chryse Planitia, Mars.” Scientific Reports, vol. 12, no. 1, 2022, https://doi.org/10.1038/s41598-022-18082-2.

Xiao, L. et al. (2023) ‘Evidence for marine sedimentary rocks in Utopia Planitia: Zhurong Rover Observations’, National Science Review [Preprint]. doi:10.1093/nsr/nwad137.

Para saber más:

Pero, entonces, ¿de dónde vino el agua de Marte?
Pero, ¿es que existen lagos en Marte?

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Nuevas pruebas a favor de un gran océano boreal en Marte se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Por qué la noche es oscura si hay infinitas estrellas? 200 años de la paradoja de Olbers

dim, 2023/06/11 - 11:59
olbersFoto: Ryan Hutton / Unsplash

El día amanece, un 7 de mayo de 1823. Desde el segundo piso de su casa, convertida en observatorio amateur, Heinrich Olbers da los últimos retoques al artículo con el que dejará su nombre en la historia. Aquella noche histórica terminó con un magnífico amanecer, y condujo a la revelación de una paradoja. Esta paradoja, que otros ya habían señalado antes, cautivará a generaciones de investigadores y neófitos (entre ellos el poeta Edgar Allan Poe) durante los siglos venideros. ¿Por qué la noche es oscura si hay un número infinito de estrellas?

La pérdida del infinito

La visión de un universo eterno e ilimitado, compartida por Olbers y sus contemporáneos, implicaba que el cielo debería estar poblado por un mar también infinito de estrellas. Pero en aquella feliz madrugada Olbers se dio cuenta de que, ante infinitas estrellas, no importa en qué dirección apuntemos nuestros ojos o telescopios: la mirada siempre interceptaría una de ellas.

Olbers, que había cesado su trabajo de oftalmólogo en 1820 para dedicarse exclusivamente a la astronomía, planteó a la comunidad científica, el 7 de mayo de 1823, la emocionante paradoja que lleva su nombre. Plantea que el modelo cosmológico de la época sugiere que cada punto del cielo debería ser tan brillante como la superficie del sol. La noche, por tanto, no sería oscura. Cada vez que miramos al cielo deberíamos estar cegados por la luz del infinito mar de estrellas.

En busca de explicaciones

Olbers buscó razones por las que esto no sucede. Planteó que la luz de las estrellas era absorbida por el polvo interestelar que encontraba en su camino hasta la Tierra, y que cuanto mayor es la distancia que nos separa de la estrella, mayor sería la absorción.

Pero el astrónomo John Herschel tiró abajo el argumento. Herschel demostró que cualquier medio absorbente que llene el espacio interestelar eventualmente se calentaría y volvería a irradiar la luz recibida. Por tanto, el cielo seguiría siendo luminoso.

La comunidad científica dejó sin resolver la paradoja planteada por Heinrich Olbers hasta su último suspiro a los 81 años, el 2 de marzo de 1840.

olbersMuchas estrellas y galaxias sobre un fondo oscuro, según las imágenes del JWST. E.
SA/Webb, NASA & CSA, A. Martel, CC BYUn enigma para Edgar Allan Poe

Ocho años más tarde, al otro lado del Océano Atlántico, el 3 de febrero de 1848, Edgar Allan Poe, famoso tras la publicación de El Cuervo, presentaba su Cosmogonía del Universo en
la Biblioteca de la Sociedad de Nueva York (como hizo con su poema Eureka). Poe estaba convencido de haber resuelto el enigma popularizado por Olbers, como afirmaba en su correspondencia.

Para empezar, Poe propuso, al contrario que el filósofo Immanuel Kant y que el astrónomo matemático Pierre-Simon Laplace, que el cosmos había surgido de un único estado de materia (“Unidad”) que se fragmentó, y cuyos restos se dispersaron bajo la acción de una fuerza repulsiva.

El universo estaría entonces limitado a una esfera finita de materia. Si el universo finito está poblado por un número suficientemente pequeño de estrellas, entonces no hay razón para encontrar una en todas las direcciones que observamos. La noche puede volver a ser oscura.

Poe también encontró salida a la paradoja, aunque el universo fuera finito: si suponemos que la extensión de la materia es infinita, que el universo comenzó en algún instante en el pasado, entonces el tiempo que tarda la luz en llegar a nosotros limitaría el volumen del universo observable.

Este intervalo de tiempo constituiría un horizonte más allá del cual las estrellas lejanas permanecerían inaccesibles, incluso para nuestros telescopios más potentes.

Edgar Allan Poe murió un año después, el 7 de octubre de 1849, a los 40 años, sin saber que sus intuiciones resolvieron el enigma científico del cielo nocturno oscuro más de un siglo después de que él las planteara.

olbersMisión Planck: La imagen más detallada de la historia de la radiación cósmica de fondo: los vestigios del Big Bang.
Planck Collaboration / ESA, CC BYLos “dos hechos y medio” para explicar el cosmos

En el período de entreguerras surgieron múltiples teorías del cosmos, basadas en la relatividad general de Einstein. Además, el campo de la cosmología, hasta entonces reservado en gran parte a los metafísicos y filósofos, comenzó a ser puesto a prueba por las observaciones. Según el radioastrónomo Peter Scheuer, la cosmología en 1963 se basaba sólo en “dos hechos y medio”:

  • Hecho 1: el cielo nocturno es oscuro, algo que se sabe desde siempre.
  • Hecho 2: las galaxias se están alejando las unas de las otras, como intuyó Georges Lemaître y como mostraron las observaciones de Hubble, publicadas en 1929.
  • Hecho 2.5: el contenido del universo probablemente está evolucionando a medida que se desarrolla el tiempo cósmico.

La interpretación de los hechos 2 y 2.5 despertó grandes controversias en la comunidad científica en las décadas de 1950 y 1960. Los partidarios del modelo estacionario del universo y los partidarios del modelo del big bang admitieron, sin embargo, que fuera cual fuera el modelo correcto tenía que explicar la oscuridad del cielo nocturno.

El cosmólogo Edward Harrison resolvió el conflicto en 1964.

Que la paradoja descanse en paz

Desde el Laboratorio Rutherford de Altas Energías, cerca de Oxford, Harrison demostró que el número de estrellas en el universo observable es finito. Aunque son muy numerosas, se forman en cantidades limitadas a partir del gas contenido en las galaxias. Este número limitado, combinado con el gigantesco volumen que hoy cubre la materia del universo, hace que la oscuridad se manifieste entre las estrellas.

En la década de 1980 los astrónomos confirmaron la resolución propuesta por Poe, Kelvin y Harrison. Algunos, como Paul Wesson, incluso formularon el deseo de que la paradoja de Olbers finalmente descanse en paz.

olbersEn medio de un denso bosque, los troncos de los árboles se ven en todas direcciones.
Pxhere, CC BYUn cielo dos veces más brillante más allá de Plutón

Pero las buenas paradojas nunca mueren del todo.

Las medidas recientes de la sonda New Horizons, en una órbita situada más allá de Plutón y más allá del polvo del sistema solar interior, indican que el cielo es dos veces más brillante de lo que predecimos sólo en base a las estrellas. Esta vez, o faltan estrellas o hay luz que no vemos. ¿Se trata de un nuevo fondo cósmico?

La cuestión de la oscuridad del cielo permanece pues vigente, y es de gran actualidad científica, 200 años después de que Olbers se planteará por primera vez la oscuridad de la noche y las infinitas estrellas.The Conversation

Sobre los autores: Alberto Domínguez, Astrofísico, Universidad Complutense de Madrid; David Valls-Gabaud, Astrophysicien, Directeur de recherches au CNRS, Observatoire de Paris; Hervé Dole, Astrophysicien, Professeur, Vice-président, art, culture, science et société, Université Paris-Saclay; Jonathan Biteau, Maître de conférence en physique des astroparticules, Université Paris-Saclay; José Fonseca, Assistant Research, Universidade do Porto; Juan Garcia-Bellido, Catedratico de Fisica Teórica, Universidad Autónoma de Madrid y Simon Driver, ARC Laureate Fellow and Winthrop Research Professor at the International Centre for Radio Astronomy Research, The University of Western Australia

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Por qué la noche es oscura si hay infinitas estrellas? 200 años de la paradoja de Olbers se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Madre cuidadora, madre defensora: neurobiología del comportamiento maternal en mamíferos

sam, 2023/06/10 - 11:59

comportamiento maternal

Cómo influyen los parásitos en el comportamiento de los animales, cómo se modifica la conducta de las madres mamífero o cuáles son las enfermedades que nos afectan y desde cuándo hemos desarrollado comportamientos funerarios ante la muerte son algunos de los aspectos que se analizarán en la V Jornada Nacional sobre Evolución y Neurociencias.

Especialistas en ambas materias se reunirán el 11 y 12 de mayo en una nueva edición conducida por Eva Garnica y Pablo Malo, psiquiatras y miembros de la Red de Salud Mental de Bizkaia, y organizada por esa misma entidad y la Cátedra de Cultura Científica de la UPV/EHU.

La jornada, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolucionista y divulgar de un modo accesible para todos los públicos.

¿Las buenas madres nacen o se hacen? Parece que la evolución ha puesto en marcha mecanismos genéticos y neurobiológicos para la supervivencia de las crías en forma de comportamiento maternal de las hembras de los mamíferos, como nos explica en esta conferencia Carmen Agustín.

Carmen Agustín Pavón es doctora en Neurociencias por la Universitat de València y, tras pasar por la Universidad de Cambridge, el Centre de Regulació Genòmica de Barcelona, el Imperial College London y la Universitat Jaume I de Castellón, volvió a ella como profesora, donde investiga en neurobiología del comportamiento social, del sistema olfativo, y el síndrome de Rett.

 



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Madre cuidadora, madre defensora: neurobiología del comportamiento maternal en mamíferos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Cómo usar un alga invasora marina para defender la vid

ven, 2023/06/09 - 11:59

Con el objetivo de buscar estrategias ecológicas que permitan reducir o sustituir los tratamientos químicos más habituales en la viticultura, el proyecto SEAWINES, liderado por la UPV/EHU y el IFAPA, ha demostrado que un extracto obtenido de un alga invasora activa y potencia significativamente los mecanismos de defensa de la vid. Si bien son necesarias más investigaciones para corroborar en el campo lo observado en invernaderos, el equipo se muestra optimista.

La Comisión Europea se ha fijado como objetivo reducir el 50 % de los pesticidas utilizados en la agricultura para el año 2030. El uso de estos productos es especialmente abundante en la viticultura, ya que son frecuentes enfermedades como el mildiu y el oidio, ambas provocadas por hongos. Con el objetivo de “buscar una alternativa estratégica y ecológica contra estos dos hongos, hace un año pusimos en marcha el proyecto SEAWINES”, explica Iratxe Zarraonaindia Martínez, investigadora Ikerbasque del Departamento de Genética, Antropología Física y Fisiología Animal de la UPV/EHU.

alga invasoraUna investigadora del IFAPA Rancho de la Merced recogiendo algas Rugulopteryx en Algeciras. Foto: SEAWINES

El proyecto pretende utilizar macroalgas marinas. El uso de algas en la agricultura es cada vez más frecuente en los últimos años, ya que se ha demostrado que benefician a los cultivos en aspectos como la germinación de semillas, el crecimiento y la salud de las plantas o la absorción de agua y nutrientes. En el proyecto SEAWINES se están analizando los efectos bioestimulantes y fungicidas de dos algas: Ulva ohnoi, cuyo potencial contra los hongos es ya conocido, y el alga invasora Rugulopteryx okamurae, procedente de Asia y ampliamente extendida por el litoral mediterráneo. El efecto protector de esta última “no ha sido objeto de análisis hasta la fecha, pero existen numerosos estudios en marcha para buscar sus usos o aplicaciones. De hecho, cada año se extraen cientos de toneladas de algas del Mediterráneo, y sería muy interesante aprovechar todo esto de alguna manera”, explica la investigadora.

“Nuestra apuesta ha sido comprobar la capacidad de algunos extractos de estas algas para activar los mecanismos de defensa de las plantas, como alternativa a los pesticidas, para que la planta esté más fuerte cuando la ataque el hongo patógeno”, afirma Zarraonaindia. En primer lugar, el estudio se realizó en invernaderos y en condiciones controladas. Concretamente, se trataron las vides de la variedad tempranillo en los invernaderos del Instituto Vasco de Investigación y Desarrollo Neiker, impregnando sus hojas con distintos extractos de algas: por un lado, se testaron dos extractos extraídos de Ulva y, por otro, dos extraídos de Rugulopteryx. Algunas plantas solo recibieron agua, como control.

alga invasoraMedición de la cantidad de clorofila de las hojas en el invernadero de Neiker (Arkaute) para determinar los niveles de estrés de las plantas. Foto: SEAWINES

Tras los tratamientos, se tomaron muestras de hojas y se realizaron numerosos análisis para analizar el efecto de cada uno de los tratamientos. La investigadora resume así lo encontrado: “Los resultados más positivos se obtuvieron con uno de los extractos producidos por el alga invasora Rugulopteryx okamurae. Vimos cómo tras aplicar el tratamiento de este extracto en la planta aumentó la expresión de genes resistentes y la actividad de enzimas antioxidantes. En la microbiota de la superficie de las hojas también observamos que algunos hongos que ayudan a la planta en el control biológico son más abundantes en las plantas que recibieron el extracto de Rugulopteryx”.

Los resultados obtenidos no sorprenden a Zarraonaindia. “En definitiva, al tratarse de una especie invasora, es de esperar que tenga capacidades o cualidades que le ayuden a progresar y también a desplazar con tanta eficacia a otras especies”.

alga invasoraViñedo del Rancho de la Merced, IFAPA (Jerez de la Frontera, Cádiz), donde se está testando el impacto de los extractos Ulva y Rugulopteryx en la variedad tempranillo. Foto: SEAWINES

La investigadora considera “emocionantes” los resultados obtenidos, aunque es consciente de que son “solo los primeros resultados”. SEAWINES es un proyecto a tres años vista y, con el fin de conseguir una medida lo más completa posible del potencial del alga invasora, han iniciado ya en el campo los trabajos para confirmar los resultados obtenidos en condiciones de invernadero: “Testaremos los extractos de las algas en viñedos de Jerez y La Rioja, bajo condiciones locales. Además, haremos un seguimiento del impacto en todas las fases de la elaboración del vino; es decir, se trata de ver el efecto que estos tratamientos tienen sobre la calidad de la uva y del vino, además de la bioestimulación y el efecto antifungicida que generan”, aclara.

“Estamos deseando comprobar la utilidad que puede tener el alga Rugulopteryx. Sería estupendo poder retirarla del entorno y dedicarla a reforzar la viticultura; este sería un buen ejemplo de economía circular”, concluye.

Referencia:

Iratxe Zarraonaindia, Enrico Cretazzo, Amaia Mena-Petite, Ana M Díez-Navajas, Usue Pérez-López, Maite Lacuesta, Eva Pilar Pérez-Álvarez, Belén Puertas, Catalina Fernandez-Diaz, Nadia Bertazzon, Emma Cantos-Villar (2023) Holistic understanding of the response of grapevines to foliar application of seaweed extracts Frontiers in Plant Science doi: 10.3389/fpls.2023.1119854

El artículo Cómo usar un alga invasora marina para defender la vid se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Cuevas, misterios subterráneos

jeu, 2023/06/08 - 11:59

El pasado 6 de junio se ha celebrado el Día Internacional de las Cuevas y del Mundo Subterráneo. Así, se rinde tributo a esas cavidades que se abren camino a las profundidades de la tierra y que nos han fascinado desde los albores de la humanidad. Pasadizos oscuros que siempre se han asimilado a poderes, fuerzas extrañas, magia, deidades y seres sobrenaturales que se ocultan entre las sombras y nos arrastran hacia un interior misterioso e inexplorado. Directamente, conductos que nos encaminan a cualquiera de los infiernos imaginados por las diversas civilizaciones humanas que se han desarrollado desde tiempos pretéritos. ¿O acaso no os habíais dado cuenta de que los mundos de los muertos atormentados por toda la eternidad siempre se han dispuesto en el interior del planeta, a donde se accede a través de pasadizos oscuros e intrincados?

Vale, dejo ya la tétrica introducción para centrarme en el tema que nos ocupa. Las cuevas son unas estructuras geomorfológicas que consisten en cavidades o aberturas en el interior de la tierra. Pueden tener diferentes orígenes, pero el más común, al menos el de la mayoría de las cuevas que nos podemos encontrar en la Península Ibérica, es debido a la acción del agua de lluvia, que es ligeramente ácida porque lleva disuelto CO2 atmosférico, al reaccionar químicamente con rocas carbonatadas, como las calizas (CaCO3) o las dolomías (MgCa(CO3)2), disolviéndolas en profundidad hasta excavar enormes cavidades en su interior. Aunque el recorrido del agua que da lugar a las cuevas puede ser, exactamente, el opuesto. Me estoy refiriendo a aguas que circulan a mucha profundidad por el interior de la tierra, por lo que tienen una elevada temperatura, de ahí que se las denomine fluidos hidrotermales, que, una vez encuentran alguna zona de fractura en las rocas que tienen por encima, van a ascender hacia la superficie, disolviendo los materiales que atraviesan en su camino, llegando a producir grandes aberturas subterráneas.

Reacciones químicas de disolución de rocas carbonatadas por la acción del agua de lluvia que dan lugar a cavidades subterráneas. Imagen tomada de elblogdemifamiliayotrosanimales.blogspot.com.

Además, nos podemos encontrar con cuevas submarinas en zonas próximas al litoral. En este caso, las cavidades se producen por la acción mecánica directa del agua marina sobre los acantilados por efecto del oleaje y las corrientes marinas, que acaban erosionando zonas de debilidad en los materiales rocosos, tales como fracturas o capas de diferente composición química. A este machaque continuado se le suma la capacidad corrosiva del agua salada, que disuelve poco a poco las rocas en su avance hacia el interior de tierra firme. Y, por si fuera poco, en muchas ocasiones también se suma la disolución producida por el agua de lluvia que se infiltra en el terreno, que va excavando galerías subterráneas hasta encontrar una salida al mar. En la zona en la que se mezclan el agua marina que penetra hacia el interior continental y el agua dulce que circula en sentido contrario, el efecto corrosivo sobre las rocas se multiplica.

Formación de cuevas y galerías submarinas por el efecto de la mezcla de agua dulce y marina en el litoral. Imagen modificada de EMR, 2015.

También existen cuevas de hielo. En estos casos tenemos que tener presente que, cuando vemos un enorme glaciar, no se trata de una masa compacta de agua congelada, como los cubitos que hacemos en el congelador. En la naturaleza, estas estructuras se forman por la acumulación de agua que precipitó en forma de nieve y granizo y que, debido a las bajas temperaturas ambientales, se congeló sobre el terreno dando lugar a capas de hielo superpuestas unas encima de otras. Pero estas capas de hielo no son todas iguales, pueden tener ligeras diferencias en su composición química o englobar diversos tipos de materiales sólidos en su interior. Estos cambios composicionales hacen que su punto de fusión sea también ligeramente diferente. Al estar sometidas a la fricción y el peso de otras capas de hielo por encima, algunos niveles pueden fundirse mientras el resto permanecen en estado sólido, dando lugar a una circulación interior de agua de fusión que, al abrirse camino hacia el exterior, excavará galerías y cavernas dentro de los glaciares.

Pero me queda hablaros de otro tipo de cuevas, para el que voy a dejar de lado el efecto del agua. Se trata de las cavidades formadas en ambientes volcánicos. Y aquí, quien tiene mucho que decir, es la temperatura. Cuando una colada de lava avanza por el terreno, la parte más externa del fundido se enfría relativamente rápido, al estar en contacto con el aire atmosférico y las precipitaciones, llegando a formar una costra solidificada. Pero, por el interior, la lava sigue siendo un fundido a varios cientos de grados que circula pendiente abajo. Cuando se acaba la erupción y deja de circular lava por su interior, nos encontramos con la preservación de muchos de los tubos volcánicos solidificados y el interior hueco. Incluso, algunas partes superiores de estos tubos pueden colapsar, generando unas aberturas a su interior a modo de ventanas volcánicas.

Tubo lávico, que pasa a canal lávico por el colapso de la parte superior tras su enfriamiento, formado en la última erupción volcánica ocurrida en la isla de La Palma. Imagen del Instituto Geológico y Minero de España.

Aunque las cuevas nos produzcan fascinación y sorpresa por presentarse como pasadizos hacia las profundidades oscuras e indómitas, lo más interesante que tienen es que son auténticos laboratorios naturales, en muchos casos casi inexplorados. No voy a entrar mucho en detalle para no hacer este texto muy largo, sólo daros algunas pinceladas de su importancia, pero prometo que, en algún momento, me extenderá más con estos aspectos. Y es que se calcula que las cuevas y cavidades subterráneas contienen hasta el 30% del agua dulce del planeta, guardan un registro continuo de los cambios en el clima de los últimos milenios, presentan yacimientos paleontológicos y arqueológicos en condiciones de conservación excepcionales, son el hábitat de seres vivos adaptados a condiciones ambientales en las que no creíamos que pudiese desarrollarse la vida, son zonas en las que se crean minerales todavía desconocidos para la ciencia y, por si fuera poco, albergan bacterias extremófilas quimiosintéticas, es decir, que realizan reacciones químicas para producir su alimento, pero que también generan unas sustancias químicas que impiden que otras bacterias ocupen su nicho ecológico, lo que podría tener aplicaciones médicas directas para la producción de futuros antibióticos.

Y eso solo en el ámbito científico, porque también tienen un importante componente económico y turístico. No he citado ejemplos mientras describía los diferentes mecanismos de formación de las cuevas, pero igual os han ido viniendo a la mente cuevas como la de Altamira al hablar de la disolución del agua de lluvia en rocas carbonatadas, la Geoda de Pulpí en el caso del efecto de fluidos hidrotermales, el sistema de Sac Actun, en México, como modelo de cuevas submarinas, las Cuevas de Cristal del glaciar Vatnajokull, de Islandia, como cavidades de hielo o los Jameos del Agua en el caso de galerías volcánicas. Por cierto, la palabra jameo procede del guanche y sirve para designar las ventanas volcánicas formadas por los colapsos de la parte superior de los tubos volcánicos.

Vamos, que las cuevas son unos ecosistemas increíblemente complejos y todavía muy desconocidos, pero que de seguro nos servirán para desarrollar muchísimos avances científicos para mejorar la vida de los seres humanos. Así que, sin duda, tenemos que protegerlos y alterarlos lo menos posible. Recordad, cuando visitéis una cueva, procurad no romper ninguna estructura mineral, no dejar ninguna basura y no molestar a ningún organismo. Simplemente, disfrutad de lo que estáis viendo como si hubieseis entrado en un universo paralelo maravilloso.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Cuevas, misterios subterráneos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Pages