Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 18 mins 31 segs

Maia García-Vergniory – P4K 2019: Materiales del futuro

Sáb, 2021/05/29 - 11:59

Las grandes transformaciones sociales y los cambios de paradigma registrados a lo largo de la historia de la humanidad suelen ir aparejados al descubrimiento de un nuevo material, cuyas novedosas aplicaciones acaban desencadenando una gran revolución. La sociedad del futuro, más respetuosa con el medio ambiente e hiperconectada requiere de nuevos materiales. Maia García-Vergniory nos explica en esta charla en qué materiales se está investigando actualmente y por qué en ellos y no en otros.

Maia García Vergniory es profesora de la UPV/EHU, investigadora Ikerbasque en el Donostia International Physics Center y coautora de la llamada química cuántica topológica, uno de los hitos en ciencia de materiales de los últimos años.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Maia García-Vergniory – P4K 2019: Materiales del futuro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Maia García Vergniory: «Materiales que nos cambiaron»
  2. Aran Garcia-Leuke – Naukas Pro 2019: Intro a la nanoelectrónica
  3. Juan Manuel Bermúdez-García – Naukas Pro 2019: Sólidos como refrigerantes
Categorías: Zientzia

Invernaderos en las cubiertas para aumentar la eficiencia energética de los edificios

Vie, 2021/05/28 - 11:59

Todas las características de un edificio influyen de forma directa en el consumo energético y en la eficiencia energética global del edificio. Normalmente, se tiende a asociar este concepto solo con los equipos de climatización y con los materiales constructivos, pero el sistema de ventilación juega un papel primordial en la eficiencia energética.

“La necesidad de ventilación para expulsar el aire contaminado o viciado en los edificios de viviendas provoca que gran parte de las pérdidas de energía térmica se deba a la renovación de aire. Estas pérdidas por ventilación cada vez adquieren mayor importancia debido a que los edificios cada vez están mejor aislados y son más herméticos. Por tanto, siendo el objetivo a corto plazo construir edificios de consumo energético casi nulo, es necesario incidir sobre la optimización de la ventilación”, comenta Joseba Gainza-Barrencua miembro del grupo CAVIAR (Calidad de Vida en Arquitectura) de la UPV/EHU.

Según ha explicado Gainza, “la instalación de los invernaderos en la cubiertas para reducir el consumo energético de los edificios no ha sido estudiada en profundidad, a pesar de que cuentan con importantes ventajas: su instalación en la cubierta permite realizar el acristalamiento con el ángulo que se desee, lo que posibilita que las ganancias solares sean mayores; menos exigencias estéticas y urbanísticas; posibilidad de introducir el aire precalentado en el edificio mediante el sistema de ventilación mecánica del edificio, etc.”.

Por ello, en este trabajo “hemos diseñado y construido un prototipo de invernadero y hemos visto su funcionamiento los días soleados, nublados etc. Su comportamiento también ha sido analizado mediante simulación informática que ha sido validada utilizando las mediciones que hemos realizado en el prototipo. Hemos utilizado la simulación para analizar el comportamiento térmico del invernadero y calcular el ahorro energético en el caso de instalarlo en distintos lugares y climas”, señala el investigador de la UPV/EHU.

“El invernadero diseñado tiene forma de triángulo rectángulo; por un lado, es fundamental orientarlo al sur porque es donde más radiación solar recibe, y por otro lado, es importante que el acristalamiento esté lo más perpendicular posible al sol. La posición e inclinación del sol varía a lo largo del año, por lo tanto, hemos obtenido cuál es el ángulo óptimo y hemos visto que el ángulo con el que se obtienen temperaturas más altas en el invernadero en la mayor parte del estado español es de 55 grados”, indica el autor principal del trabajo.

“Nuestros resultados indican que los invernaderos pueden mejorar significativamente el comportamiento energético del edificio. La eficacia de estos sistemas depende claramente del clima. Mientras que en zonas con poca necesidad de calefacción el uso del invernadero no es aconsejable, en zonas más frías el ahorro energético es sustancial, más aún si se combina el sistema de ventilación con la recuperación de calor. En la zona climática más fría de España, en la zona de Burgos, es posible alcanzar ahorros en calefacción del 58 %”, comenta Joseba Gainza-Barrencua.

“Además, — añade — existe la posibilidad de acoplar un recuperador de calor entre la expulsión del aire viciado del edificio y el aire a introducir en el invernadero. Con ello se obtiene un doble calentamiento del aire y mejora el rendimiento del sistema significativamente”.

“El personal investigador cree que este trabajo presenta una visión útil de los beneficios potenciales de los invernaderos, en particular, cuando se combinan con un sistema de ventilación. En estos casos, el aire precalentado se distribuye fácilmente por todo el edificio, lo que mejora el potencial de ahorro energético”. “Para nosotros —añade Joseba Gainza-Barrencua— ésta es una de las contribuciones más importantes del trabajo, ya que las ventajas de utilizar invernaderos con sistemas de ventilación merecen una mayor investigación. Ahora, estamos analizando el uso de estos invernaderos para otros usos o como complementos de otros sistemas”.

Referencia:

J. Gainza-Barrencua, M. Odriozola-Maritorena, Rufino Hernandez_Minguillon, I. Gomez-Arriaran (2021) Energy savings using sunspaces to preheat ventilation intake air: Experimental and simulation study Journal of Building Engineering doi: 10.1016/j.jobe.2021.102343

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Invernaderos en las cubiertas para aumentar la eficiencia energética de los edificios se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un modelo para evaluar los flujos de inversión en eficiencia energética
  2. Las barreras a los edificios de consumo de energía casi nulo en el sur de Europa
  3. Los edificios y el mar
Categorías: Zientzia

El copo asimétrico no sale en la foto

Jue, 2021/05/27 - 11:59
Fotografías de Bentley, circa 1902. Fuente: Wikimedia Commons

En enero de 1885, a la edad de 19 años, Wilson Bentley se convirtió en la primera persona en fotografiar un copo de nieve. Desde adolescente había explorado estos cristales con ayuda de un microscopio que le había regalado su madre y cada año esperaba a que el invierno cubriese de estrellas de hielo la granja donde se había criado. Hasta que un buen día decidió hacer imperecedero su objeto de fascinación y acopló una cámara fotográfica a sus lentes de ampliación. Años más tarde escribiría1:

“Bajo el microscopio, descubrí que los copos de nieve eran milagros de belleza y parecía una lástima que esta belleza no pudiese ser disfrutada por otros. Cada cristal era una obra maestra de diseño y ninguno se repetía. Cuando un copo se derretía, ese diseño se perdía para siempre. Toda su belleza desaparecía sin dejar rastro».

Durante los siguientes 45 inviernos (y hasta su muerte a causa de una neumonía, en 1931), Bentley se dedicó a capturar estos diseños efímeros en placas fotográficas. Con el tiempo depuró una técnica que le permitía recoger los copos en una bandeja cubierta de terciopelo y trasladarlos a un portaobjetos con ayuda de una pluma. Todo su equipo tenía que estar preenfriado y Bentley debía contener su respiración para evitar arruinar sus miniaturas de nieve. Con infinito cuidado y algo más de paciencia, este fotógrafo autodidacta consiguió retratar más de 5000 cristales a lo largo de toda su vida. La idea popular de que “no hay dos copos de nieve iguales” tiene su origen, con toda probabilidad, en su trabajo.

¿Pero es este mito cierto? O en cualquier caso, ¿de dónde proviene su enorme diversidad?

Hasta ahora hemos contado que las moléculas del agua dan lugar a la simetría hexagonal de los copos de nieve. Sin embargo, este relato deja fuera su elaborada complejidad. La explicación completa es algo más sutil y tiene que ver con el modo en que crecen estos cristales. Aunque el empaquetamiento de las moléculas favorece la simetría en seis direcciones, los lados largos de un hexágono no son la solución más estable desde un punto de vista energético2. Al alcanzar cierto tamaño crítico, aparecen pequeñas rupturas en sus laterales que, a su vez, pueden desdoblarse, dando lugar a la ramificación característica de estos cristales. En conjunto, este proceso se conoce como crecimiento dendrítico (del griego δενδρον, dendron, árbol) y es el que da a algunos cristales un sorprendente aspecto vegetal.

Dendritas de manganeso en un plano de piedra caliza. Fuente: Wikimedia Commons

 

La cuestión es que ese delicado punto de inflexión a partir del cual un hexágono de hielo perfecto empieza a romperse, doblarse y ramificarse depende críticamente de la temperatura y, muy especialmente, de la humedad del ambiente donde crece. Cuanta más humedad, más rápido crece y se desdobla. Puesto que el copo es diminuto, estas condiciones son casi* idénticas en sus seis brazos y su simetría se conserva a medida que crece. Pero en su viaje por el cielo, guiados por los arrebatos del viento, cada copo experimenta una trayectoria diferente (un historial de humedades y condiciones diferente), que podría considerarse casi* irrepetible. Por eso todos son tan diferentes entre sí. La forma precisa de un copo de nieve es su currículum vitae, la versión cristalográfica de las arrugas y las cicatrices, que dan carácter a su rostro a medida que crece.

Pero, antes de cerrar este artículo, volvamos a los casi*.

Hace algunos años, el profesor Kenneth G. Libbrecht consiguió producir copos de nieve idénticos. Los gemelos crecieron en la universidad de Caltech, bajo el sol de California, gracias a un ambiente de laboratorio cuidadosamente orquestado. Puesto que las condiciones de crecimiento eran idénticas, sus cristales terminaron siendo indistinguibles. Pero resultaron ser únicos además en otro sentido, quizás aún más insospechado: se trataba, probablemente, de los copos de nieve más perfectamente simétricos que la humanidad había visto jamás.

A pesar de lo que pueda parecer a primera vista, los copos de nieve de la naturaleza rara vez son exactamente iguales a lo largo de sus seis brazos. La mayoría tienen imperfecciones debidas a las pequeñas diferencias del ambiente donde crecieron, o a roturas ocasionadas por su viaje. Si uno mira con atención las fotografías de Bentley, puede observar pequeñas diferencias entre los lados opuestos de cada copo. Nuestro ojo tiende a omitirlas, cegado por su amor a simetría y a los patrones que le permiten interpretar el mundo. Es probable, incluso, que este mismo filtrado se dé en un paso previo: el propio fotógrafo y aquellos que divulgan su trabajo tenderán a compartir, de manera preferente, las imágenes más simétricas.

Fuera del laboratorio, no hay dos copos de nieve iguales, ni tampoco perfectos. Pero el origen de esas irregularidades es, probablemente, lo más bonito de su diseño.

Referencias:

1Wilson Bentley, 1925. Citado por Heidorn, Keith C. “The Snowflake Man of Vermont.” The Public Domain Review, 14 de febrero de 2011, https://publicdomainreview.org/essay/the-snowflake-man-of-vermont. Consultado el 24 de mayo de 2021.

2Stewart, Ian, and Javier García Sanz. El segundo secreto de la vida, cap.1. Crítica, 1999.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El copo asimétrico no sale en la foto se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Kepler y la simetría de los copos de nieve
  2. Del anumerismo también se sale
  3. Una foto de familia por fin completa
Categorías: Zientzia

Siempre Alicia

Mié, 2021/05/26 - 11:59

 

– Entonces di lo que piensas –prosiguió la Liebre–.

– Eso es lo que hago –dijo Alicia precipitadamente– o al menos… al menos pienso lo que digo… Viene a ser lo mismo, ¿no?

– ¿Lo mismo? ¡De ninguna manera! –dijo el Sombrerero–. ¡En tal caso, sería lo mismo decir «veo lo que como» que «como lo que veo»!

– ¡Y sería lo mismo decir –añadió la Liebre– «me gusta lo que tengo» que «tengo lo que me gusta»!

– ¡Y sería lo mismo decir –añadió el Lirón, que parecía hablar en medio de sus sueños–«respiro cuando duermo» que «duermo cuando respiro»!

– Es lo mismo en tu caso –dijo el Sombrerero.

Lewis Carroll, Alicia en el país de las maravillas, Una merienda de locos

Una merienda de locos. Ilustración de John Tenniel. Fuente: Wikimedia Commons

 

El 24 de mayo de 1865, la editorial Macmillan and Co. publicó dos mil ejemplares de Las aventuras de Alicia en el país de las maravillas, la novela nonsense escrita por Lewis Carroll (1832-1898) e ilustrada por John Tenniel (1820-1914). El extracto que abre este escrito es una de las “sorprendentes” referencias a la lógica –o a la falta de ella– muy presente en el libro.

La segunda parte de la novela –A través del espejo y lo que Alicia encontró allí–fue publicada seis años más tarde. En el extracto de debajo la Reina Blanca y la Reina Roja interrogan a Alicia intentando averiguar sus capacidades de cálculo:

La Reina Roja rompió el silencio diciéndole a la Reina Blanca: “Te invito al banquete que va a dar Alicia esta tarde.”

La Reina Blanca sonrió débilmente, y dijo: “Y yo a ti.”

– No sabía que fuera a dar un banquete –dijo Alicia–; pero si es así, creo que soy yo quien debería invitar.

– Te hemos dado la oportunidad de hacerlo –comentó la Reina Roja–; pero quizá no te han dado todavía bastantes clases de modales, ¿verdad?

– No se dan clases de modales –dijo Alicia–. Las clases son para enseñar a sumar y cosas por el estilo.

–¿Sabes la Adición? –preguntó la Reina Blanca–. ¿Cuántos hacen uno más uno más uno más uno más uno más uno más uno más uno más uno más uno?

– No lo sé –dijo Alicia–. He perdido la cuenta.

– No sabe la Adición –terció la Reina Roja–. ¿Sabes la Sustracción? Resta nueve de ocho.

– No se puede restar nueve de ocho –replicó Alicia con presteza–: pero,…

–Tampoco sabe la Sustracción –dijo la Reina Blanca–. ¿Sabes la División? A ver, divide un pan con un cuchillo…, ¿qué resultado te dará?

– Creo… –empezó Alicia, pero la Reina Blanca contestó por ella–: “Pan-con-mantequilla, naturalmente. Prueba a calcular otra sustracción. Quítale el hueso a un perro; ¿qué os queda?

Alicia reflexionó: “El hueso no quedaría, naturalmente, si se lo quito…, y el perro tampoco, porque echaría a correr detrás de mí para morderme…, ¡y desde luego, yo tampoco!”.

– Entonces, ¿crees que no quedaría nada? –dijo la Reina Roja.

– Creo que ése sería el resultado.

– Mal, como siempre –dijo la Reina Roja–: quedarían los estribos del perro.

– Pero no veo cómo…

– ¡Pues escucha! –gritó la Reina Roja–: el perro perdería los estribos, ¿no es así?

– Seguramente –contestó Alicia con cautela.

– ¡Así que si se fuera el perro, se quedarían los estribos! –exclamó triunfal la Reina.

Alicia dijo lo más gravemente que pudo: “Puede que se fueran en otra dirección”–. Pero no pudo por menos de pensar: ¡Cuántas tonterías estamos diciendo!

–¡No sabe ni jota de operaciones! –dijeron las Reinas a la vez, con mucho énfasis.

– ¿Sabéis vos hacer operaciones? –dijo Alicia, volviéndose de repente hacia la Reina Blanca, ya que no le gustaba que la criticasen tanto.

La Reina abrió la boca y cerró los ojos: “Sé la Adición –dijo–, si me das el tiempo… ¡pero no haré una sustracción bajo ningún concepto!”.

A través del espejo (Akal, 2003)

Parece que a la Reina Blanca le pasaba lo mismo que a la alumna de La lección de Eugène Ionesco (1909-1994); a ella también se le “atascaban” las sustracciones…

La historia de Alicia ha sido adaptada al cine y al teatro, versionada de originales maneras, anotada por Martin Gardner (1914-2010), ilustrada por numerosos artistas –muchos de ellos consagrados, como Peter Newell (1862-1924), Arthur Rackham (1867-1939) o Salvador Dalí (1904-1989)– o traducida a diferentes lenguas –incluso existe una versión escrita con un especial alfabeto inventado por el propio Carroll)–.

Entre las muchas versiones de esta novela, mi favorita es Alicia volátil (Cangrejo Pistolero Ediciones, 2010) de Sofía Rhei. En este poemario, Alice Riddell –la niña a la que Carroll dedicó su novela– es ya una mujer y Charles Lutwidge Dodgson –el nombre real de Lewis Carroll– un hombre mayor. Intercambian una serie de cartas en las que recuerdan el pasado y Dodgson desliza la última de ellas por detrás del azogue de un espejo en vez de enviarla. Provoca de este modo la fusión de Alicia-niña, Alicia-adolescente y Alicia-adulta. Todas entran en el país de las maravillas, saltando de una edad a otra y revelando sus vivencias más íntimas:

En la contraportada del libro, bajo el título de “poesía en tres dimensiones”, se incluyen las instrucciones de uso del poemario: 1: Abra el libro. Recorte y póngase las gafas. 2: Cierre uno de sus ojos. Lea un poema. 3: Cierre el ojo contrario. Vuelva a leer el mismo poema. 4: Abra los dos ojos. Lea el poema en su tercera dimensión.

Las gafas a las que se alude son unas gafas anaglifas que permiten realizar tres lecturas de cada poema, escrito en rojo y azul –solo la parte en rojo, solo la escrita en azul o el poema completo en 3D–. De las sesenta y cuatro “Alicias” que aparecen en Alicia volátil me parece especialmente inspiradora una que tiene mucho que ver con la banda de Möbius:

Alicia Moebius, en Alicia Volátil de Sofía Rhei

 

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

 

El artículo Siempre Alicia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un cifrado por sustitución: la ‘nictografía’
  2. Las emocionantes aventuras de Lovelace y Babbage
  3. «Mitchell y la energía en biología» por Alicia Alonso
Categorías: Zientzia

Actúa localmente: midiendo el impacto ambiental de la siderurgia

Mar, 2021/05/25 - 11:59
Fuente: Arania, S.A.

Si uno abre cualquier día un periódico económico y ojea la sección dedicada a inversiones habrá unas siglas que aparecerán con seguridad una o más veces: ESG. ESG son las siglas en inglés que corresponden a medio ambiente, impacto social y buen gobierno, y se refiere a una metodología que clasifica a las empresas en estos tres aspectos, de tal forma que un inversor de cualquier punto del planeta pueda elegir invertir en empresas que tengan el mínimo impacto medioambiental, sean igualitarias, justas y seguras para las personas que trabajan y se relacionan con ellas, y tengan establecidos y cumplan los más altos estándares de control y transparencia en su gestión.

En el mundo de empresarial de los países desarrollados se tiene claro que el futuro será ESG o no será. Muchos inversores se han convertido en activistas y, o bien promueven en aquellas empresas en las que invierten que se mejore la clasificación ESG, o directamente no invierten en empresas de ESG bajo, o ambas cosas.

Esta es una de las fuerzas impulsoras, otras serían la propia conciencia medioambiental y la reducción de costes que suponen ciclos productivos más eficientes, tras las medidas que las empresas más innovadoras están llevando a cabo para reducir su impacto sobre el entorno.

Una de las cuestiones que se plantean inmediatamente es medir. Ya sabemos que solo el que mide, sabe; el que no especula. Pero, ¿cómo medir el impacto global que tiene una actividad? No es tarea fácil, ni mucho menos. Tanto es así, que poder diseñar un sistema de medida ya es un logro científico en sí mismo. Aquí es donde entra el concepto de huella ambiental del producto.

La Huella Ambiental de Producto (HAP) de la Unión Europea es una metodología para calcular el impacto medioambiental total de los productos que salen de nuestras fábricas. Su objetivo es permitir el suministro de información fidedigna y comparable sobre los productos, promoviendo un mercado más sostenible. Los trabajos sobre la norma se remontan a 2011, momento en que se analizaron las metodologías existentes

La HAP sirve para comparar en base a varios criterios el impacto ambiental de un bien, producto industrial o servicio a lo largo de su ciclo de vida. El objetivo general es establecer líneas de actuación, para reducir su impacto ambiental teniendo en cuenta las actividades de la cadena de suministro (de la extracción de las materias primas a la gestión de los residuos finales, pasando por la producción y el uso).

Toda huella ambiental de producto se basa en unas Reglas de Categoría de Huella Ambiental de Producto (PEFCR por sus siglas en inglés): una guía técnica detallada sobre cómo realizar un estudio de este tipo en una categoría de producto concreta. Las PEFCR complementan la orientación metodológica general de la huella ambiental, proporcionando más especificaciones a nivel de producto, asegurando la reproducibilidad y coherencia de estos estudios.

La teoría está muy bien, pero cuando esto se intenta llevar a un producto tan intensivo en materiales con alto impacto en el territorio y energía como es el acero la cosa se complica y no poco. Esto es algo que sobrepasa la actuación de una sola empresa. Así, por ejemplo, es Siderex, el clúster de siderurgia del País Vasco, el que lidera HAMBEMET, un proyecto a gran escala para adecuar esa metodología ya existente para el cálculo de la HAP (y basada en la guía de la Unión Europea) a los productos hiperespecializados de empresas históricas como Arania.

Pero la HAP sola no basta. Ha de complementarse con la estimación de la huella de carbono de la actividad de la empresa en su conjunto para poder tener una idea del impacto ambiental general. Esa medición adicional se logra, por ejemplo, mediante la gestión de GdO (Garantías de Origen renovable).

¿Cómo saber el origen de la energía que se consume? Para descubrirlo se creó un convenio internacional, un acuerdo capaz de acreditar el factor ambiental en un año: las Garantías de Origen y el Etiquetado de Electricidad. Las garantías de origen renovable (GdO) son una certificación que atestigua la producción de una determinada cantidad de suministro eléctrico mediante energías renovables o de cogeneración.

Gracias a una GdO, una empresa puede proporcionar información detallada a sus clientes sobre el origen de la energía que recibe y el impacto en el entorno que supone su producción. El origen renovable se refiere a la electricidad procedente de las fuentes no fósiles: energía eólica, solar, aerotérmica, geotérmica, hidrotérmica, hidroeléctrica, biomasa…

Este es el tipo de cosas de las que se encargan los directivos de alto nivel de las empresas que pretendan seguir siendo competitivas en el futuro.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Actúa localmente: midiendo el impacto ambiental de la siderurgia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Actúa localmente: blockchain para la cadena de suministros
  2. Actúa localmente: el dron espía del cambio climático
  3. Actúa localmente: tranvías eléctricos sin catenaria
Categorías: Zientzia

El letargo diario de los planigalos

Lun, 2021/05/24 - 11:59
Ilustración: María Lezana

Aunque lo parecen, no son ratones. Por su aspecto, están a medio camino entre los ratones y las musarañas. Sin embargo, no tienen nada que ver ni con unos ni con otros; es más, están muy alejados. Son mamíferos marsupiales.

Son planigalos, miembros del orden Dasyuriomorphia, el mismo al que pertenece el archiconocido demonio de Tasmania, aunque éste es más grande, bastante más grande en realidad. Los ratones marsupiales son muy pequeños; son, quizás, los marsupiales más pequeños que hay. Y todos pertenecen al género Planigale, del que no se conocen más de cinco especies.

Una de ellas es Planigale gilesi, o planigalo de Giles. Como las otras especies del género, es de tamaño muy pequeño, de entre 6 y 15 g de masa corporal. Suelen encontrarse en el interior de las grietas largas (>1 m) y estrechas que surgen en los suelos arcillosos característicos de las llanuras de aluvión de los desiertos del centro de Australia. Salvo que haya inundación, se trata de lugares muy secos, pues pueden pasar meses sin que llueva. La mayor parte del tiempo la pasan dentro de las grietas, y salen de noche en busca de alimento. Son carnívoros, muy activos cuando cazan, y muy voraces.

Las especies del género Planigale despertaron el interés de los biólogos, porque pensaron que para poder vivir en esos desiertos habían de tener alguna característica especial. Pero al investigar su biología se llevaron una sorpresa con lo que encontraron o, mejor dicho, con lo que no encontraron, pues no hallaron ningún rasgo fisiológico que pudiera considerarse excepcional. La clave de su supervivencia en entornos tan secos se encuentra, al parecer, en el “letargo diario”. Se le da ese nombre a un estado caracterizado por una caída de la temperatura corporal por debajo de los 32 ºC, de duración inferior a las 24 h.

Dados su minúsculo tamaño y el hecho de que puedan desarrollar una actividad muy intensa, sus requerimientos energéticos son muy altos. Además, en las zonas que habitan hay muy poca fauna, por lo que no disponen de muchas presas a las que dar caza para comer. Por otro lado, pueden perder mucha agua a través de las vías respiratorias, y aunque pueda resultar paradójico, pierden más agua cuando baja la temperatura ambiental. Eso ocurre porque al bajar la temperatura exterior elevan su metabolismo, de manera que, gracias al calor que se genera así, contrarrestan la mayor pérdida térmica que ocurre a temperaturas bajas. Pero para elevar el metabolismo han de consumir más oxígeno y eso exige que aumente la frecuencia respiratoria. Como el agua se pierde por evaporación desde las paredes de las vías respiratorias, al aumentar la ventilación pulmonar para obtener más oxígeno, también se renueva más rápidamente el aire en contacto con los epitelios y ese aire arrastra más vapor de agua, lo que hace que el agua que recubre esos epitelios se evapore con más facilidad.

Por todo ello, mantener un alto grado de actividad de forma permanente resulta muy costoso, tanto en lo relativo al balance energético, como al balance hídrico. Sobreviven bajo esas condiciones gracias a una batería de tres elementos, dos de índole fisiológica y etológico el tercero.

Por un lado, no mantienen del todo constante la temperatura corporal cuando varía la temperatura ambiental. Por ejemplo, si la ambiental llega a valores tan bajos como 10 ºC, la corporal se reduce a 32’4 ºC, aunque, de no mediar ajuste especial alguno, se habría mantenido en 34’4 ºC, que es la temperatura normal de estos animales. De ese modo reducen el gasto energético en un 9% y, además, ahorran agua.

Por otro lado, recurren al letargo diario. Gracias a esa modalidad de letargo metabólico, ahorran mucha agua y mucha energía. Por poner un ejemplo, para una temperatura ambiental de 20 ºC, el letargo diario les permite reducir la tasa metabólica en un 79%, y la pérdida de agua en un 62%.

Por último, su comportamiento también resulta clave: buscan microclimas adecuados y, al igual que hacen los animales ectotermos, se ponen al sol cuando tienen ocasión. Al calentarse de ese modo evitan gastar la energía que requeriría la generación endógena de calor.

En resumen, estos pequeños mamíferos han desarrollado mecanismos específicos gracias a los cuales sobreviven y medran en entornos en los que escasea el agua y el alimento. Este es un caso especial, porque las condiciones ambientales son muy exigentes. El que sean marsupiales facilita las cosas; seguramente ayuda el tener una temperatura corporal inferior a la de los mamíferos placentarios, pero, sobre todo, el elemento clave que facilita la supervivencia de los planígalos en condiciones ambientales tan extremas es el letargo diario. Sin ese ahorro de agua y energía, no podrían hacer frente con éxito a condiciones tan severas.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El letargo diario de los planigalos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El letargo del ratón
  2. Economía del agua en animales terrestres
  3. Relaciones hídricas y salinas de los animales
Categorías: Zientzia

Ultrasonidos para mirar al interior del encéfalo

Dom, 2021/05/23 - 11:59

 

Se pueden anticipar los movimientos de las extremidades y la dirección de la mirada de un macaco mediante una técnica relativamente nueva que permite “visualizar” con alta precisión espacial y temporal la actividad neuronal de diferentes zonas de su encéfalo. De esto se deriva que puede utilizarse la actividad cerebral, registrada mediante esa técnica, para dar instrucciones a artefactos robóticos o máquinas en general, de manera que hagan cosas que el sujeto en cuestión no podría hacer por sí mismo. Piensen, por ejemplo, en una persona que, por sufrir una minusvalía, no puede mover sus brazos o que, simplemente, carece de ellos. El método utilizado es una técnica de neuroimagen denominada “ultrasónica funcional” (o fUS, del inglés functional UltraSound imaging).

Esta no es la primera ocasión en que se convierten instrucciones mentales, a través de una interface, en actos o movimientos de una máquina. Ya se había conseguido que un brazo robótico lleve una copa a la boca de una persona parapléjica en cuyo cerebro se habían implantado electrodos. La novedad no consiste en la capacidad para dictar órdenes desde la mente sin que intervengan las extremidades del sujeto, sino en la técnica utilizada.

Hasta ahora se han utilizado varios métodos directos para registrar la actividad neuronal en el encéfalo. La electroencefalografía (EEG) es la más antigua; detecta cambios de potencial eléctrico en el cerebro a través de electrodos colocados sobre el cráneo. No es invasiva pero tiene baja resolución espacial. Una variante de la anterior es la electrocorticografía (ECoG), que proporciona acceso directo a las señales eléctricas de las neuronas; tiene alta resolución temporal y espacial. El problema es que exige cirugía y entraña riesgos porque hay que implantar electrodos, daña los tejidos en que se insertan y el material de que están formados se acaba deteriorando con el tiempo.

También hay métodos indirectos. La resonancia magnética funcional (FMRi) es la alternativa no invasiva más utilizada en los últimos años para “visualizar” la actividad neuronal. Mide la variación local en el nivel relativo de hemoglobina combinada con oxígeno, porque ese nivel refleja el flujo sanguíneo en la zona, que depende, a su vez, del metabolismo de las neuronas. La tomografía por emisión de positrones (PET) tampoco es invasiva; se vale del uso de radioisótopos para detectar niveles de actividad metabólica mediante indicadores metabólicos o de flujo sanguíneo. El problema de estas técnicas, sobre todo de la segunda, es que no ofrecen gran resolución espacial ni temporal y los dispositivos son grandes equipos que no se pueden trasladar con facilidad; y menos aún pueden llevarse puestos.

La neuroimagen ultrasónica funcional se basa en la utilización de ultrasonidos para detectar cambios en el flujo sanguíneo que, como ya he señalado, informa del nivel de actividad metabólica de las neuronas a las que se dirige. Es superior a las anteriores en resolución temporal y de resolución espacial intermedia entre las de la EEG y la ECoG (similar a la FMRi). Además, se puede utilizar mediante dispositivos portátiles. La desventaja es que su uso requiere la retirada de un pequeño fragmento del cráneo, una especie de “ventana” al interior del encéfalo, aunque, a diferencia de los electrodos de la ECoG, el detector no penetra en el tejido nervioso ni atraviesa las membranas de tejido conjuntivo que lo protegen.

Las técnicas de neuroimagen ultrasónica son un ejemplo magnífico de una de las tecnologías actuales más prometedoras, tanto para dotar a personas discapacitadas de herramientas que les proporcionen autonomía funcional, como para, mirando a su interior, desentrañar los misterios del funcionamiento del encéfalo, la máquina de la mente.

Fuente: Norman et al (2021): Single-trial decoding of movement intentions using functional ultrasound neuroimaging. Neuron 109:1-13.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Ultrasonidos para mirar al interior del encéfalo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El gran encéfalo humano es un “encéfalo social”
  2. El encéfalo humano
  3. Tamaño del encéfalo e inteligencia
Categorías: Zientzia

Ginés Morata – P4K 2019: La Biología del siglo XXI, la manipulación de la información genética y el futuro de la sociedad humana

Sáb, 2021/05/22 - 11:59
Fragmentación de ADN usando un gel de agarosa. Foto: National Cancer Institute / Unsplash

Las nuevas herramientas genéticas abren el camino para combatir enfermedades hasta ahora intratables, aumentar la longevidad humana o quizás incluso, para que especies humanas extintas vuelvan a la vida. Arrancando con una introducción histórica Ginés Morata nos pasea por todas estas posibilidades y lo que implican para la sociedad humana.

Ginés Morata se licenció en Ciencias Biológicas por la Universidad Complutense de Madrid donde obtuvo su doctorado en 1973. Actualmente es Profesor de Investigación del Centro de Biología Molecular Severo Ochoa del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad Autónoma de Madrid (UAM), centro que dirigió en el periodo 1990-1991. El Prof. Morata es especialista en genética del desarrollo, concretamente en el estudio de la arquitectura biológica de la mosca Drosophila melanogaster. Ha recibido numerosos galardones, entre los que cabe destacar, el Premio Nacional de Investigación Santiago Ramón y Cajal de 2002, la Medalla de Oro de Andalucía en 2003, el Premio México de Ciencia y Tecnología de 2004 y el Premio Príncipe de Asturias de Investigación Científica y Técnica de 2007.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Ginés Morata – P4K 2019: La Biología del siglo XXI, la manipulación de la información genética y el futuro de la sociedad humana se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La biología del siglo XXI, por Ginés Morata
  2. Sydney Brenner entrevistado por Ginés Morata
  3. «Las tres grandes fronteras de la biología humana» por Francisco J. Ayala
Categorías: Zientzia

A vueltas con el índice glucémico de los alimentos

Vie, 2021/05/21 - 11:59

Leixuri Aguirre, Helen Carr-Ugarte, Itziar Eseberri Barace y Maitane González-Arceo

Foto: Shutterstock / marilyn barbone

 

En nuestra dieta, el 50-60% de la energía debe ser aportado por los hidratos de carbono. Es decir, se recomienda que estos sean los macronutrientes más abundantes de la dieta, por delante de los lípidos y las proteínas.

Concretamente, el reparto se debería dar de la siguiente manera:

  • Como máximo, un 10% de la energía en forma de hidratos de carbono simples o azúcares
  • 40-50% de la energía en forma de hidratos de carbono complejos.

Los hidratos de carbono complejos los encontramos en cereales, pasta, pan, tubérculos, frutos secos y legumbres, mientras que los hidratos de carbono simples se encuentran en las frutas y verduras y en todo el azúcar añadido presente en los alimentos.

Más azúcar del que imaginamos

A la hora de intentar cumplir con las recomendaciones, el problema es que, por regla general, no somos conscientes de la cantidad de azúcar añadido que hay en los alimentos ultraprocesados. Además del azúcar que nosotros mismos añadimos a los alimentos que consumimos, debemos tener en cuenta el alto contenido de azúcar que podemos encontrar en productos como natillas (20 g por unidad), galletas tipo maría (1,5 g por galleta), cacao en polvo procesado (19 g por taza) o refrescos (35 g por lata), por mencionar algunos. De hecho, estudios recientes indican que consumimos hasta tres veces más azúcar que la recomendación actual de 25 gramos diarios, que no es poco.

Si se recomienda reducir el consumo de azúcar añadido (ojo, no el que aparece de forma natural en frutas o verduras), no es por capricho. Esto se debe a que es una forma eficaz de prevenir algunos problemas de salud como las caries, la obesidad, la diabetes tipo II y el hígado graso.

Un término que en los últimos años se ha puesto de moda es el índice glucémico (IG). Se trata de un indicador que clasifica a los alimentos en función del poder que tienen para aumentar la glucemia (glucosa en sangre), valorando el nivel de ese aumento y la velocidad a la que lo hace. Las personas con diabetes y los deportistas lo suelen tener más que controlado. Pero, ¿y el resto de los mortales?

Vayamos por partes. Lo primero es entender cómo se calcula. A una persona en ayunas se le dan 50 gramos del alimento y se mide su glucemia a diferentes tiempos. El área bajo la curva (AUC, siglas del término anglosajón area under the curve) de la gráfica resultante se compara con la que se crea tras la ingesta de 50 gramos de glucosa (Figura 1). Multiplicando ese valor por 100, se obtiene un valor más fácil de interpretar, ya que va de 0 a 100. A este último valor es al que se denomina IG.

Figura 1. Gráfica representativa de las curvas de glucemia tras la ingesta de glucosa (referencia), un alimento de índice glucémico bajo y otro de índice glucémico alto.

¿Debemos evitar todos los alimentos con índice glucémico alto?

Pero entonces, ¿debemos evitar todos los alimentos de IG alto? Ni mucho menos. Lo primero que hay que tener en cuenta es que el hecho de que un alimento tenga un IG alto no significa que tenga un efecto perjudicial para nuestra salud. Lo veremos más adelante con ejemplos.

Además del IG, la cantidad de hidratos de carbono presente en la ración del alimento es fundamental. Por eso, para tener una visión más realista, surgió el concepto de carga glucémica (CG), valor resultante de multiplicar el IG por la cantidad de hidratos de carbono de la ración del alimento y dividido entre 100 (Figura 2).

Este concepto es importante, ya que aunque un alimento tenga un IG alto, puede que el pico de glucemia no sea en realidad tan pronunciado. Un ejemplo es lo que ocurre con algunas frutas: pese a que la sandía sea un alimento con IG alto, su contenido en hidratos de carbono es bajo (5 gramos por cada 100 gramos de sandía), lo que hace que, a fin de cuentas, su CG sea baja. En otras palabras, la sandía es un alimento totalmente saludable y recomendable aunque su IG sea alto.

Figura 2 Fórmulas y rangos para el cálculo del índice glucémico y la carga glucémica. AUC: área bajo la curva; HdeC: hidratos de carbono.

En general, todas las personas deberíamos cuidar la CG de los alimentos que ingerimos. Si consumimos alimentos con CG baja, mantendremos los niveles de glucosa estables durante más tiempo. Por lo tanto, la sensación de hambre tardará más en volver. Por el contrario, si consumimos un alimento con una CG alta, la glucemia se dispara. El exceso de glucosa en sangre repentino hace que el metabolismo de los lípidos de active. Por lo tanto, acumulamos grasa.

Diabéticos, deportistas y carga glucémica

Si a todos nos incumben el IG y la CG, hay dos colectivos para los que son fundamentales. Por un lado, las personas con diabetes tipo I o insulinodependientes; los diabéticos tienen que controlar que su glucemia no aumente mucho, ya que no producen insulina y tienen que dosificársela ellos mismos. Por lo tanto, les interesa consumir alimentos que tengan un IG bajo.

Por otro lado, estos cálculos resultan muy valiosos para los deportistas. Antes de hacer deporte, les interesa consumir alimentos ricos en hidratos de carbono y con IG bajo. De esta manera, la glucemia no aumenta rápidamente, y se mantiene la disponibilidad de glucosa durante más tiempo.

Esto permite que puedan seguir realizando ejercicios de alta intensidad de manera más prolongada, antes de evitar una hipoglucemia (popularmente conocida como “pájara”).

Sin embargo, durante la práctica deportiva, los deportistas suelen consumir alimentos con IG alto para evitar hipoglucemias, al igual que lo hacen después del ejercicio para recuperar rápidamente las reservas de glucosa gastadas.

Como referencia, podemos decir que el IG varía según el tipo de hidrato de carbono que consumamos. En el caso de los hidratos de carbono simples o azúcares, el IG es mayor, ya que son moléculas que se digieren rápidamente o se pueden absorber directamente. En el caso de los hidratos de carbono complejos, el IG es menor por que necesitan ser digeridos antes de ser absorbidos. Esto hace que la absorción sea más escalonada y, por tanto, se produzca un aumento de la glucemia menor.

Los azúcares, mejor con fibra

Cuando en nuestra comida, aparte de hidratos de carbono también hay grasas y proteínas, el vaciamiento gástrico es más lento. Por lo tanto, se dará una digestión más lenta que resultará en un IG menor.

Lo mismo ocurre cuando el contenido de fibra en la comida es alto. La fibra se encuentra en alimentos de origen vegetal y nuestro organismo no es capaz de digerirla. Al no digerirla, no la podemos absorber, además de ralentizar la digestión del resto de los nutrientes. Si digerimos más lentamente los hidratos de carbono, como se ha comentado previamente, los absorberemos de forma más lenta y el aumento de la glucemia será menor. Por ello, los alimentos con alto contenido en fibra, poseen IG más bajos.

Patatas y zanahorias tienen bajo contenido en amilosa, lo que hace que el índice glucémico aumente. Foto: Shutterstock / Adriana Marteva

Configuración de los hidratos de carbono

Los hidratos de carbono están formados por amilosa, que es lineal, y amilopectina, que es la parte ramificada y más irregular de los hidratos de carbono. La amilopectina se digiere más rápido que la amilosa. En el caso de los tubérculos (patata, boniato o zanahoria), el contenido en amilosa es bajo. Debido a ello, su IG aumenta.

Por el contrario, en el caso de las legumbres, el contenido en amilosa es mayor además de ser ricos en fibra. Por ello, son alimentos con un IG bajo.

Grado de maduración de las frutas

Según su grado de maduración, las frutas tienen un IG más alto o más bajo. Cuando la fruta está verde, el contenido de azúcares libres es menor (por eso sabe menos dulce), y su IG es también menor.

Cuando esa fruta va madurando se produce la hidrólisis (rotura) del almidón y se van liberando azucares, por lo que aumenta el IG. Evidentemente, el contenido de hidratos de carbono no varía, pero sí su disponibilidad y su IG.

De todas formas, no hay que olvidar que la CG de las frutas suele ser baja y, por lo tanto, el consumo de fruta, ya sea verde o madura, no supone un problema.

Eso sí, consumir un zumo de naranja o la naranja entera no es lo mismo. Cuando hacemos un zumo se rompen las células y se elimina parte de la fibra, haciendo que, aunque el contenido en azúcares no varíe, sí lo haga el IG.

Cuando hacemos un zumo de naranja se rompen las células y se elimina parte de la fibra, haciendo que, aunque el contenido en azúcares no varíe, sí lo haga el Índice Glucémico. Foto: Shutterstock / Narong Khueankaew

Cocinar los alimentos modifica el indice glucémico

Cuando cocinamos los alimentos se produce una pequeña hidrólisis de los nutrientes que, en el caso de los hidratos de carbono, supone la liberación de algunas glucosas procedentes del almidón, haciendo que el IG varíe.

Unas zanahorias crudas tienen un IG de 30 (IG bajo), mientras que, una vez cocidas, el IG sube hasta 85 (IG alto). De nuevo, cabe recordar que además del IG hay que tener en consideración la CG, y que una zanahoria no es, ni mucho menos, un alimento cuyo contenido en hidratos de carbono o IG deba preocuparnos.

Otro ejemplo en el que nuestra manera de cocinar los alimentos modifica el IG es la duración del cocinado. Si cocemos la pasta lo que los italianos llaman “al dente”, el IG es de 40 (IG bajo), mientras que si la cocemos mucho sube hasta 55 (IG medio).

Si, una vez entendido que el concepto de IG es más complejo de lo que parece a simple vista, decidimos utilizarlo, conviene tener presente que no lo es todo. Es decir, también hay que tener en cuenta la cantidad de azúcares de los alimentos o la ración de alimento que consumimos. Además, en ningún caso hay que pensar que el punto de maduración de la fruta o el cocinado de los alimentos sea un factor determinante a tener en cuenta a la hora de configurar nuestra dieta.The Conversation

Sobre las autoras: Leixuri Aguirre, Helen Carr-Ugarte, Itziar Eseberri Barace y Maitane González-Arceo son profesoras e investigadoras de la UPV/EHU

 

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo A vueltas con el índice glucémico de los alimentos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cómo conservar mejor los alimentos con una iluminación inteligente
  2. El azúcar oculto en los alimentos
  3. Resveratrol y pteroestilbeno en el control epigenético de la acumulación de grasa corporal
Categorías: Zientzia

¿Puede el virus SARS-CoV-2 integrarse en nuestro genoma?

Jue, 2021/05/20 - 11:59

Guillermo Peris

Virus SARS-CoV-2 (resaltado en amarillo) emergiendo de la superficie de células cultivadas en el laboratorio. Fuente: Wikimedia Commons

 

El pasado mes de diciembre se publicó un artículo de investigación que dio lugar a una gran polémica por sus conclusiones. En él se afirmaba haber encontrado evidencias de que el SARS-CoV-2 es capaz de integrarse en el genoma humano de los afectados por COVID-19. Según sus autores, esto explicaría que algunos infectados por este virus den positivo meses después de haber pasado la enfermedad, ya que las células de estos individuos producirían fragmentos del virus que serían detectados por una RT-PCR. Este artículo fue compartido en biorXiv, una plataforma en la que se publican investigaciones antes de pasar por un proceso de revisión por pares previo a la publicación en una revista científica. Como era de esperar, el artículo dio alas a los grupos antivacunas que lo usaron para denunciar que esta integración también podría darse con vacunas de ARN mensajero.

A principios de mayo de 2021 el artículo fue publicado online en la revista PNAS (Proceedings of the National Academy of Sciences of the United States of America, factor de impacto 9.4 en 2019) por un procedimiento no menos polémico: los socios de la National Academy of Sciences pueden enviar hasta dos artículos al año como contributed authors, en los que ellos eligen previamente a los dos revisores que evaluarán su trabajo. En este caso, el autor principal Rudolf Jaenisch siguió este camino para publicar su estudio. Además, en esta versión final intentó responder a las críticas que tuvo el artículo original en bioRxiv (y que fue rechazado por otra revista). Sin querer entrar a valorar las posibles implicaciones de esta forma sesgadas de revisión por pares (para lo que te aconsejo leer este artículo de Francis Villatoro), en este artículo quiero analizar únicamente las evidencias presentadas por los investigadores con las que pretenden respaldar su hipótesis de que el SARS-CoV-2 podría integrarse en los genomas celulares de los infectados. Para ello intentaré describir de la forma más sencilla posible los experimentos realizados y si realmente de los resultados se pueden inferir las conclusiones de este estudio.

LINE-1, el presunto compinche de SARS-CoV-2

El virus SARS-CoV-2 pertenece a la familia de los coronavirus y almacena su material genético en forma de ARN de una sola hebra (monocatenario) en el interior de una membrana formada por distintas proteínas, entre ellas la conocida como espícula o proteína S en la que se basan las vacunas de Pfizer y Moderna.

Estructura del SARS-CoV-2. Fuente: Wikimedia Commons

 

Cuando el virus infecta una célula humana utiliza la maquinaria celular del citoplasma para fabricar las proteínas necesarias para generar nuevos virus, realizar copias de su ARN y ensamblar todas estas piezas en los nuevos viriones que escaparán de la célula para seguir infectando. Durante todo este proceso, ningún componente del virus accede al núcleo celular, que es precisamente donde se encuentra el genoma en forma de ADN, así que este virus lo tendría difícil para integrarse en nuestro genoma, al menos a priori.

Ciclo de infección del SARS-CoV-2. La replicación del virus no requiere en ningún momento del acceso al interior del núcleo. Fuente: Wikimedia Commons

 

Pero a esta dificultad inicial hay que añadir otra: si algún fragmento del virus se las ingeniara para llegar al núcleo, como su material genético es ARN y el nuestro ADN, tampoco podría integrarse en nuestro genoma sin transformarse previamente a ADN. Excepto si el virus fuera capaz de fabricar una enzima retrotranscriptasa que convirtiera el ARN en ADN (como hacen el VIH y otros retrovirus, que sí se integran en nuestro genoma); pero, por suerte para nosotros, no tiene ningún gen que codifique este tipo de enzimas. Y, por supuesto, el genoma humano no tiene genes para realizar transcripción inversa. ¿O sí?

Ya os he hablado en otras ocasiones de los elementos móviles del ADN humano (también conocidos como retrotransposones) y de su papel en el desarrollo tumoral. Estos elementos serían secuencias de ADN capaces de «saltar» de una posición a otra del genoma, proceso durante el cual se crea una nueva copia de la secuencia en otra posición del genoma a partir de un intermedio de ARN mensajero (ARNm).

Proceso de retrotransposición de LINE-1. En una primera fase, el ADN del retrotransposón se transcribe a ARN mensajero. Este ARNm, tras una traducción a proteínas en el citoplasma, se integra en una nueva posición del genoma (imagen de elaboración propia). Fuente: Guillermo Peris Ripollés.

 

Para dar este salto, estos elementos móviles necesitan dos cosas: por un lado, una retrotranscriptasa que transcriba su ARNm a una copia de ADN; por otro, una enzima que corte el ADN en el lugar de integración para insertarlo allí. Pero justamente uno de estos elementos móviles, el conocido como LINE-1, tiene en su secuencia un gen que realiza ambas dos funciones. Y en nuestro genoma tenemos unas 500 000 copias de LINE-1, de las cuales en torno a un centenar son activas. En resumen, nuestras células sí son capaces de fabricar la enzima retrotranscriptasa que necesita el SARS-CoV-2 para integrar su ARN en nuestro genoma.

Mecanismo completo de retrotransposición de LINE-1. Fuente: Singer et al (2010)

 

Pero este virus no lo va a tener fácil: en la inmensa mayoría de células de nuestro cuerpo los elementos LINE-1 están reprimidos y apenas pueden expresarse, por lo que su capacidad de fabricar enzima retrotranscriptasa es enormemente baja. Sí hay otros tipos celulares en losl que hay una mayor expresión (células tumorales, embrionarias o neuronales) pero no son relevantes en la infección de COVID-19. Además, incluso en caso de expresión de LINE-1 y fabricación de retrotranscriptasa, este elemento móvil tiene «preferencia» por integrarse a él mismo en el genoma o a otros elementos móviles (como ALU o SVA).

Así que, a priori, la posibilidad de que el SARS-CoV-2 se integre en el genoma de una célula humana infectada usando la retrotranscriptasa de LINE-1 es tremendamente baja. Por eso sorprendió el estudio de Rudolf Jaenisch en el que decía tener evidencias de integración del virus en el genoma celular humano en pacientes de COVID-19.

Análisis de células humanas in vitro

En el estudio se empieza analizando la infección por SARS-CoV-2 de células humanas in vitro (en células HEK293T, derivadas de riñón de embrión humano). Previendo que la cantidad de retrotranscriptasa procedente de LINE-1 sería pequeña, los investigadores decidieron aumentar artificialmente la cantidad de LINE-1 antes de la infección con SARS-CoV-2. Tras la infección secuenciaron y analizaron el genoma encontrando que, efectivamente, algunos fragmentos del virus se habían integrado en el ADN humano. En concreto, detectaron el gen que codifica la proteína N, pero no el de la espícula, que es el usado en las vacunas de ARNm; posiblemente porque el gen de la proteína N se encuentra en un extremo del genoma del virus. Tras encontrar las secuencias de virus en la secuenciación del genoma se comprobó experimentalmente mediante PCR que efectivamente estas secuencias se encontraban en el ADN humano. Esta validación experimental es imprescindible como evidencia.

Fragmento secuenciado con Nanopore que abarca ADN humano (en azul) y del virus (en rosa). La secuencia resaltada en amarillo es una duplicación habitual cuando se integra un nuevo elemento con LINE-1. Fuente: Zhang et al (2021)

Así pues, en este experimento sí encontraron fragmentos del virus integrados en el genoma humano, pero fue con células in vitro en las que se había aumentado artificialmente la cantidad de LINE-1. Estos niveles de expresión de LINE-1 son mucho mayores que los que se encuentran en una célula normal de nuestro organismo (salvo casos concretos de células tumorales o embrionarias). Esta fue una de las críticas al artículo publicado en diciembre. Por ello, en la nueva versión del artículo publicada en PNAS analizaron si había inserciones del virus en el genoma de células HEK293T en las que no se había aumentado previamente la cantidad de LINE-1 y, pese a afirmar haberlas encontrado, no informan de que las hayan validado experimentalmente. En resumen, no presentan evidencias suficientes de que el SARS-CoV-2 se integre en el genoma humano sin un aumento previo y artificial de LINE-1. Y esto, obviamente, todavía en células in vitro.

Análisis de células humanas de pacientes infectados

Con tal de comprobar si eran capaces de encontrar si el virus se había integrado en el genoma celular de pacientes con COVID-19, el equipo de investigadores usó bases de datos publicadas con secuenciaciones de ARN de personas infectadas. Es importante destacar que no tuvieron acceso a células reales sino sólo a las secuenciaciones en bases de datos, por lo que no pudieron validar sus hallazgos experimentalmente.

En estas secuenciaciones de ARN buscaron quimeras virus-humano, es decir, fragmentos de ARN en el que una parte de la secuencia fuera humana y otra del SARS-CoV-2. ¿Por qué? Si el virus se hubiera integrado en el genoma humano, al transcribirse el ADN a ARN mensajero, se hallarían fragmentos de ARN con secuencias de ambas especies.

Si el virus se integrara en el genoma humano, al transcribirse a ARNm y fragmentarse para la secuenciación se encontrarían quimeras virus-humano (figura modificada de Linheiro & Bergman (2012)).

 

El porcentaje de fragmentos del virus que encontraron se hallaba por debajo del 0.14 %. Según los autores, esto es coherente con una integración del virus en el ADN humano y su transcripción posterior a ARN mensajero (que es lo que detecta la secuenciación de ARN). Y aquí está una de las grandes pegas del estudio, así que vamos a intentar explicarla con calma.

El proceso de secuenciación de ADN ha avanzado enormemente desde la publicación del primer borrador del Proyecto Genoma Humano, hace ya 20 años. Actualmente podemos secuenciar el genoma de una persona (es decir, leer las más de 3 000 millones de letras de su ADN), procesarlo y analizarlo en menos de 24 horas. Pero esta técnica se ha optimizado para la lectura del ADN, no de ARN, así que cuando analizamos el conjunto de secuencias de ARN celular (el denominado transcriptoma) debemos realizar primero la conversión de ARN a ADN (denominado ADN complementario, ADNc). Ya hemos hablado de esto unos párrafos atrás, cuando comentábamos que para poder integrarse el SARS-CoV-2 en nuestro genoma necesitaba primero convertir su material genético a ARN con enzimas retrotranscriptasas. Por ello, para la secuenciación de ARN un primer paso es añadir estas enzimas a la muestra a analizar.

Esquema de secuenciación de ARN (RNA-seq). Las secuencias de ARN (en azul) se fragmentan y convierten a ADN (marrón) usando enzimas retrotranscriptasas. El ADN así conseguido se amplifica y secuencia. Fuente: Labome.com

 

Tal y como se muestra en la imagen anterior, de la secuenciación se obtiene la cadena de nucleótidos de cada uno de las secuencias obtenidas al fragmentar el ARN. Hay que tener en cuenta que en este proceso se analiza todo el ARN celular, así que si hay otro tipo distinto del humano (por ejemplo, procedente de una infección vírica como SARS-CoV-2) también lo encontraremos en nuestro análisis pero, al provenir de ARN inicial distinto (el punto de partida señalado en la figura anterior como (1)) deberíamos localizarlo en fragmentos diferentes: es decir, deberíamos encontrar fragmentos de ARN relacionado con genes humanos o virus, pero no esperar encontrar fragmentos de ARN con mezclas de ambos.

El problema radica que en la técnica de secuenciación de ARN, al transformar mediante enzimas todos los fragmentos de ARN a ADNc, puede ocurrir que se «peguen» fragmentos de ARN de distintas procedencias, así que las quimeras encontradas en el estudio de Jaenisch podrían no ser más que un artefacto de la preparación de las muestras. De hecho, un estudio recientemente publicado en BiorXiv por Yan et al. (y que todavía no se ha publicado en una publicación revisada por pares) estima que en la secuenciación del ARN de una muestra de células humanas de pacientes con COVID-19 se obtienen durante el procesado de las muestras hasta un 1 % de quimeras virus-humano derivadas del propio procedimiento experimental. Es decir, las quimeras que encuentran los autores (recordemos, un 0.14 %) puede que no sean más que errores de la preparación de muestras.

Durante el proceso de transcripción inversa previo a la secuenciación puede ocurrir que se «peguen» fragmentos de ARN de distintas procedencias. En la imagen vemos cómo durante la formación del híbrido ARN-cADN se cuela un fragmento (en verde). Imagen modificada de Tang et al (2018).

Tras recibir estas críticas en la versión inicial del artículo, los investigadores trataron de buscar en los datos alguna pista que reforzara su teoría de que las quimeras observadas no eran un artefacto del procedimiento experimental y provenían de una integración real del virus SARS-CoV-2 en el genoma humano. Y formularon la siguiente hipótesis: el ARN quimérico procedente de una integración en el ADN celular (que recordemos tiene dos hebras con la misma información pero en sentidos opuestos) daría lugar a quimeras también en ambos sentidos a partes iguales; mientras que si el ARN quimérico procedía de un artefacto experimental (obtenido del virus con una sola hebra en un sentido específico) las quimeras tendrían el ARN del virus en un solo sentido. Un análisis de las muestras de pacientes reveló que, como ellos esperaban, las secuencias de las quimeras tenían el ARN vírico como una mezcla de ambos sentidos.

El problema es que esta idea no es más que una hipótesis. Esta mezcla en distintos sentidos podría deberse a causas todavía no exploradas, por lo que no representa una evidencia suficiente de integración del virus en el genoma celular. Además, hay que recordar que este análisis de muestras de pacientes reales se hizo a partir de secuenciaciones obtenidas de bases de datos online, por lo que no se pudo validar experimentalmente ninguna de las inserciones detectadas.

En resumen, en el estudio de Jaenisch no se demuestra inequívocamente la presencia de integraciones del virus SARS-CoV-2 en el genoma humano, ya que los únicos casos de inserciones validadas experimentalmente se dan en células humanas in vitro en las que se ha sobreexpresado LINE-1 para aumentar la cantidad de enzima retrotranscriptasa. Es decir, reitero, no se ha encontrado experimentalmente que el virus se encuentre integrado en ningún genoma celular humano. Al menos por ahora. Porque se están mejorando las técnicas de secuenciación de ARN para evitar la aparición de quimeras; en el artículo de Yan et al. anteriormente citado ya se propone un método experimental que evita el enriquecimiento de quimeras durante la secuenciación de ARN.

Conclusión

¿Significa esto que es absolutamente imposible que el SARS-CoV-2 se integre en una célula infectada? No, ni mucho menos. El elemento LINE-1, muy de vez en cuando, integra en el genoma celular secuencias de ARNm de cualquier tipo que encuentre en el citoplasma. Y también muy muy muy de vez en cuando lo hace en células germinales, las que dan lugar a espermatozoides y óvulos, las que transmiten esa inserción a su descendencia. Justamente por eso, tenemos nuestro genoma plagado de pseudogenes, copias de fragmentos de genes en una posición distinta a su localización original. Y si pueden integrar muy muy muy de vez en cuando cualquier ARN mensajero, ¿por qué iba a ser distinto con el ARN del SARS-CoV-2? Este artículo polémico demuestra que, en las líneas celulares y sobreexpresando LINE-1, el mecanismo de integración es posible. Estoy convencido de que que se acabarán confirmando integraciones de SARS-CoV-2 tarde o temprano. Pero esa no es la pregunta que nos debemos hacer. Lo que nos interesa es si es relevante, si va afectar a muchas personas (con lo que, como apuntan los autores, podría dar positivos en PCR de personas sanas) o va a ser completamente irrelevante. En mi opinión, no creo que este fenómeno sea excesivamente relevante, pero mientras no se investigue no lo sabremos.

En cuanto al uso que hacen los negacionistas de este artículo, no hagamos caso y no les demos más voz. Así que cuando podáis, vacunaos.

Referencias

  • Zhang L, Richards A, Khalil A, Wogram E, Ma H, Young RA, Jaenisch R. SARS-CoV-2 RNA reverse-transcribed and integrated into the human genome. bioRxiv [Preprint], 2020. doi: 10.1101/2020.12.12.422516.
  • Zhang L, Richards A, Barrasa M, Hughes SH, Young RA, Jaenisch R. Reverse-transcribed SARS-CoV-2 RNA can integrate into the genome of cultured human cells and can be expressed in patient-derived tissues. Proceedings of the National Academy of Sciences, 118(21), 2021. doi: 10.1073/pnas.2105968118
  • Yan B, Chakravorty S, Mirabelli C, Wang L, Trujillo-Ochoa JL, Chauss D, Kumar D, Lionaki MS, Olson MR, Wobus CE, Afzali B, Kazemian M. Host-virus chimeric events in SARS-CoV2 infected cells are infrequent and artifactual. bioRxiv 2021.02.17.431704; doi: 10.1101/2021.02.17.431704
  • Cohen J. Further evidence supports controversial claim that SARS-CoV-2 genes can integrate with human DNA. Science, May, 6, 2021. doi: 10.1126/science.abj3287

Sobre el autor: Guillermo Peris es doctor en química cuántica, profesor del Departamento de Lenguajes y Sistemas Informáticos de la Universitat Jaume I e investigador de GENYO (Centro Pfizer – Universidad de Granada – Junta de Andalucía de Genómica e Investigación Oncológica).

El artículo ¿Puede el virus SARS-CoV-2 integrarse en nuestro genoma? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿En manos de quién ponemos nuestro genoma?
  2. Conseguir ver, y quizás ayudar a entender, al SARS-CoV-2 usando electrones y mucho frío
  3. Relación entre genoma y las formas graves de COVID-19
Categorías: Zientzia

Calcular el área contando puntos

Mié, 2021/05/19 - 11:59

 

En más de una ocasión hemos hablado en esta sección del Cuaderno de Cultura Científica, Matemoción, de la belleza de algunos resultados matemáticos y de sus demostraciones. En esta entrada vamos a centrar nuestra atención en uno de esos hermosos resultados matemáticos, en concreto, perteneciente al área de la geometría, el teorema de Pick, que permite calcular el área de una cierta región sin más que contar una serie de puntos.

Imaginemos que queremos calcular el área de una región como la anterior. Un razonamiento rápido que podemos hacer es el siguiente. Contando los cuadrados de la retícula que están dentro de la región sabemos que su superficie va a ser mayor que el área de los 22 cuadrados interiores, es decir, mayor que 22 unidades cuadradas (si los cuadrados de la retícula son de un metro de lado, la región tendría más de 22 metros cuadrados), como se ve en la siguiente imagen.

Por otra parte, contando los cuadrados de la retícula que encierran a nuestra región sabemos que la superficie de la misma va a ser menor que 48 unidades cuadradas.

Pero, ¿cuál es el área exacta de esa región? Lo curioso de la respuesta a esta cuestión es que se puede calcular simplemente contando puntos. Miremos a la siguiente imagen. En ella hemos pintado los puntos que son vértices del retículo (las intersecciones de las líneas horizontales y verticales) que están en la frontera de nuestra región (los puntos verdes, B = 13) y los puntos que están en el interior de la misma (los puntos azules, I = 29).

El resultado del que vamos a hablar en esta entrada, el teorema de Pick, nos dice que el área de esa región es igual a

A = I + B/2 – 1 = 29 + 13/2 – 1 = 34,5 u.c.

Veamos, con un poco de geometría básica, es decir, utilizando simplemente que el área de un rectángulo es base por altura y que la de un triángulo es base por altura dividido entre dos, que es así. Como vemos en la siguiente imagen, en la que se ha descompuesto la región en rectángulos y triángulos, el área es efectivamente 34,5 unidades cuadradas.

Pero vayamos con el teorema de Pick. Este bello y curioso resultado geométrico se debe al matemático austriaco Georg Alexander Pick (1859-1942) –matemático judío que introdujo a Albert Einstein en la geometría del cálculo tensorial que este necesitaba para la teoría de la relatividad y que murió en el campo de concentración de Theresienstadt– quien lo publicó en 1899 en la revista Sitzungsberichte des deutschen naturwissenschaftlich-medicinischen Vereines für Böhmen «Lotos» in Prag. (Neue Folge) bajo el título Geometrisches zur Zahlenlehre (algo así como Resultados geométricos para la teoría de números). Aunque el resultado empezó a llamar la atención después de que fuese recogido en la edición de 1969, en inglés, del libro de divulgación matemática Mathematical Snapshots (publicado originalmente en polaco en 1938) del matemático polaco Hugo Steinhaus (1887-1972). Desde entonces se ha convertido en un resultado geométrico muy conocido, del que se han publicado diferentes demostraciones.

Dos de las páginas del artículo Geometrisches zur Zahlenlehre publicado en 1899 por el matemático austriaco Georg A. Pick

 

El teorema de Pick es sorprendente ya que nos permite calcular el área de una cierta región simplemente contando puntos, de la frontera y del interior, sin tener en cuenta otras cuestiones más directamente conectadas con la geometría de la región. El enunciado de este resultado es el siguiente.

Teorema de Pick: Sea P un polígono reticular y simple, entonces el área de la región encerrada por el polígono es igual a

A = I + B/2 – 1,

donde I son los puntos del retículo que están en el interior del polígono y B son los puntos del retículo que están en la frontera, es decir, en el polígono.

Antes de nada, vamos a explicar brevemente los conceptos que aparecen en este resultado. Un polígono reticular es un polígono trazado sobre una retícula, como en nuestro ejemplo, de forma que los vértices del polígono están sobre los vértices del retículo (como ya hemos comentado, los puntos intersección de las líneas horizontales y verticales de la retícula).

Por otra parte, un polígono reticular es simple si su frontera –los lados del polígono– no se intersecan entre sí. Para los polígonos reticulares no simples, como el del siguiente cuadrilátero de la imagen, no se verifica el resultado de Pick.

A continuación, veamos una idea de la demostración. El primer paso es observar que la fórmula del teorema de Pick, I + B/2 – 1, es aditiva, es decir, que si tenemos una región S cuya frontera es un polígono reticular simple y esta región es la unión de dos regiones más pequeñas –S es la unión de S1 y S2– cuyas fronteras son polinomios reticulares simples que verifican la fórmula de Pick, entonces también se verifica la fórmula para la región grande, unión de las regiones 1 y 2.

En la siguiente imagen tenemos un ejemplo de una región S que es unión de las regiones más pequeñas S1 y S2.

Además, hemos asumido que la fórmula del teorema de Pick se verifica para las regiones pequeñas S1 y S2,

A1 = I1 + B1/2 – 1,

A2 = I2 + B2/2 – 1,

veamos entonces que también se verifica para la región S, unión de las dos anteriores.

Para empezar, el conjunto de los puntos interiores de la región grande S está formado por los puntos interiores de las regiones pequeñas S1 y S2, más los puntos que están en la frontera poligonal común de las dos regiones S1 y S2, y que no están en la frontera poligonal de S (los puntos rojos de la imagen). Por lo tanto, la cantidad de puntos interiores de S es igual a

I = I1 + I2 + K,

donde K es la cantidad de esos puntos que están en la frontera poligonal común de las dos regiones S1 y S2, pero que no están en la frontera poligonal de S.

Respecto a los puntos que están en la frontera poligonal de la región S, son los puntos de la frontera poligonal de cada una de las dos S1 y S2, menos los K puntos que están en la frontera común. Aunque hay que tener cuidado de no contar dos veces los dos puntos que están en la frontera S1 y S2, pero también en la de S. Por lo tanto,

B = B1 – K + B2 – K – 2 = B1 + B2 – 2K – 2.

Ahora computemos la fórmula del teorema de Pick para la región S,

I + B/2 – 1 = (I1 + I2 + K) + (B1 + B2 – 2K – 2)/2 – 1,

que trivialmente es igual a

(I1 + B1/2 – 1) + (I2 + B2/2 – 1) = A1 + A2,

es decir, el área A de la región S.

El siguiente paso de la demostración para probar el teorema de Pick es que cada región cuya frontera es un polígono reticular simple se puede descomponer en triángulos (reticulares). Este resultado se puede probar por inducción sobre el número de vértices del polígono simple (considerando una diagonal interior del polígono).

Teniendo en cuenta los dos pasos anteriores, bastará probar que el teorema de Pick es verdadero para los triángulos reticulares, ya que si el resultado es cierto para los triángulos y todo polígono simple se puede dividir en triángulos, por la propiedad aditiva de la fórmula de Pick se concluye.

Veamos, por lo tanto, que la fórmula de Pick se cumple para los triángulos reticulares. Para empezar, consideremos un rectángulo, como el de la imagen, entonces la fórmula se cumple trivialmente. Si el rectángulo (reticular) tiene lados de longitudes a y b, entonces el número de puntos de la frontera es B = 4 + 2(a – 1) + 2(b – 1) = 2 (a + b) y el número de puntos del interior es I = (a – 1) x (b – 1) = abab + 1, luego

I + B/2 – 1 = ab,

el área A del rectángulo de lados a y b.

De aquí se va a deducir que también es verdad para triángulos rectángulos. Para lo cual se pueden considerar tres casos posibles: i) el cuadrado, ii) rectángulo con a y b son pares, y iii) rectángulo con al menos uno de los lados, a y b, impares. Por ejemplo, para este último caso, que es el que se corresponde con la siguiente imagen, se tiene que B = a + b + 1 e I = (abab + 1) / 2, para los que se comprueba que

I + B/2 – 1 = ab/2,

el área A del triángulo rectángulo de lados a y b.

Finalmente, habría que demostrar que la fórmula de Pick es válida para cualquier triángulo reticular. Para probarlo se empieza inscribiendo el triángulo en una zona rectangular, quedándonos una de las siguientes situaciones.

Ahora, que la fórmula de Pick se verifica para estos triángulos es una consecuencia de la propiedad aditiva de la fórmula y de que la misma se cumpla para los rectángulos y los triángulos rectángulos. Por ejemplo, para el primer caso, como la fórmula de Pick se cumple para el rectángulo en el que está inscrito nuestro triángulo, así como para los tres triángulos rectángulos de la imagen, entonces, por la propiedad aditiva de la fórmula de Pick, se tiene que cumplir también para la región que falta del rectángulo, que no es otra que la dada por nuestro triángulo inicial. Y de forma similar se actuaría para el segundo caso.

En consecuencia, ha quedado demostrado el teorema de Pick, puesto que toda región cuya frontera es un polígono reticular simple puede descomponerse en triángulos reticulares, para los cuales se cumple el teorema de Pick, deduciéndose el resultado para el polígono reticular inicial por la propiedad aditiva de la fórmula de Pick.

Ancestral Retro Mirage (Yakutsk, Rusia, 2019), del pintor, escultor y diseñador español Okuda San Miguel, en cuya obra tienen una importancia destacada las triangulaciones de color. Imagen de la página web de Okuda San Miguel

 

Existen varias demostraciones del teorema de Pick, algunas muy interesantes y hermosas, como las basadas en la fórmula de Euler o en el peso del polígono definido a través de los ángulos del mismo, pero de ellas ya hablaremos en otra ocasión.

Vamos a terminar esta entrada cuestionándonos si el resultado será cierto para el volumen de una región tridimensional similar, es decir, encerrada en un poliedro reticular. En 1957 el matemático británico John Reeve demostró, con el llamado tetraedro de Reeve, que no es posible un resultado análogo.

El tetratedro de Reeve es un tetraedro del espacio coordenado tridimensional cuyos vértices están en los puntos de coordenadas (0, 0, 0), (1, 0, 0), (0, 1, 0) y (0, 0, r), para r un número natural, como se muestra en la imagen (para r = 2, 3, 4).

Tetraedro de Reeve. Imagen del artículo de Alexaner Belyaev y P. A. Falloye, Counting Parallel Segments: New Variants of Pick’s Area Theorem, The Mathematical Intelligencer 41 (4), 2019

 

El volumen de estos tetraedros es r/6, es decir, varía con los diferentes valores de r. Sin embargo, todos estos tetraedros no tienen puntos interiores y tienen siempre cuatro puntos en su frontera, el tetraedro. Por lo tanto, no es posible un teorema de Pick ya que la cantidad de puntos interiores y frontera de esta familia de tetraedros reticulares no varía, pero sí el volumen de los mismos.

Bibliografía

1.- Martin Aigner, Günter M. Ziegler, El libro de las demostraciones, Nivola, 2005.

2.- Keith Ball, Strange Curves, Counting Rabbits and other Mathematical Explorations, Princeton University Press, 2003.

 

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Calcular el área contando puntos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El triángulo de Pascal para calcular tangentes
  2. Área = perímetro
  3. Paradojas: contando peces, pesando patatas y… detectando agujeros
Categorías: Zientzia

Actúa localmente: electrónica de papel

Mar, 2021/05/18 - 11:59
Foto: Thomas Renaud / Unsplash

La digitalización del mundo parece a estas alturas un hecho irreversible. Internet es ya accesible desde casi cualquier rincón del planeta y, donde no lo es, pronto será posible con proyectos como Starlink. Teléfonos móviles, tabletas, ordenadores y lo que se ha dado en llamar wearables, esto es, cosas que vestimos, como relojes o gafas inteligentes, cada vez serán más omnipresentes. La internet de las cosas será la guinda.

Un mundo hiperconectado, sí, pero también de recursos limitados.

Todos estos dispositivos se basan en el uso de materiales no renovables, algunos son reciclables es verdad, como la mayoría de los metales, pero eso es algo complicado y lo que es complicado es caro. Llegará un momento en que solo lo reciclado será económicamente viable, y eso ocurrirá cuando los recursos naturales se vuelvan tan difíciles de extraer que compense el proceso de reciclar.

Por tanto, la digitalización tal y como la conocemos implica a la larga un problema grave de materias primas. En estos días estamos viviendo en el mundo una situación similar con el suministro de chips, lo que conlleva que no se puedan fabricar coches suficientes para satisfacer la demanda, lo que dispara el mercado de los coches de segunda mano, lo que a su vez, dispara la inflación.

¿Será el futuro uno distópico en el que solo unos pocos privilegiados podrán permitirse el uso de los últimos dispositivos espintrónicos, de precio desorbitante, mientras el resto de la humanidad reutiliza componentes? No necesariamente. Los que ya tenemos una edad recordamos unos argumentos similares con el papel, hablo de justo antes de Internet. Periódicos y libros iban a acabar con los bosques del planeta. Pero no, sistemas inteligentes de gestión de los bosques industriales ha conseguido que hoy haya más superficie forestal en algunos países que hace tres décadas.

La gran diferencia con los materiales para la electrónica es que no pueden plantarse como los árboles, puede parecer un argumento definitivo. Pero, ¿y por qué no? Bastaría con que el soporte de la electrónica fuese papel y cartón. En vez de usar hilos de metal como conductores, el papel podría imprimirse con tintas conductoras. Parece de ciencia ficción, pero la solución es tan real como el problema global al que se enfrenta la humanidad.

El proyecto Innpaper, coordinado por Cidetec, se basa precisamente en esas características del papel que lo harían el soporte electrónico perfecto: barato, flexible, renovable y reciclable. Las fibras de celulosa del papel se pueden adaptar a casi cualquier propósito imaginable: conducir electricidad, repeler el agua, proteger de los campos magnéticos. El objetivo de Innpaper es desarrollar tintas y papeles funcionales con los que imprimir baterías, antenas, circuitos y hasta monitores; esto es, utilizar el papel no solo como sustrato sino también como componente activo en dispositivos electrónicos.

Los primeros usos de estos nuevos dispositivos podrían encontrarse en las industrias del envase y embalaje, la seguridad, la alimentación y la salud en forma de etiquetas inteligentes o dispositivos de detección de presencia de drogas, sustancias indeseadas, contaminaciones o enfermedades.

Como demostración de que la idea es viable, Innpaper pretende contruir tres dispositivos operativos concretos orientados a los sectores alimentario, de seguridad y médico. Los tres casos de uso integrarán diferentes sensores en la plataforma electrónica en papel, adaptada a los requisitos de la industria. Para el sector alimentario, etiquetas inteligentes para envasado de alimentos que incluyen sensores de humedad, temperatura y presión; para el de seguridad, un dispositivo para la detección de cafeína y drogas en bebidas y saliva; y, para el médico, un sistema para la detección de la presencia del virus de la gripe y de bacterias estreptococos.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Actúa localmente: electrónica de papel se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Actúa localmente: convertidores de potencia basados en carburo de silicio
  2. Actúa localmente: la espintrónica que viene
  3. Actúa localmente: simulaciones hiperrealistas
Categorías: Zientzia

Viaje al corazón de la transición ecológica

Lun, 2021/05/17 - 11:59

María Larumbe / GUK

Trabajos de campo en la mina Gonçalo (Portugal). En la parte inferior puede observarse un dique subhorizontal de pegmatita enriquecida en lepidolita (mena de litio), de tonos rosados. El dique está encajado en roca granítica (material gris). En la imagen el doctor Jon Errandonea Martin señala hacia la mena mientras con el metro provee de escala a la fotografía.

Desde la prehistoria, el hombre ha explotado la tierra para la fabricación de herramientas, armas y material de construcción extrayendo piedras, materiales cerámicos y metales. La minería es, de facto, una de las profesiones más antiguas del mundo y, pese a todos los avances tecnológicos, el ser humano sigue siendo muy dependiente de los minerales en su día a día.

De hecho, algunos de los elementos, como el litio, que se encuentran en minerales concretos, son la base de los teléfonos móviles, tablets y otros dispositivos electrónicos, así como de las baterías de coches eléctricos, imprescindibles para realizar la transición ecológica y minimizar la huella de carbono. Su extracción, que se hace principalmente a partir de dos tipos de depósitos: salmueras y pegmatitas, paradójicamente, no siempre es todo lo ecológica que cabría esperar: pudiendo impactar de forma negativa en la flora y fauna de los alrededores, contaminar el aire, las aguas superficiales y provocar daños en la superficie de la tierra.

En este contexto, desarrollar nuevas técnicas menos invasivas de exploración de metales que se utilizan en la tecnología verde se ha convertido en una prioridad. Este es uno de los principales objetivos de GREENPEG, un proyecto europeo que busca desarrollar tecnologías de exploración avanzada que se puedan utilizar en la búsqueda de pegmatitas. Se trata de rocas ígneas de composición granítica, principalmente constituidas por cuarzo, feldespato y mica, que pueden contener otros minerales enriquecidos en metales como litio, cesio o tantalio, con importantes aplicaciones en el desarrollo de dispositivos electrónicos o en el coche eléctrico.

La doctora Idoia Garate Olave observando algunas de las muestras de lepidolita (en la pantalla), por medio de un microscopio petrográfico.

Dentro de este proyecto participan varias empresas de exploración y minería y diferentes universidades de Europa. Entre ellas, el grupo de investigación que dirige la doctora Encarnación Roda-Robles, geóloga e investigadora principal de la Facultad de Ciencia y Tecnología de la UPV/EHU. Desde su grupo, VARISBLIP, se encargan de una parte muy destacada del proyecto, el diseño de las herramientas de exploración de las rocas pegmatíticas de tipo LCT (Litio-Cesio-Tantalio), que contienen estos minerales, para la explotación de material relacionado con las energías verdes. “Estas herramientas que vamos a diseñar queremos que sean fáciles y rápidas en el uso, económicas y poco invasivas para el medio ambiente”, explica la doctora Roda-Robles.

Cristales de lepidolita (mena de litio) vistos al microscopio petrográfico.

Otro de los objetivos de este proyecto es reducir la dependencia de Europa de otros países como China y Australia, pioneros en la explotación del litio, y favorecer la explotación de los recursos minerales que tiene Europa de una forma más sostenible, económica y menos invasiva. Para ello, el grupo de investigación está centrado en el estudio de las rocas pegmatíticas que, como indica la doctora, “pueden ser particularmente ricas en metales tecnológicos, aunque a menudo presentan pequeñas dimensiones y son difíciles de encontrar por medio de técnicas de exploración tradicionales”.

Pegmatitas, el “cerdo” de la tierra

Cristales de espodumena (mena de litio) en una masa de roca pegmatítica (mina Alberto, Salamanca)

Las pegmatitas son unas rocas muy interesantes ya que de ellas se extraen elementos poco abundantes en la corteza terrestre, y también piedras preciosas como pueden ser el aguamarina o la turmalina. Según explica la doctora y responsable del grupo de investigación, de estas rocas “se puede aprovechar todo, como del cerdo: desde la obtención de minerales industriales como el cuarzo y el feldespato o las micas, pasando por metales como el litio, tantalio o estaño, o incluso piedras preciosas para la industria joyera y para colecciones de minerales, tanto de museos o de particulares”.

Cristales de espodumena (mena de litio) vistos al microscopio petrográfico.

Estas rocas tienen una gran importancia para realizar la transición ecológica. De las pegmatitas se pueden extraer metales como el litio, el cesio, o el tantalio, que son elementos indispensables en la fabricación de dispositivos de energía verde como, por ejemplo, dispositivos para el almacenamiento de energía, en células fotovoltaicas, para la fabricación de turbinas eólicas y condensadores o en los móviles, cámaras y tablets.

En este sentido, como explica la doctora Rodas-Robles, “Europa es muy dependiente del exterior para poder fabricar estas baterías de litio. Son ya conocidos algunos depósitos de litio de la Península Ibérica, y hay un buen número de indicios geológicos que señalan que este es un territorio muy rico en este elemento. Ahora tenemos que buscarlo”. Dentro del proyecto, desde el grupo de investigación están trabajando en Arribes del Duero (Salamanca), Almendra y Gonçalo (Portugal), Tres Arroyos (Badajoz) y en distintas localidades de Cáceres. Su objetivo es abordar la exploración de estas rocas a distintas escalas: desde la localización, el muestreo y el análisis de rocas. El proyecto se inició hace un año, en mayo de 2020, y se desarrollará durante cuatro años y medio.

Hacia una minería más ecológica

La investigación que está llevando a cabo el equipo de la doctora Rodas-Robles tiene dos partes principales. La primera es realizar un estudio litogeoquímico, es decir, investigar la huella que ha dejado la pegmatita dentro de la roca donde está encajada. En concreto, su trabajo consiste en el muestreo y análisis de rocas mineralizadas en litio de la Península Ibérica con el objetivo de determinar la extensión y cuantía de la huella química dejada por los diques pegmatíticos mineralizados en litio en las rocas que los albergan.

“Una vez obtengamos estos datos, los complementaremos con estudios de sedimentos de arroyos y suelos, ya que siempre que se produce una anomalía química en una roca, el aumento en la concentración de los elementos implicados se va a reflejar no solo en las rocas cercanas, sino también en los suelos que se forman a partir de esas rocas y en los depósitos de los ríos.”

Al no necesitar de la realización de sondeos ni excavaciones en roca, esta herramienta de exploración tendrá la ventaja de ser más rápida y económica, al mismo tiempo que menos invasiva, con un impacto mínimo en las zonas de estudio, que en el caso de la Península Ibérica se desarrollará a pequeña escala, en áreas con un radio limitado a 25 kilómetros.

Aunque la dependencia de los minerales siga siendo evidente, si el ser humano quiere mantener su estilo de vida y garantizar un futuro para las generaciones que están por llegar, es necesario pensar en verde. O al menos eso se deduce de la Agenda 2030 de la Organización de las Naciones Unidas para transformar el mundo durante esta década. O de iniciativas como GREENPEG que tratan de recuperar la competitividad del sector de la minería desde una perspectiva sostenible y con la mirada puesta en reducir las emisiones de CO2, apostando por el coche eléctrico en detrimento de los combustibles fósiles.

Foto de todos los miembros del equipo de investigación VARISBLIP, tomada en una zona de estudio (Alburquerque, Badajoz). De izquierda a derecha: Pedro Pablo Gil Crespo, Jon Errandonea Martin, Idoia Garate Olave, Alfonso Pesquera Pérez y Encarnación Roda Robles.

Encarnación Roda-Robles es geóloga e investigadora principal del grupo de investigación VARISBLIP de la Universidad del País Vasco UPV/EHU.

El artículo Viaje al corazón de la transición ecológica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La variedad de residuos madereros y la riqueza ecológica de los hayedos
  2. Un viaje al pasado a lomos del coltán
  3. Nivel formativo y transición demográfica
Categorías: Zientzia

Obesidad y adicción a la comida: un problema emergente de salud pública

Dom, 2021/05/16 - 11:59

Gabriel Rubio Valladolid y Francisco López-Muñoz

Foto: Shutterstock / Creativa Images

 

La obesidad representa un importante problema de salud pública, no solamente por el número de personas afectadas, sino por las severas complicaciones médicas y los costes sanitarios que ocasiona. Se considera obesidad cuando una persona tiene tiene un índice de masa corporal (IMC) igual o superior a 30 kg/m². Un IMC igual o mayor de 40 kg/m² se considera obesidad extrema. El sobrepeso queda definido entre 25 y 29,9 kg/m².

Según la Organización Mundial de la Salud, desde la década de 1980 hasta la actualidad se ha duplicado la prevalencia mundial de la obesidad. En países como España, el 39,4 % de la población adulta tiene sobrepeso y el 22,9 %, obesidad. Si esta tendencia continúa en incremento, se estima que en 2030 la cantidad de personas con exceso de peso aumentará un 16 % más, lo que supondría un coste añadido de 3 100 millones de euros anuales, solo de costes médicos.

¿Qué es la adicción a la comida?

La adicción a la comida es una propuesta teórica con importantes apoyos experimentales y clínicos. Esta considera que algunos individuos pueden sufrir una respuesta similar al consumo de drogas cuando ingieren alimentos con alto contenido de grasa o carbohidratos refinados como el azúcar (Figura 1).

Una reciente revisión sistemática analizó 52 estudios sobre obesidad y adición a la comida publicados entre 1999 y 2017, tanto clínicos como realizados en animales de experimentación. Sus resultados pusieron de manifiesto que los criterios que estaban presentes en ambos trastornos eran:

  • Preocupación por la comida.
  • Comer en exceso a pesar de los riesgos para la salud.
  • Perder el control sobre la ingesta.
  • Malestar cuando se hace régimen de adelgazamiento.
  • Deterioro de la vida social debido al sobrepeso.
  • Cronicidad del trastorno.
  • Tendencia a las recaídas.

Esta teoría sigue siendo controvertida, sobre todo porque las investigaciones que pretenden identificar el agente adictivo en los alimentos (por ejemplo, el azúcar añadido) están en sus fases iniciales.

Sin embargo, cada vez hay más apoyo a que la adicción a la comida podría relacionarse con un fenotipo presente en un subgrupo de personas con obesidad. Cuando se ha utilizado la escala de Yale para la adicción a la comida se ha constatado la presencia de este trastorno en pacientes que presentan atracones de comida, en quienes sufren frecuentes ciclos de adelgazamiento y engorde debido a las dietas, y en personas con obesidad.

Entre las personas con obesidad, la prevalencia de la adicción oscila entre el 15 y el 25 % y se considera el factor causal del desarrollo del sobrepeso. En un reciente trabajo realizado en población general norteamericana se ha confirmado que, de los 986 individuos representativos de ese país, el 15 % cumplía criterios de la adicción y se asociaba a la presencia de obesidad, edad joven, mujeres con elevado índice de masa corporal y a menores ingresos económicos.

Modelo de adicción a la comida

Como se observa en la Figura 1, la comida, y de forma más clara la comida rica en hidratos de carbono o grasas agradables al paladar (como los que aparecen en el lado izquierdo de la figura), interaccionan con el organismo a través de tres sistemas.

Por un lado, la ingesta provoca la liberación de hormonas producidas en diferentes órganos, como el estómago o el páncreas, o el tejido adiposo. Estos mediadores interaccionan con el hipotálamo para modular la sensación de hambre o de saciedad.

Por otro lado, también estimulan el sistema hedónico implicado en la recompensa cerebral, a través de la dopamina, como ocurre con sustancias como el alcohol o la cocaína.

La historia de aprendizaje previo que cada sujeto haya realizado con la ingesta de diferentes alimentos, en circunstancias y estados emocionales diversos, facilita el aprendizaje por condicionamiento. De esta manera el sujeto vuelve a querer ingerir dichos alimentos cuanto se repiten esos contextos.

La interacción con esos sistemas pone en marcha los mismos tres estadios que ocurren en la adicción a drogas. Inicialmente, la persona asocia determinados alimentos con una sensación placentera inducida por la dopamina en el circuito de la recompensa.

Posteriormente, el sujeto percibe que echa de menos la ingesta de esos alimentos, y con el tiempo experimenta el deseo o ansia por los mismos. De esa forma, y con mayor frecuencia, cuando atraviesa estados emocionales negativos (aburrimiento, ira o ansiedad) o está expuesto a esos alimentos, siente una importante ansia. Esto provoca la compulsión por ingerirlos.

Los estudios de imágenes cerebrales indican que los circuitos alterados en personas con obesidad son los mismos que se encuentran alterados en personas con adicción a drogas de abuso y pone en evidencia un desequilibrio entre los que motivan las conductas (por su implicación en la recompensa y el condicionamiento) y los que controlan e inhiben las respuestas de alimentación.

El modelo de la Figura 2 muestra estos 4 circuitos: (i) recompensa-saliencia; (ii) motivación-impulso; (iii) aprendizaje-memoria; y (iv) circuito de control inhibitorio.

En los individuos vulnerables, el consumo de alimentos apetecibles, en grandes cantidades, puede alterar el equilibrio normal entre estos circuitos. Esto da lugar a un mayor valor hedónico de los alimentos y a un debilitamiento del control inhibitorio. La exposición prolongada a dietas hipercalóricas también puede alterar directamente el aprendizaje condicionado y, por tanto, reajustar los umbrales de recompensa en esas personas. Los cambios en las redes corticales descendentes que regulan las respuestas prepotentes conducen a la impulsividad y a la ingesta compulsiva de alimentos.

¿Qué importancia tiene esto en el tratamiento de la obesidad?

El hecho de desconocer que al menos un subgrupo de personas con obesidad pueda tener adicción a la comida tiene graves repercusiones para la planificación del programa de tratamiento.

En primer lugar, en ellos el adecuado seguimiento del tratamiento dietético no es un problema de voluntad. Las dificultades de estas personas para resistir el valor motivacional de la comida constituyen una barrera que los profesionales deben conocer para evitar la injusta culpabilización y el consiguiente estigma de las personas con obesidad. Muchos de ellos lo expresan con frases como: “No como para disfrutar, sino para evitar encontrarme mal”.

Una idea muy extendida es que todas las personas deben perder peso si ingieren menos calorías de las que gastan. Este planteamiento lineal no se sostiene en personas con obesidad y adicción a la comida, donde el estado de estrés crónico es la norma.

En esas condiciones, la activación del eje hipotálamo-hipófisis-adrenal provoca una elevación del cortisol y de los glucocorticoides, que favorece la producción de tejido adiposo visceral y la ingesta de alimentos. Además, decrece la producción de leptina y se incrementa la producción de grelina, aumentando las sensaciones de hambre.

Asimismo, se produce un aumento de la insulina y del neuropéptido Y, el cual incrementa la ingesta de alimentos, especialmente aquellos con alto contenido en azúcares y grasas. La sobreingesta de azúcares, en esas circunstancias, puede interrumpir las señales de saciedad, modificando los mecanismos fisiológicos homeostáticos que regulan la ingesta energética y llevan a los individuos a un aumento de la misma (comer hedónico).

Si el efecto de las dietas “yo-yo” (adelgazamiento y pronta recuperación del peso) es muy frecuente, más lo es todavía en personas con adicción a la comida, y de hecho estos altibajos suelen agravarla.

En los casos de personas que se someten a cirugía bariátrica, los equipos de tratamiento deberían adaptar el programa de tratamiento posterior y llevar a cabo intervenciones psicoterapéuticas orientadas a la adicción, así como tener en cuenta la tendencia de estas personas a desarrollar otras, como por ejemplo al alcohol.

Otro elemento a tener en cuenta es la elevada prevalencia de trastornos depresivos y de ansiedad entre los sujetos obesos. La creencia de que estas personas suelen estar contentas es otro error y el infradiagnóstico de estos trastornos la norma.

Finalmente, otro asunto relevante es el de la exclusión o no de los alimentos con elevada capacidad adictiva (chocolate, hamburguesas, bollería industrial). En bastantes dietas se permite que las personas puedan ingerir, al menos un día a la semana, los alimentos que deseen. Sin embargo, en las personas con adicción a la comida se debe tener un exquisito cuidado con este tipo de recomendaciones.

Como en otras conductas adictivas (alcohol, juego), la publicidad alienta al consumo de este tipo de comida (basura). En este sentido, la Administración debería incluir advertencias en el etiquetaje o informar sobre los riesgos de determinados alimentos sobre la salud.The Conversation

Sobre los autores: Gabriel Rubio Valladolid es catedrático de psiquiatría en la Universidad Complutense de Madrid y Francisco López-Muñoz profesor titular de farmacología en la Universidad Camilo José Cela

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Obesidad y adicción a la comida: un problema emergente de salud pública se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Campañas de salud pública con efecto bumerán
  2. La obesidad infantil podría iniciarse antes de la concepción
  3. Obesidad y delgadez también se heredan
Categorías: Zientzia

Iñaki Úcar – Naukas 19: Aprendiendo de las máquinas

Sáb, 2021/05/15 - 11:59
Imagen: Pixabay

La inteligencia artificial es la ciencia de conseguir que las máquinas hagan cosas que, si las hiciesen los humanos, requerirían de eso que llamamos inteligencia. En esta definición no se dice que las máquinas piensen, ni que las metáforas asociadas (algoritmo genético, red neuronal) tengan que ver con la realidad biológica, ni siquiera que tengan que aprender de los humanos. De hecho, aprender de las máquinas puede ser uno de los principales hitos del presente siglo.

Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute. Podeís leerle en Aprendiendo de las máquinas.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Iñaki Úcar – Naukas 19: Aprendiendo de las máquinas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Aprendiendo de las máquinas
  2. Las máquinas moleculares que han ganado un Nobel
  3. Máquinas inteligentes (II): Inteligencia artificial y robótica
Categorías: Zientzia

El grafeno, un caballo de Troya contra los peces

Vie, 2021/05/14 - 11:59
Foto: UPV/EHU

El grafeno es un nanomaterial bidimensional compuesto por carbono, formado por una sola capa de átomos de carbono densamente empaquetados. Su elevada resistencia mecánica y sus importantes propiedades eléctricas y térmicas hacen que el grafeno sea muy apropiado para muchas aplicaciones nuevas en los campos de la electrónica, los sensores biológicos, químicos y magnéticos, los fotodetectores y el almacenamiento y la generación de energía. Debido a sus potenciales aplicaciones, se espera que la producción de grafeno aumente considerablemente en los próximos años, pero dada su escasa implantación en el mercado y las limitaciones para el análisis de sus efectos, en la actualidad todavía no se dispone de mucha información sobre las concentraciones de nanomateriales de grafeno en los ecosistemas.

Como consecuencia de las características superficiales del grafeno, una vez en el medio acuático, el grafeno podría actuar como portador de contaminantes orgánicos, como los hidrocarburos aromáticos policíclicos, para los organismos acuáticos. En este sentido, el grupo de investigación CBET (Biología Celular en Toxicología Ambiental) ha evaluado la capacidad del óxido de grafeno para adsorber hidrocarburos aromáticos policíclicos y la toxicidad del óxido de grafeno solo y en combinación con ciertos hidrocarburos aromáticos policíclicos en embriones y adultos de pez cebra. La investigación ha sido realizada en colaboración con la Universidad de Burdeos.

“Los resultados han puesto de manifiesto que el óxido de grafeno puede portar hidrocarburos aromáticos policíclicos al interior del pez cebra (mediante una especie de efecto de caballo de Troya) y producir efectos subletales. En las condiciones que empleamos, los efectos tóxicos no han sido enormes, no han muerto peces ni embriones, pero en algunos biomarcadores hemos detectado efectos que nos ponen sobre aviso”, ha señalado Amaia Orbea, doctora del grupo CBET de la UPV/EHU.

Por un lado, han detectado que en los embriones puede haber malformaciones a altas concentraciones, “lo que significa que en exposiciones más largas y en concentraciones más altas es posible que nazcan animales inviables”, explica Orbea. Por otro lado, en esta investigación han comprobado que “a largo plazo, en una exposición de tres semanas, la enzima acetilcolinesterasa, que frena los estímulos nerviosos, estaba inhibida en todos los peces tratados, por lo que a pesar de no utilizar concentraciones muy altas, hemos visto que al aumentar el tiempo de exposición empiezan a aparecer efectos neurotóxicos”, ha señalado la investigadora.

“Nosotros hemos utilizado unas concentraciones y unos plazos concretos, pero desconocemos la evolución que tendrán estas concentraciones a partir de ahora en la naturaleza y su posible influencia en relación con otros contaminantes. Los resultados nos han demostrado que las concentraciones que pueden existir en este momento en el medioambiente no son muy peligrosas, pero tenemos que tener cuidado: no sabemos qué efectos pueden tener estas concentraciones bajas en exposiciones más largas. Los resultados obtenidos están relacionados con las condiciones aplicadas en nuestros experimentos. Normalmente no encontramos grafeno solo en el medio ambiente; junto al grafeno hay muchos otros contaminantes que también afectan a los animales… Deberíamos considerarlos todos a la vez”, ha concluido.

Referencia:

Ignacio Martínez-Álvarez, Karyn Le Menach, Marie-Hélène Devier, Iranzu Barbarin, Radmila Tomovska, Miren P. Cajaraville, Hélène Budzinski, Amaia Orbea (2021) Uptake and effects of graphene oxide nanomaterials alone and in combination with polycyclic aromatic hydrocarbons in zebrafish Science of the Total Environment doi: 10.1016/j.scitotenv.2021.145669

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El grafeno, un caballo de Troya contra los peces se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Construcción de heteroestructuras de grafeno con precisión atómica
  2. Una fuente de radiación terahertz usando grafeno
  3. Un gigantesco efecto espín-órbita confina a los electrones del grafeno en islas de plomo
Categorías: Zientzia

Kepler y la simetría de los copos de nieve

Jue, 2021/05/13 - 11:59
Foto: Olga Sytina & Alexey Kljatov

En enero de 1611, Johannes Kepler le hizo un regalo verdaderamente peculiar a su amigo y benefactor, Johannes Matthaeus Wacker von Wackenfels. Para celebrar el Año Nuevo le entregó una carta en la que explicaba por qué los copos de nieve tienen forma hexagonal.

Kepler, que en aquel momento ejercía como matemático imperial en la corte del emperador Rodolfo II, había empezado a reflexionar sobre este tema después de un paseo de invierno por Praga. Al observar los copos de nieve que caían sobre su abrigo, “todos con seis esquinas y radios emplumados”1, pensó que aquel era un motivo perfecto para escribir un ensayo con el que sorprender a su amigo:

“Algo más pequeño que cualquier gota, pero con un patrón subyacente. Aquí estaba el obsequio de Año Nuevo ideal para quien no necesita nada, justo lo que un matemático puede regalar […] puesto que procede del cielo y parece una estrella».

Hoy, la simetría de los copos de nieve nos resulta tan familiar, que sus seis puntas se han convertido en un icono del invierno, y de los festejos navideños que acompañan a esta época del año en nuestro hemisferio. Pero, por sorprendente que pueda parecer, Kepler fue el primer europeo en escribir sobre esta cuestión a comienzos del siglo XVII —en China, en cambio, varios siglos antes de nuestra era, T’ang Chin ya había propuesto una explicación de numerológica; argumentaba que “dado que el seis es el verdadero número del agua, cuando el agua se congela en flores, estas han de tener seis puntas”2.

El físico alemán intenta averiguar los motivos que subyacen a este número. «Debe haber una causa por la cual la nieve tiene la forma de una estrella de seis esquinas», escribió en su breve ensayo. “No puede ser casualidad. ¿Por qué siempre seis?”. Esta pregunta, tan sencilla en apariencia, aún tardaría varios siglos en encontrar una respuesta precisa. Pero la curiosidad de Kepler le lleva a intuir, hace cuatrocientos años, las bases de lo que hoy constituye la ciencia de la cristalografía.

Según describe en El copo de seis puntas, «la unidades naturales más pequeñas de un líquido como el agua» (eso que hoy entendemos como átomos o moléculas) se agrupan a escala infinitesimal de la manera más compacta posible. En un tono siempre poético y recreativo, Kepler imagina esas partículas como pequeñas esferas microscópicas y argumenta que el hexágono es, precisamente, la figura que optimiza su empaquetamiento. Aquí estaba en deuda con el matemático inglés Thomas Harriot, quien había resuelto este mismo problema geométrico en 1585. Lo había hecho a bordo de un navío. Como asesor científico de una expedición a las Américas, le encargaron encontrar la manera más compacta de apilar las balas de cañón en la cubierta de los buques, y la simetría hexagonal no tardó en aparecer.

Hoy sabemos que esta explicación peca un poco de simplista. Si bien es cierto que la materia está formada por partículas elementales, diminutas e idénticas entre sí, las moléculas de agua tienen una forma más compleja que la de una esfera, en realidad. A falta de este dato, Kepler no consigue entender por qué, al apilarse, acaban dando lugar a cristales planos, como los copos de nieve. Tampoco puede explicar la diversidad de otro tipo de cristales, cuyas formas no siempre son hexagonales. El mismo Kepler se da cuenta de esta limitación y termina su ensayo aclarando que aún queda investigación por delante:

“He llamado a las puertas de la química y veo cuánto queda por decir antes de que podamos comprender nuestra causa».

Pero incluso en esta claudicación aparente, Kepler termina estando en lo cierto. A fin de cuentas, la clave de esta hermosa simetría se encuentra en la química de las moléculas. Los átomos de oxígeno del agua ocupan un volumen mayor y tienden a empaquetarse en una red hexagonal, pero son los enlaces que forma el hidrógeno entre las moléculas los que facilitan que el crecimiento del cristal en seis direcciones de forma regular. Gracias a estas fuerzas invisibles, podemos admirar una pequeña escultura de agua que, como decía Kepler “procede del cielo y parece una estrella”.

Referencias:

1Kepler, Johannes. The Six-Cornered Snowflake. Oxford University Press, 1966.

2Schlichting, H. Joachim. “La belleza cristalina de los copos de nieve.” Investigación y Ciencia, 2017, pp. 88-89. Investigación y Ciencia, https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/la-observacin-de-ondas-gravitacionales-695/la-belleza-cristalina-de-los-copos-de-nieve-14944.

Para saber más:
Copos de nieve, Frankenheim o el nuevo Euclides

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Kepler y la simetría de los copos de nieve se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cristalografía (5): Copos de nieve, Frankenheim o el nuevo Euclides
  2. El microondas es seguro, lo que hace es calentar
  3. Presión y volumen de un gas
Categorías: Zientzia

Con Maryam Mirzakhani como inspiración, hoy se celebra el «Día de las Mujeres Matemáticas»

Mié, 2021/05/12 - 11:59

 

Nos dijeron que no podíamos hacer matemáticas porque éramos mujeres. […] Hubo mucho desdén flagrante y manifiesto, pero también hubo un estímulo sutil. Había mucha gente que apreciaba los buenos estudiantes, hombres o mujeres, y yo era una muy buena estudiante. Me gustó hacer lo que se suponía que no debía hacer, fue una especie de rebelión legítima.

Karen Uhlenbeck (1942), Premio Abel 2019. Cita original en este enlace.

Hace dos años, el 12 de mayo de 2019, se celebró por primera vez el Día de las Mujeres Matemáticas, una iniciativa propuesta por el Comité de Mujeres y Matemáticas de la Sociedad Matemática Iraní durante el World Meeting for Women in Mathematics, un evento satélite del International Congress of Mathematicians 2018. La fecha se eligió en homenaje a la matemática iraní Maryam Mirzakhani (1977-2017), nacida un 12 de mayo, y única mujer en haber ganado una Medalla Fields.

En este día de celebración de las aportaciones de las mujeres matemáticas comparto una iniciativa creada por el equipo del Núcleo Milenio Modelos Estocásticos de Sistemas Complejos y Desordenados de la Universidad de Chile y la Pontificia Universidad Católica de Chile.

Se trata de una serie de cuatro cuentos ilustrados –de momento, aunque su idea es continuar con al menos uno más dedicado a Sophie Germain–, pensados para edades comprendidas entre los 6 y los 10 años, y centrados en las figuras de cuatro mujeres matemáticas.

Al final de cada cuento se añade un glosario que pretende aclarar los conceptos matemáticos y físicos que se citan en el texto, así como dar algunos datos sobre los científicos aludidos.

La extraordinaria Emmy Noether (2017)

Los dibujos son de la ilustradora Paloma Valdivia, y los textos de ella misma y del escritor y periodista Matías Celedón. El matemático Gregorio Moreno se ha encargado de revisar los contenidos científicos.

Además de las dificultades en su vida –fundamentalmente por ser mujer y judía en la Alemania de principios del siglo XX– el cuento repasa algunas de las aportaciones matemáticas de Emmy Noether (1882-1935).

El libro alude, por ejemplo, a su colaboración con los matemáticos David Hilbert y Felix Klein en problemas relacionados con la teoría de la relatividad de Albert Einstein. También se menciona que sus matemáticas, aunque abstractas, tuvieron repercusiones muy relevantes en física.

La ingeniosa Maryam Mirzakhani (2018)

Los dibujos son de la ilustradora Paloma Valdivia, los textos de ella misma y del escritor y periodista Matías Celedón, y el matemático Gregorio Moreno se ha ocupado de revisar los contenidos científicos.

La narración comienza cuando Maryam Mirzakhani (1977-2017) era una niña que leía con pasión y soñaba con ser escritora. Al principio no se le daban demasiado bien las matemáticas, pero gracias a una profesora que confío en ella y a su amiga Roya, se enamoró de esta materia.

El cuento alude a su trabajo en superficies hiperbólicas en los comienzos de su investigación, a su costumbre de ‘dibujar garabatos’ para centrarse en el problema en el que estaba pensando, y en los problemas de billares en los que también investigó. Por supuesto también se alude al galardón que recibió en 2014: la Medalla Fields, siendo Maryam la primera mujer en obtenerlo.

La incansable Olga Oleinik (2019)

Los dibujos son de las ilustradoras Magdalena Pérez y Paloma Valdivia y los textos de la profesora de literatura Mónica Bombal y el matemático Gregorio Moreno.

La narración comienza hablando de la situación de guerra en Ucrania, en el momento en el que nació Olga Arsenievna Oleinik (1925-2001). Cuando el ejército alemán invadió el lugar en el que vivía, la familia tuvo que huir para trasladarse a los Urales. También evacuaron a esa zona al Departamento de Física y Matemáticas de la Universidad Estatal de Moscú y así, de manera totalmente inesperada, Olga pudo estudiar con los más destacados científicos rusos.

En la época de la Guerra Fría, ya en Moscú, pudo completar su tesis doctoral sobre ecuaciones en derivadas parciales: su director fue Ivan Georgevic Petrovsky.

Escribió más de 350 artículos de investigación y tutorizó más de 50 tesis doctorales, además de colaborar con científicas y científicos de otros muchos países.

La rebelde Sofya Kovalevskaya (2020)

Los dibujos son de la ilustradora Magdalena Pérez y los textos de la profesora de literatura Mónica Bombal y el matemático Gregorio Moreno.

El texto comienza comentando el entorno familiar de Sofia Kovalevskaya (1850-1891) y las influencias que tuvo de sus antepasados a través de sus diferentes pasiones.

Un amigo de su padre descubrió sus enorme capacidad e intuición para las matemáticas, aunque en Rusia no tenía posibilidad de estudiar. Gracias a su matrimonio de conveniencia con Vladimir Kovalevski, Sofía pudo salir de su país. Se puso en contacto con Karl Weierstrass quien, tras ponerla a prueba y comprobar su brillantez, se convirtió en su mentor y la ayudó a conseguir un doctorado en Matemáticas en la Universidad de Gotinga.

Tras conseguir un contrato en la Universidad de Estocolmo gracias a la ayuda del matemático Gösta Mittag-Leffler –aunque tuvo que trabajar sin salario durante un año–, Sofía ganó el Premio Bordin de la Académie des sciencies de Francia por un trabajo sobre la rotación de sólidos alrededor de un punto fijo.

Bonus

Aunque la matemática iraní Maryam Mirzakhani inspiró la celebración del Día de las Mujeres Matemáticas, la enfermera y estadística Florence Nightingale (1820-1910) también nació tal día como hoy, hace 201 años.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Con Maryam Mirzakhani como inspiración, hoy se celebra el «Día de las Mujeres Matemáticas» se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los experimentos de Alex Plota o cómo las matemáticas revelan los resultados de una reacción química
  2. El rostro humano de las matemáticas
  3. ¿Cómo mejorar la comunicación entre las matemáticas y las ciencias de la vida?
Categorías: Zientzia

Actúa localmente: blockchain para la cadena de suministros

Mar, 2021/05/11 - 11:59
blockchainFuente: Tecnalia

En un mundo cada vez más interconectado los datos, y la información que se extrae de ellos, son un recurso de un valor económico incalculable. Por otra parte esa misma interconexión permite que grupos de hackers delincuentes* puedan atacar remotamente instalaciones, ya sea para provocar el caos, ya sea para pedir rescates.

Una de las actuaciones que estos delincuentes pueden llevar a cabo es alterar la trazabilidad de las cosas. Por ejemplo, puede alterar todos los registros que indican que un determinado producto se fabricó en determinado lugar en determinada fecha por un agente concreto. La utilidad de esto se encuentra rápidamente si pensamos criminalmente: ese producto podría ser un pasaporte falso, un cargamento de explosivos o una partida de fármacos defectuosa. Igualmente los delincuentes pordrían alterar el destino de mercancías con solo alterar los datos asociados a ellas en los registros correspondientes.

Un caso especialmente preocupante de lo anterior, porque nos puede tocar a cualquiera en donde más duele, es alterar la cadena de custodia de nuestro dinero en nuestras cuentas corrientes o la propiedad de nuestros activos financieros, empezando por la suplantación de nuestra identidad. Existe todo un subgénero cinematográfico dedicado a este peligro.

La ciberseguridad se ocupa precisamente de proteger nuestra identidad en la red y garantizar que solo nosotros podamos acceder a lo que es nuestro. En este sentido un prodecimiento que sea capaz de asegurar que una cadena de transacciones es inalterable porque cualquier intento de alterarla queda inmediata y automáticamente al descubierto sería más que útil. Este prodecimiento y la tecnología asociada existe: blockchain. Sin duda asociamos este término con las criptomonedas en general y con el bitcoin en particular.

Iñaki Úcar explicaba así qué es el blockchain:

El blockchain surge en 2009 como solución a un problema clásico de sistemas de moneda virtual descentralizados: el problema del doble gasto. Las divisas tradicionales funcionan porque hay una entidad central que se encarga de su buen funcionamiento, y en la que el sistema económico y financiero deposita su confianza (e.g., el Banco Central Europeo). Con la adopción de Internet y los sistemas distribuidos, surge un interés en el desarrollo de divisas digitales que no dependan de un mediador de confianza, pero todos los planteamientos chocan frontalmente con el problema del doble gasto: que una misma moneda (en el sentido de “unidad básica” de la divisa) pueda ser falsificada y gastada más de una vez. En 2009 el creador del bitcoin (bajo el pseudónimo Satoshi Nakamoto) propone una solución basada en un triple enfoque: todas las transacciones se comparten públicamente; las transacciones válidas se determinan por un sistema de prueba de trabajo (proof of work); y se incentiva económicamente la contribución a este sistema (por los llamados mineros).

Estos tres pilares se integran en la tecnología blockchain, que no es más que la unión de dos técnicas bien conocidas y desarrolladas: los árboles Merkle y la criptografía (en forma de firma digital de clave pública y funciones hash). El árbol Merkle es una estructura de datos ideada y patentada en 1979 por Ralph Merkle, diseñada para concatenar información de forma que un nodo dado permite verificar de forma segura y eficiente toda la información que cuelga de él. Tiene muchas aplicaciones, como en el intercambio de archivos en redes P2P o en software de control de versiones como Git. Blockchain es básicamente una cadena de bloques (tipo Merkle, pero, en principio, sin ramificaciones) a la que se añade la firma digital para verificar los participantes en las transacciones.

La tecnología blockchain puede usarse como contenedor de cualquier tipo de datos encadenados, como los que corresponden a la trazabilidad segura de un producto. En Tecnalia están desarrollando Traceblock, que permite obtener una visión única del estado, no solo para una partida concreta, sino para toda la cadena de suministro. Ofrece una garantía de origen inalterable, donde cada actor de la cadena escribe/firma y responde sobre la veracidad de su información que es consistente con la concatenación de acciones en blockchain.

Nota:

* No todos los hackers son delincuentes.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Actúa localmente: blockchain para la cadena de suministros se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Actúa localmente: robots inteligentes autoadaptativos para la producción industrial
  2. Actúa localmente: la espintrónica que viene
  3. Actúa localmente: tranvías eléctricos sin catenaria
Categorías: Zientzia

Por qué tu color de ojos no coincide con el de tus padres

Lun, 2021/05/10 - 11:59

Antonio José Caruz Arcos

Fuente: Shutterstock / Gaiteal

 

A la pregunta “¿En qué te fijas para juzgar el atractivo de una persona?”, son muchos los que responden que el color de los ojos es determinante. El color azul causa furor más que ningún otro, quizás por ser mucho menos frecuente que el marrón. Aunque, para raro y exclusivo, el color de la cautivadora mirada de la actriz Liz Taylor, de un tono violeta propio de la ciencia ficción.

En nuestra vida cotidiana es frecuente preguntarnos por qué hijos de los mismos padres han heredado colores de ojos totalmente diferentes. ¿Acaso no sigue un patrón convencional de típica genética mendeliana? ¿Qué determina este carácter? ¿Por qué, por ejemplo, hay más del doble de mujeres con ojos verdes que hombres?

El largo camino del color

La mayoría de las poblaciones del mundo tienen ojos de diferentes tonos de marrón. Sin embargo, en gentes de origen europeo existe mayor diversidad. Además del marrón –el más común– hay otros colores prácticamente ausentes en poblaciones de otros continentes. Entre ellos azul, gris, verde o ámbar.

Semejante variedad no puede existir por capricho. Si la evolución ha favorecido que existan diferentes tonos de iris debe ser por algo. Sin embargo, lo cierto es que tanto la función fisiológica del color del iris como sus posibles ventajas biológicas son un misterio.

Con el color de la piel no hay tanto desconocimiento. Sabemos que este carácter está asociado con la intensidad de la radiación ultravioleta. Y que la evolución selecciona una piel más clara a medida que nos alejamos del Ecuador.

Se debe a que es necesario que exista un equilibrio entre la protección de la piel frente a la radiación ultravioleta y la producción de vitamina D que es estimulada por los rayos del sol. Una piel excesivamente pigmentada en latitudes muy al norte (o al sur) daría lugar a una deficiencia de esta vitamina y problemas de salud, especialmente en la formación de los huesos. Pero nada de esto parece guardar relación directa con el color de los ojos.

Lo que sí sabemos es que el color del iris depende de 3 parámetros fundamentales:

  1. El tipo de pigmento, eumelanina para el marrón oscuro-negro y feomelanina de color rojizo;
  2. la cantidad y distribución de melanosomas, es decir, de los pequeños sacos cargados de pigmento dentro de las células del epitelio;
  3. las variaciones en la estructura fina del iris, las encantadoras contracciones y los misteriosos nudos que podemos observar especialmente en personas de ojos claros.

¿Y qué hay de los genes? En 2007 se realizó el primer estudio de genoma completo en poblaciones europeas identificándose 10 genes implicados en este carácter. Este estudio fue posteriormente replicado y los genes confirmados por otro equipo de investigadores. Esto permitió desarrollar un sistema de predicción del color de los ojos en función de datos genéticos, el denominado Hirisplex.

Sin embargo, no era un sistema de predicción totalmente fiable. Funcionaba muy bien para discriminar entre ojos marrones y azules, pero para el resto de los colores era relativamente ineficiente.

¿Por qué? Pues porque se habían quedado cortos. Lo demuestra un estudio publicado este mismo año y basado en el mayor número de voluntarios reclutados hasta la fecha, casi 200 000. Los autores identificaron un total de 52 genes diferentes que influyen en el color de los ojos. ¡Más de medio centenar!

Parece claro que estamos ante un carácter biológico complejo donde los haya. Esto no se parece nada a la herencia de los grupos sanguíneos ni al color de las flores de los guisantes de Mendel que nos enseñaban en el instituto.

Genética de caracteres complejos

Es solo un ejemplo de lo que nos depara la llamada genética de caracteres complejos. Una de las grandes beneficiadas será la ciencia forense, dado que pronto podremos predecir a partir de una gota de sangre o de un trozo de hueso, no solo el color de la piel y los ojos, sino también otros caracteres morfológicos más complejos.

Sin ir más lejos, un estudio español reciente permitió conocer el aspecto de los cazadores del paleolítico. Eran negros de piel y con ojos azules, un fenotipo ausente en las poblaciones europeas actuales y absolutamente inesperado.The Conversation

Sobre el autor: Antonio José Caruz Arcos es catedrático de genética de la Universidad de Jaén

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Por qué tu color de ojos no coincide con el de tus padres se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un alelo para las gafas de color de rosa
  2. Envejecemos mejor que nuestros padres
  3. El color y sus orígenes
Categorías: Zientzia

Páginas