Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 58 mins 41 segs

Las neuronas pueden vivir más que el cuerpo que las alberga

Mar, 2022/02/15 - 11:59

Si tu encéfalo pudiese conseguir un cuerpo nuevo, ¿durante cuánto tiempo podría seguir viviendo? Y si ese cuerpo fuese biónico, esa ilusión que llamas yo, ¿viviría indefinidamente? En lo que sigue no encontrarás respuestas concluyentes a estas preguntas, sino los resultados de un experimento que nos dan pistas de cuáles podrían ser.

La senescencia replicativa es un proceso por el cual las células de los mamíferos sufren el acortamiento de las cadenas de los telómeros, las repeticiones de secuencias de ADN que están al final de los cromosomas y que protegen a estos durante el proceso de replicación. La longitud de los telómeros es una forma molecular de reloj biológico, reflejando el historial de las divisiones de la célula y la edad biológica de tejidos y órganos.

Pero, si esto es así, ¿qué edad biológica atribuimos a las neuronas? Porque las neuronas no se dividen. Estarán sujetas a otros factores de envejecimiento pero no a la senescencia replicativa. Por tanto, ¿cuánto puede vivir una neurona? Esta es la pregunta que un grupo de investigadores encabezado por Lorenzo Magrassi, de la Universidad de Pavía (Italia) ha intentado empezar a responder en un experimento con ratones y ratas. Los investigadores han encontrado que efectivamente las neuronas pueden vivir más tiempo que el cuerpo en el que nacieron, tanto como su organismo huésped.

El experimento, de manera muy simplificada, consistió en trasplantar precursores neuronales del cerebelo de ratones (tomados cuando estos ratones aún eran fetos) en los cerebros de unas ratas que viven más tiempo por término medio. Las neuronas trasplantadas sobrevivieron en sus huéspedes hasta tres años, el doble de la vida media del ratón.

Este resultado sugeriría que la supervivencia neuronal y el envejecimiento en un mamífero son procesos coincidentes pero separables. La primera consecuencia es que si conseguimos alargar la vida (entendemos sana, obviamente) del organismo, el sistema nervioso central la va a acompañar, las neuronas de su encéfalo seguirían activas lo que dure el cuerpo. Alargar la vida se podría conseguir siguiendo pautas específicas en lo que a dieta y comportamiento (evitar zonas contaminadas, hacer ejercicio, etc.) se refiere además de la ingestión adecuada de fármacos. En otras palabras, si se extrapolan los datos a los humanos (con todas las reservas pertinentes), las neuronas podrían aguantar hasta unos 150-160 años si, como es lógico, no media ninguna enfermedad.

Habrá quien argumente que sobrevivir no lo es todo, que también es importante cómo se sobrevive. La muerte neuronal no ocurre solo por el envejecimiento del encéfalo. Así, las neuronas del cerebelo sufren una pérdida sustancial de ramas dendríticas, espinas y sinapsis en el envejecimiento normal. ¿Qué ocurre entonces en una neurona trasplantada? Una parte de las neuronas trasplantadas por los investigadores fueron células de Purkinje para estudiar precisamente si la densidad de espinas disminuía como en los ratones donantes o como en las ratas huésped. Encontraron que la pérdida de espinas en las células trasplantadas sigue un ritmo menor del típico en ratones y más parecido al de las ratas.

Por lo tanto, si se consiguen superar los problemas inmunológicos (rechazo) las neuronas trasplantadas pueden vivir toda la vida de su huésped.

Independientemente de las oportunidades que se abrirían para los transhumanistas, entendiendo el término en sentido amplio, a largo plazo, existirían posibilidades farmacológicas muy interesantes a medio plazo si se consiguiesen desentrañar los mecanismos moleculares responsables del distinto comportamiento de las neuronas en un entorno (ratón) y otro (rata). Por otra parte, el que el envejecimiento sea algo en lo que las células no son autónomas podría tener su relevancia desde un punto de vista evolutivo o, incluso, epidemiológico.

Referencia:

Magrassi, L., Leto, K., & Rossi, F. (2013). Lifespan of neurons is uncoupled from organismal lifespan Proceedings of the National Academy of Sciences, 110 (11), 4374-4379 DOI: 10.1073/pnas.1217505110

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este artículo se publicó en Experientia Docet el 3 de abril de 2013.

El artículo Las neuronas pueden vivir más que el cuerpo que las alberga se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Negacionismo, anticiencia y pseudociencias: ¿en qué se diferencian?

Lun, 2022/02/14 - 11:59

Antonio Diéguez Lucena

Shutterstock / Maclevan

 

A raíz de la pandemia de covid-19 se han hecho de uso común algunos términos técnicos, muchos provenientes de la medicina, que no siempre han sido utilizados con conocimiento de causa. Lo mismo ha sucedido con términos provenientes de la filosofía, sobre todo de la epistemología. Hay tres que han resultado particularmente socorridos y sobre los que, sin embargo, sigue habiendo una gran incorrección en su uso: negacionismo, anticiencia y pseudociencia.

Son tres conceptos muy relacionados y, de hecho, tienden a solaparse en ocasiones. De ahí que las actitudes de algunas personas puedan ser encajadas en más de uno de ellos. Es importante usarlos con precisión porque, como estamos viendo estos días, un uso abusivo de alguno de ellos termina por diluir su significado.

No todo el mundo es negacionista

En el ámbito académico el término negacionismo lleva tiempo cristalizando. No es tan amplio como para incluir toda crítica a los resultados científicos, puesto que esto convertiría absurdamente en un negacionista a cualquier científico que cuestionara, con buena base argumental o fáctica, una hipótesis ampliamente aceptada. Tampoco es tan estrecho como para referirse solo a los que rechazan la evidencia histórica sobre el Holocausto (aunque ese fuera su origen).

Los negacionismos más extendidos hoy se refieren al cambio climático, a la existencia del virus del sida o de la covid-19, y a la efectividad de las vacunas en general.

Los negacionistas suelen defenderse diciendo que ellos representan el sano escepticismo y actitud crítica que debe predominar en la ciencia. Sin embargo, esto es una maniobra de despiste. El negacionismo no debe confundirse con el escepticismo organizado que, como señaló hace décadas el sociólogo Robert K. Merton, constituye un atributo característico de la ciencia.

A diferencia de este, no pretende poner en cuestión hipótesis científicas que no han sido suficientemente contrastadas, sino que promueve más bien un rechazo dogmático y poco razonando, frecuentemente por motivaciones emocionales e ideológicas, de tesis científicas bien establecidas acerca de determinados fenómenos.

Una de las mejores caracterizaciones que se han dado por ahora del negacionismo está en un breve artículo de 2009 de Pascal Diethelm, un economista especializado en salud, y Martin McKee, un médico que enseña sobre salud pública.

Según ellos, el negacionismo consistiría en un rechazo del consenso científico con argumentos ajenos a la propia ciencia, o sin argumento alguno. Esto genera la impresión de que hay debate donde realmente no lo hay. Está ligado a cinco rasgos:

  1. el recurso a ideas conspiracionistas.
  2. el recurso a falsos expertos y el desprecio por los expertos reales
  3. la selección a conveniencia de los datos y análisis.
  4. la formación de expectativas imposibles sobre lo que la ciencia puede realmente proporcionar.
  5. el uso de falacias lógicas.

Anticiencia por la tierra plana o contra la evolución

También en la anticiencia encontramos la impugnación de hipótesis científicas o de hechos bien establecidos por la ciencia, pero hay en ella una actitud con un carácter más general.

No se limita a negar un aspecto concreto o una explicación específica de ciertos mecanismos naturales, sino que rechaza una teoría completa o incluso avances científicos fundamentales.

Dos ejemplos muy claros serían el terraplanismo y el repudio de la teoría de la evolución por parte de los creacionistas radicales. Obviamente, en la medida en que los negacionismos comportan casi siempre, al menos de forma indirecta, una oposición a teorías o hechos bien asentados por la práctica científica, asumen una actitud anticientífica, aunque no siempre sea así.

Puede haber casos de personas que nieguen esos hechos o teorías y lo hagan convencidos de que la buena ciencia es la que lleva necesariamente a dicha negación.

Sería el caso, por ejemplo, de los negacionistas del cambio climático que se aferran a ese pequeño porcentaje de climatólogos que niegan solo que el cambio climático esté causado por la actividad del ser humano.

Del mismo modo, una persona antivacunas que rechace las vacunas de ARN porque cree que pueden producir cambios en el genoma del vacunado estaría manteniendo una actitud anticientífica, puesto que esa creencia choca con lo que nos dice la ciencia.

Una persona que desconfíe de las vacunas contra la covid-19 porque considera que todavía no se conocen posibles efectos secundarios a largo plazo no necesariamente estaría comprometida con actitudes anticientíficas, aunque cabría preguntarse si no estaría llevando sus recelos más allá de lo prudente.

Uno de los pioneros en el estudio de la anticiencia ha sido el historiador de la ciencia Gerald Holton. Ya a comienzos de los 90 del pasado siglo nos avisaba del peligro de que despertara “esa bestia que dormita en el subsuelo de nuestra civilización”. Parece que la bestia ha despertado, puesto que las actitudes anticientíficas empiezan a hacerse cada vez más notables incluso en países con un nivel educativo relativamente alto.

Se ha constatado mediante diversos estudios que los negacionismos y las actitudes anticiencia van ligados por lo habitual a la aceptación de teorías conspirativas y de los llamados “hechos alternativos”. Es este un eufemismo para referirse a hechos que en realidad nunca se han producido, pero son asumidos por conveniencia.

Si alguien se opone al consenso de la ciencia sin tener genuinos argumentos científicos o datos fiables, debe articular algún tipo de explicación conspiracionista para justificar por qué existe ese consenso.

El recurso más fácil es pensar que los científicos están comprados por las grandes empresas farmacéuticas, o por las industrias biotecnológicas, o por el poder político o militar.

Esas teorías conspirativas han sido llevadas al paroxismo por movimientos como QAnon, cuya creencia en que una élite satánica y pedófila quiere controlarnos a todos e impedir que Donald Trump triunfe, y para ello utilizan cualquier medio a su alcance, incluyendo las vacunas, hace replantearse la definición del ser humano como animal racional.

Pseudociencia: falsedades disfrazadas de ciencia

Las pseudociencias son disciplinas o teorías que pretenden ser científicas sin serlo realmente. Eso les lleva inevitablemente a chocar con teorías científicas aceptadas.

Ejemplos populares hoy en día serían la astrología, la homeopatía, la parapsicología y la “medicina cuántica” (aunque esta recibe otros nombres y tiene diversas ramificaciones).

Conviene aclarar que, por mucho que a veces se confunda la homeopatía con la medicina naturista y con el herbarismo, no son la misma cosa. En estas últimas el paciente recibe al menos sustancias que tienen un efecto químico sobre su organismo. El problema aquí sería el control de las dosis.

La homeopatía, en cambio, se basa en la idea de que el poder curativo de una sustancia viene dado, entre otras cosas, por la dilución extrema con la que se administra. Pero las diluciones son tan extremas que es imposible que el paciente reciba una sola molécula del principio activo.

Para justificar esto, los defensores de la homeopatía recurren a una teoría carente por completo de base científica, por no decir simplemente contraria a la ciencia, como es la de la “memoria del agua”. Según esta teoría, el agua que ha estado en contacto con el principio activo guarda memoria de sus propiedades químicas y esa “información” es la que se mantiene en el preparado homeopático y cura al paciente.

Lo curioso es que, en la mayor parte de los casos, lo que el paciente recibe no es un tarrito con agua, sino una pastilla de azúcar.

Contra lo que algunos parecen creer, fiándose demasiado de Popper, las pseudociencias no son infalsables. Es decir, sus tesis pueden ser puestas a prueba mediante contrastación empírica. De hecho, muchas de las afirmaciones de las pseudociencias están falsadas, puesto que la ciencia ha mostrado que son falsas. Las pseudociencias pueden alegar, y de hecho lo hacen, que cuentan en su haber con muchas “confirmaciones” (en el sentido de predicciones cumplidas), lo cual puede ser cierto, pero obviamente eso no las hace científicas.

Ilustremos todo lo que acabamos de decir con el ejemplo de la pandemia:

  • El que niega que exista la pandemia o el virus que la causa es un negacionista.
  • El que rechaza las vacunas en general y, por ello mismo, también estas vacunas contra la covid-19, por creer que están hechas para dañar o para controlar a la gente es alguien que mantiene actitudes anticientíficas.
  • Los diversos remedios que se han propuesto contra la infección como si estuvieran apoyados en la ciencia sin estarlo realmente, como los homeopáticos, son pseudociencia.The Conversation

Sobre el autor: Antonio Diéguez Lucena es catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga

Este artículo fue publicado originalmente en The Conversation. Artículol original.

El artículo Negacionismo, anticiencia y pseudociencias: ¿en qué se diferencian? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Alubias, garbanzos y lentejas contra el cambio climático

Dom, 2022/02/13 - 11:59
Campo de alfalfa en Ribera de Navarra (España). Foto: David Soba

 

Según las previsiones del Panel Intergubernamental del Cambio Climático para los próximos años, se espera que los cultivos del futuro crezcan en ambientes más secos y cálidos.

Los estreses ambientales (descenso en la precipitación, incremento en la temperatura, etc.) son factores clave en la producción y calidad de los cultivos. Por eso será necesario un mayor esfuerzo en el desarrollo de variedades mejor adaptadas a condiciones adversas para alcanzar la creciente demanda de alimentos.

La cara y la cruz de los fertilizantes

Junto con el desarrollo de variedades mejor adaptadas, en las últimas décadas se ha optado por aumentar el uso de fertilizantes nitrogenados. De esta forma se consigue incrementar la producción de manera efectiva y económica. Esto es así porque, en general, la respuesta del cultivo suele ser proporcional al nitrógeno aportado y este es relativamente barato. Tal es su éxito, que el uso global de fertilizantes nitrogenados ha aumentado casi un 800 % desde 1961.

Otro dato que da fe de nuestra actual dependencia: se estima que los abonos sintéticos permiten alimentar a la mitad de la población mundial. O dicho de otra forma, la mitad de las calorías que consumimos han sido producidas gracias a este tipo de fertilizantes.

Frente a estas indudables ventajas, existen inconvenientes.

En el mejor de los casos, solo el 50 % del nitrógeno aplicado es tomado por los cultivos. ¿El resto? Parte acaba en las aguas, tanto superficiales como subterráneas, en forma de nitrato, parte se pierde a la atmósfera en forma de óxido nitroso. La principal fuente de emisión de este gas, con un potencial de calentamiento casi 300 veces mayor que el CO₂, son los abonos nitrogenados. Por lo tanto, el uso de estos abonos participa activamente en el calentamiento global.

Leguminosas al rescate

No todos los cultivos tienen la misma dependencia del nitrógeno sintético. Hay una familia de cultivos que es capaz de aprovechar el nitrógeno atmosférico, formando para ello una relación simbiótica con ciertas bacterias presentes en el suelo. Son las leguminosas: desde las lentejas a la alfalfa pasando por alubias y garbanzos.

Esta relación tiene lugar en unos tejidos subterráneos específicos. Son los nódulos. En ellos, la planta huésped (en este caso las leguminosas) suministra al nódulo la fuente de carbono (energía) en forma de fotoasimilados. La bacteria, a cambio, le suministra el nitrógeno fijado, que puede ser usado por la planta, por ejemplo, para formar proteínas. Esto hace a las leguminosas prácticamente independientes del aporte de nitrógeno sintético.

Así, esta singular característica de las leguminosas puede ayudarnos a combatir el cambio climático de dos maneras:

Además, los residuos que deja el cultivo de leguminosas (ricos en nitrógeno) enriquecen el suelo y fertilizan el cultivo siguiente de forma natural.

Entonces, ¿cuál es el problema?

Con todas estas ventajas, pueden pensar que su uso debería estar extendido. Sin embargo, aunque a nivel global ocupan el 15 % de la superficie cultivada, solo por detrás de los cereales, su éxito es mucho menor en Europa. Concretamente se cultivan en el 1,5 % de la superficie agraria europea. Esto es debido, principalmente, a tres causas:

  • Falta de aceptación por parte de los consumidores. Pese a ser un alimento arraigado en la cultura mediterránea, su consumo ha descendido por la introducción de nuevos patrones de consumo.
  • Alta especialización de la agricultura europea en la producción de cereales y oleaginosas (girasol y colza). Esto provoca una dependencia de los abonos nitrogenados y de las importaciones de materias primas proteicas (Europa importa el 70 %, principalmente soja).
  • Poco atractivo para los agricultores. Esto es debido a los bajos precios y a que su producción (en gran parte condicionada por su capacidad para fijar nitrógeno) se ve fuertemente afectada por estreses ambientales, muchos de ellos asociados al cambio climático.

El problema limita la solución

Como hemos indicado, su independencia de los abonos nitrogenados y su baja huella de carbono hacen de los distintos cultivos de leguminosas una gran herramienta para reducir el impacto de la agricultura en el cambio climático. Sin embargo, al mismo tiempo, la producción de leguminosas se ve fuertemente condicionada por los factores climáticos adversos asociados al mismo.

Es en este punto cuando la investigación entra en escena. El funcionamiento del nódulo está estrechamente relacionado con el estado fisiológico de la planta huésped. Por lo tanto, factores ambientales que afecten a la planta lo harán también a la fijación de nitrógeno por el nódulo y, en definitiva, a la producción. Es preciso incrementar nuestros conocimientos sobre los mecanismos que condicionan la fijación de nitrógeno atmosférico y su potenciación como herramienta de fertilización natural en un contexto de cambio climático.

El trabajo continuo y cooperativo de distintos grupos de investigación (como el nuestro) está permitiendo identificar y comprender estos mecanismos. Esta información nos permite identificar las variedades y perfiles fisiológicos y moleculares implicados en una producción más sostenible en condiciones de crecimiento adversas.

Instalaciones para estudiar el efecto del CO₂ en plantas leguminosas imitando condiciones reales. Departamento de Agricultura de Estados Unidos (Alabama, EE. UU.).
David Soba, Author provided

Potenciar su producción y consumo

Como hemos visto, es imprescindible optimizar la gestión de los cultivos para alcanzar el objetivo fijado por la UE de reducir las pérdidas de nutrientes en un 50 % y el uso de fertilizantes sintéticos en un 20 % para 2030. Al mismo tiempo, estos deben satisfacer las demandas de una población creciente y con hábitos de consumo cambiantes. Todo ello bajo unas condiciones de cambio climático.

Con este fin, aprovechar las ventajas agronómicas y ambientales que nos ofrecen las leguminosas es clave. Para ello, es vital comprender el efecto que el calentamiento global tendrá sobre estos cultivos y, con esta información, seleccionar variedades más eficientes en condiciones climáticas futuras. Pero estas acciones, irremediablemente, deben ir unidas a otras medidas como incentivos al cultivo de leguminosas a través de la política agraria comunitaria y aquellas encaminadas a aumentar su consumo entre la población.The Conversation

Sobre los autores: David Soba Hidalgo es investigador postdoctoral e Iker Aranjuelo Michelena, científico titular, en el Instituto de Agrobiotecnología (IdAB – CSIC – Gobierno de Navarra)

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Alubias, garbanzos y lentejas contra el cambio climático se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: Ignacio López Goñi – Me han dichooooooo, que hay un bichooooooo

Sáb, 2022/02/12 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

Ahora que España está saliendo de la sexta ola es un estupendo ejercicio intelectual echar la vista atrás, a septiembre del año 2021, antes de ómicron y la sexta ola, y recordar esta charla de Ignacio López Goñi sobre la biología del SARS-cov-2, un virus que ha mutado miles de veces. Los virus son nubes de mutantes, pero eso no tiene que llevar a la histeria, porque las vacunas… funcionan. Advertencia a quienes empleen auriculares: Nacho canta en este vídeo.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Ignacio López Goñi – Me han dichooooooo, que hay un bichooooooo se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Regla de modestia

Vie, 2022/02/11 - 09:00

Hoy se celebra el Día Internacional de la Mujer y la Niña en la Ciencia. En la Cátedra de Cultura Científica de la UPV/EHU este año hemos dirigido la mirada hacia el efecto que ejercen ciertos estereotipos a la hora de orientar la elección de estudios por parte de chicos y chicas.

regla de modestia

Como señalamos aquí en su día, si se consideran en conjunto las disciplinas científicas, no hay excesivas diferencias en los números de hombres y de mujeres que cursan una carrera universitaria de ciencias. También se asemejan los porcentajes de quienes hacen un doctorado. No obstante, existen diferencias en lo relativo a las preferencias de chicos y chicas por ciertas carreras. Las más importantes se dan en las de ingeniería (con muchos más chicos) y de ciencias de la salud (con muchas más chicas). Y dentro de las carreras estrictamente científicas, la presencia femenina es menor en física y mayor en las biociencias.

Los factores que subyacen a esas diferencias no son conspicuos, no resultan evidentes, son sutiles. Así, con carácter general, las chicas no suelen optar por profesiones para cuyo desempeño se requiere una competencia intensa (tal y como se documenta, p. ej. aquí y aquí, y revisados aquí junto con otros estudios) entre sus practicantes. Ese factor, junto al efecto de ciertos estereotipos, puede estar en la base, por ejemplo, del cambio que se produjo en 2012 en los estudios de matemáticas. Antes de esa fecha se asociaban con la docencia, una actividad profesional muy común entre las mujeres, pero a partir de entonces aumentó la demanda de profesionales en matemáticas para puestos en el área tecnológica y empresarial, trabajos a los que se atribuye una mayor competitividad. El menor atractivo de esos estudios para las jóvenes sería consecuencia, así, de estereotipos de género y, además, los reforzaría.

Por otro lado, las preferencias en la elección de estudios de posgrado en función del género no parecen ajustarse a una hipotética divisoria que separaría los estudios científicos y tecnológicos del resto, sino al efecto de otros factores. Entre ellos están las expectativas del grado de brillantez considerado necesario para cursar con éxito unos y otros. Cuanto mayor es la brillantez que se supone necesaria (porque así se le atribuye) para cursar con éxito unos estudios, menor es el porcentaje de mujeres que los escogen. Y es probable que ese mismo fenómeno se produzca a la hora de elegir los estudios de grado.

ragla de modestia

Que las chicas tiendan a inclinarse por estudios para los que creen que no es necesario ser una persona “tan brillante” tiene, al parecer, origen en la niñez, a partir de los seis años, aproximadamente. A esa edad las niñas empiezan a dudar que sean tan inteligentes como los niños. Comienzan entonces a evitar actividades que se consideran propias de personas “verdaderamente inteligentes”. Parece ser que esos estereotipos se construyen en el entorno familiar y que en su génesis incide la denominada “regla de modestia”, por la que se enseña a las niñas, desde bebés, a no alardear de sus habilidades y, por el contrario, se anima a hacerlo a los niños. Se trataría, por lo tanto, de un efecto de base cultural.

A los factores anteriores, cabe añadir el efecto de lo que se denomina “incongruencia de roles” (role incongruity) y “falta de ajuste” (lack of fit). Consiste en la identificación de los rasgos propios de las personas que son consideradas buenas científicas con las características estereotípicamente masculinas (agencia, competitividad…), mientras que a las mujeres se les atribuyen rasgos que se identifican menos con los que se supone adornan a aquellas, como el carácter cooperativo (comunal), principalmente.

En definitiva, en la elección de estudios universitarios operan estereotipos ligados a la autopercepción y a la competencia que se atribuyen las chicas a sí mismas. Actúan en varias instancias en la vida académica y profesional, y contribuyen a socavar las posibilidades de desarrollo y progreso en la vida académica de las científicas. Se trata de barreras que obstaculizan el acceso de las mujeres a determinados estudios de ciencia y tecnología, por lo que, en la práctica, no gozan de las mismas oportunidades que los hombres.

El vídeo al que acompaña este texto pretende dar a conocer la existencia de esas barreras, no por sutiles poco efectivas, porque en la Cátedra de Cultura Científica pensamos que es necesario poner de relieve la existencia de los factores –esos u otros– que limitan el acceso de las mujeres a ciertos estudios. Solo así, conociéndolos, estaremos en condiciones de actuar para que dejen de existir. Lo hacemos hoy, mediante este vídeo, y lo hacemos el resto de los días del año también, a través de las publicaciones en Mujeres con Ciencia. Porque para la Cátedra de Cultura Científica de la UPV/EHU todos los días del año son días de la mujer y la niña en la ciencia.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

Más sobre el 11 de febrero

El artículo Regla de modestia se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La distancia a las estrellas (II)

Jue, 2022/02/10 - 11:59

A pesar de no poder pagar las facturas que han llegado hasta su playa, el náufrago de nuestro relato se encuentra de muy buen humor. Gracias a todos esos nuevos números desperdigados sobre la arena, ahora entiende mucho mejor cómo son los continentes y países que rodean a su pequeña isla. Sin embargo, aún hay un detalle que le falta concretar. La preocupa la distancia que tendrá que recorrer para poder huir de la isla a nado. Bueno, eso y los tiburones, claro. Pero contra los tiburones tiene un buen repelente (y espera que funcione).

Para intentar calcular las distintas que le separan de otros mundos al otro lado del océano, el náufrago empieza a anotar el número de botellas que llegan a su playa en cada dirección. Se trata de un dato fácil de medir y además parece muy prometedor. Es razonable pensar que cuanto más cerca se encuentre un país, más botellas suyas alcanzarán la la isla desierta. Pero para hacer esa inferencia, hay una variable que el náufrago necesita conocer, y es el tamaño y poderío económico de las naciones que envían todos esos mensajes. Lógicamente, los países más grandes y activos económicamente generarán muchas más facturas. De modo que un país grande y relativamente lejano, podría acabar arrojando muchas más botellas en la arena que un país cercano pero chiquitín.

Volviendo a la astronomía, el problema es equivalente al de comparar la magnitud absoluta de una estrella con su magnitud aparente. La magnitud absoluta es el brillo intrínseco de la estrella, su poderío energético (el número de botellas que envía), mientras que la aparente es la luz que llega hasta nosotros. Conociendo estas dos magnitudes, es posible calcular la distancia que nos separa de ella. Lógicamente, cuanto más lejos se sitúa una estrella, menor es su magnitud aparente. La cuestión es ¿cómo podemos calcular su magnitud absoluta?

Esta pregunta permaneció sin respuesta hasta finales del siglo XIX. Fue entonces cuando Henrietta Swan Leavitt, otra de las astrónomas de Harvard, empezó a fijarse en unas curiosas estrellas intermitentes situadas en la Nube de Magallanes. Eran las llamadas estrellas variables o cefeidas, unas estrellas entre cuatro y veinte veces más masivas que el Sol, que se encienden y apagan regularmente. Sus periodos suelen estar comprendidos entre unas pocas horas a meses1, y aunque ya habían sido descritas con anterioridad, fue Leavitt quien observó por primera vez que las más brillantes eran las que tenían los periodos más largos.

Curvas de luz de estrellas cefeidas. Fuente: El diario secreto de Henrietta S. Leavitt

 

Si bien la astrónoma no podía saberlo en aquel momento, esta relación no era un accidente, ni una mera casualidad. La variación de la luminosidad de las cefeidas tiene su origen en el equilibrio de fuerzas que caracterizan a toda estrella. En estas inmensas bolas de plasma, la gravedad tiende a contraer la materia y a empujarla hacia el interior. En cambio, las reacciones nucleares liberan energía y aumentan la presión de radiación dentro de la estrella, de modo que empujan la masa hacia el exterior. En la mayoría de las estrellas estas dos fuerzas se encuentran en equilibrio. Sin embargo, cuando esto no sucede, cuando una estrella se desvía respecto a su radio ideal, puede empezar a oscilar, como un corazón de luz. En estos casos, el tamaño de la estrella es lo que determina el periodo de la oscilación o “pulsación”. Cuanto más grande es la estrella, más lentos son sus latidos.

Esta fue la relación que descubrió Henrietta Leavitt mientras analizaba las estrellas de las Nubes de Magallanes2. En 1912 publicó un artículo en el que analizaba los periodos de veinticinco cefeidas. Las más luminosas eran, precisamente, las que oscilaban más lentamente. Como se suponía que todas ellas estaban a una distancia similar de la Tierra, esto significaba que cada latido estaba directamente relacionado con la magnitud absoluta de su estrella. Bastaba con estimar la distancia a la que se encontraba alguna Cefeida cercana (un elemento necesario para “calibrar” la nueva regla de medir) para empezar a situar galaxias, nebulosas y todo tipo de formaciones astronómicas sobre la profundidad inabarcable del cielo.

El texto de 1912 estaba firmado por Pickering, como casi todos los trabajos que salían del Observatorio, pero en el primer párrafo se aclara que el estudio ha sido elaborado por Leavitt. En apenas tres páginas, la astrónoma abría el camino para resolver uno de los puzzles más antiguos de la astronomía: la clave para medir distancias en el universo.

Henrietta S. Leavitt, 19122. Las gráficas representas la magnitud aparente de veinticinco cefeidas en función de su periodo. En la segunda gráfica utiliza una escala logarítmica.

Referencias:

1IAA-CSIC/FECYT. “Una regla para medir el universo”. El extraño caso de Henrietta Leavitt y Erasmus Cefeido, Instituto de Astrofísica de Andalucía, 5 de diciembre de 2012. Consultado el 6 de febrero de 2022.

2Leavitt, Henrietta Swan, and Edward Charles Pickering. “Periods of 25 Variable Stars in the Small Magellanic Cloud.” Harvard College Observatory Circular, vol. 173, 1912, pp. 1-3, https://adsabs.harvard.edu/full/1912HarCi.173….1L.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo La distancia a las estrellas (II) se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

En busca de la banda de Moebius más corta posible

Mié, 2022/02/09 - 11:59

 

La banda de Moebius es un sorprendente objeto topológico, una superficie con una sola cara y un solo borde, con propiedades muy curiosas (véanse el video La banda de Moebius de la sección Una de Mates del programa de televisión Orbita Laika; el libro La banda de Moebius, de Clifford Pickover; el libro Festival mágico-matemático de Martin Gardner; o algunas de las entradas de la sección Matemoción, del Cuaderno de Cultura Científica, que mencionamos en la bibliografía; por citar algunas referencias) que ha cautivado a muchísimas personas, tanto de dentro como de fuera de las matemáticas.

Cinta de Moebius bicolor (2017), del artista y ceramista catalán Joan Puyal. Imagen de la página del ICRE – Institut Català per a la Recerca en Escultura

 

A pesar de que es el objeto topológico por excelencia, en la entrada de hoy vamos a fijarnos en un problema geométrico relacionado con su construcción con una tira de papel.

Para empezar, una banda de Moebius es una banda retorcida que podemos construir de forma sencilla de la siguiente forma. Si tomamos una tira de papel y pegamos los extremos se obtiene una banda normal con dos caras y dos bordes, pero si primero giramos uno de los extremos del papel media vuelta y después juntamos los extremos se obtiene la banda de Moebius, una superficie que solo tiene una cara y un solo borde.

El problema geométrico consiste en construir una banda de Moebius con una tira de papel lo más corta posible. Es decir, dada una tira de papel (como la de la siguiente imagen) que tiene una anchura a y una largura b, se trata de construir una banda de Moebius con una largura b lo más corta posible (dejando fija la anchura a).

Si la tira de papel es bastante larga, como la de la imagen anterior (podemos construir en casa una tira como la de la imagen que, para una anchura de 10 cm, tendría una largura de 96 cm –o también, para una anchura de 2cm, la largura es de 19,2 cm–), entonces la cinta de Moebius que se construye con ella es bastante holgada, con lo cual podemos recortarla en largura (hacerla más corta) y seguir construyendo nuestra superficie de una sola cara. La cuestión es hasta dónde podríamos ir recortando en la largura.

La banda de Moebius que hemos construido la podemos “aplanar” de la forma en la que aparece en esta imagen, que tiene una forma de tipo triangular (que nos recuerda al símbolo del reciclaje).

Vemos que efectivamente tiene holgura, hay espacio en el centro. Entonces, si vamos recortando la largura de la banda iremos cerrando ese hueco central, como se muestra en la siguiente imagen, hasta llegar el momento en que se cierre el hueco. Además, como podemos observar, en ese momento final lo que ocurre es que tenemos un hexágono.

En concreto, nuestra banda de Moebius “recogida” está formada por nueve triángulos equiláteros, como se muestra en la siguiente imagen. Los pares de triángulos equiláteros de papel 2 y 3, 5 y 6, así como 8 y 9, están superpuestos, uno encima del otro, en nuestra banda retorcida, mientras que los triángulos equiláteros 1, 4 y 7 están solos.

Para conocer cuánto hemos acortado nuestra tira de papel, o más bien, hasta que longitud (respecto de la anchura) hemos acortado, vamos a separar/cortar de nuevo nuestra tira y desplegarla. Tendremos en ella los nueve triángulos equiláteros que, si cortamos en la banda de Moebius justo por el medio de uno de ellos, quedan distribuidos en la tira como se muestra en la imagen.

Para calcular, a partir de la imagen anterior, la relación de la largura (b) respecto a la anchura (a), vamos primero a calcular el lado de cada triángulo equilátero, en función de la anchura a. Para ello vamos a utilizar el teorema de Pitágoras sobre el triángulo rectángulo de la izquierda, que es la mitad del triángulo equilátero. Si llamamos x a la longitud del lado del triángulo equilátero, tendremos el siguiente esquema.

Luego, por el teorema de Pitágoras (la suma de los cuadrados de los catetos es igual al cuadrado de la hipotenusa):

Y despejando x, en función de a, se obtiene que:

Por lo tanto, si tenemos en cuenta que la tira de papel que hemos obtenido tiene una largura (b) que es 4,5 veces el lado del triángulo equilátero (x), como se puede observar en una de las imágenes anteriores, entonces se tiene que la largura de la tira es igual a:

La largura es aproximadamente 5, 2 veces la anchura (ajustando un poco más, 5,196). Es decir, si nuestra tira de papel tuviese una anchura de 10 centímetros, la largura sería de 51,96 centímetros (recordemos que la inicial tenía una anchura de 10 cm y una largura de 96 cm).

Silla de Moebius (2005), diseño de una silla de Acapulco con forma de cinta de Moebius, del artista mexicano Pedro Reyes. Imagen de la publicación digital Patio Productions

 

El matemático Stephen Barr, en su interesante libro Experiments in Topology, nos cuenta que es posible reducir la largura de la tira de papel a la tercera parte.

Veamos cómo construir la banda de Moebius a partir de la tercera parte de la banda de nueve triángulos equiláteros. Ahora nos quedamos con un trozo de tira de papel con tres triángulos equiláteros, por ejemplo, los tres de la izquierda de la imagen anterior, dos enteros en el centro y dos mitades en los laterales.

Para construir la banda de Moebius debemos pegar el lateral AB con el lateral opuesto, después de dar media vuelta, es decir, con CD. En particular, el punto A se pega con el punto C y B con D. Para ello, primero doblamos por el lado común de los dos triángulos equiláteros enteros (marcado con las flechas en la imagen), de forma que el triángulo equilátero de la derecha queda sobre el de la izquierda, como se ve en la siguiente imagen.

Ahora, doblamos las dos mitades laterales de triángulo equilátero (que son triángulos rectángulos), la que tiene al lado AB y la que tiene al lado CD, colocándolas encima del triángulo equilátero entre ellos (formado por la superposición de los anteriores triángulos equiláteros), como se muestra en la imagen.

Entonces, se pegan los lados AB y CD obteniéndose una banda de Moebius. A las personas que estáis leyendo esta entrada del Cuaderno de Cultura Científica os animo a que realicéis esta construcción en vuestra casa, o donde deseéis claro.

¿Cuánto se ha reducido ahora la largura (respecto de la anchura)? Como habíamos dicho anteriormente, se reduce a la tercera parte de la anterior reducción, es decir, ahora la largura (b) es igual a:

Por ejemplo, nuestra tira original de 10 cm de anchura y 96 cm de largura, la habíamos reducido a una largura de 51,96 cm, que ahora la hemos reducido a 17,32 cm (la raíz de tres es igual a 1,732).

En el libro Experiments in Topology se plantea la cuestión de si se podría realizar una banda de Moebius, con una tira de papel cuadrada. Si consideramos la tira de papel anterior, de 10 cm de anchura, sería una largura de también 10 cm. El propio Stephen Barr nos muestra la solución.

Si partimos de una tira de papel ABCD cuadrada, como la de la imagen, se empieza doblando por una de las diagonales.

A continuación, se dobla por la otra diagonal, quedando un triángulo (isósceles y rectángulo) que es la cuarta parte del cuadrado original.

Entonces, se pegan los lados AB con CD para formar la banda de Moebius. Hemos de tener cuidado, ya que los lados a pegar están en la base del triángulo obtenido, pero en distintas capas. El lado AB está en la capa de arriba, mientras que el lado CD está en la tercera capa empezando por arriba (o en la segunda empezando por abajo). Por este motivo, si hacemos esta construcción en nuestra casa, tenemos que tener un poco de cuidado cuando vayamos a poner el celo para pegar esos lados.

Escultura Cinta sin fin (1953-56), del artista y diseñador suizo Max Bill. Escultura en el Middelheim Museum (Amberes, Bélgica)

 

A pesar de estos ingeniosos métodos de Stephen Barr para crear bandas de Moebius para tiras de papel que son bastante cortas –el caso del cuadrado es significativo- como para intentar dar medio giro a un lado y pegarlo con el opuesto, el gran divulgador de las matemáticas, el estadounidense Martin Gardner (1914-2010), en una de sus columnas de Juegos matemáticos de la revista Scientific American (recogida en el libro The Sixth Scientific American Book of Mathematical Puzzles and Diversions, publicado por vez primera en 1971), plantea el problema de hacer una banda de Moebius para tiras más cortas aún, por ejemplo, si es el doble de ancha que larga.

De nuevo, deberíamos de pegar el lado AB con su opuesto, después de girar este media vuelta, es decir, con el lado CD. El problema evidente es que el una tira de papel muy corta, necesitaríamos una mayor largura para poder pegar los lados opuestos –después de girar uno media vuelta-.

La genial idea de Martin Gardner fue conseguir que la anchura “fuese más corta aún”, de manera que con esa nueva anchura la largura nos permita girar la banda media vuelta y pegar los extremos. ¿Cómo conseguir reducir la anchura, sin modificar las dimensiones reales de nuestra tira de papel? La idea es ingeniosa. Se trata de realizar una cantidad de pliegues horizontales –igualmente espaciados- a nuestra tira de papel de forma que se generen una cantidad impar de zonas plegadas iguales.

En la anterior imagen hemos realizado 20 pliegues, que generan 21 zonas, que se pliegan en acordeón formando una tira de papel cuya anchura se ha reducido en relación a la largura.

La “nueva” tira, después de realizar completamente estos pliegues, tiene una largura suficiente (aunque recordemos que está formada por 21 capas de papel, que se han generado al realizar los pliegues) como para poder girarla media vuelta y pegar los lados plegados, AB con CD (como se muestra en la siguiente imagen, sacada del libro de Martin Gardner).

¡Qué maravilla de construcción de bandas de Moebius a partir de tiras de papel muy cortas!

Bibliografía

1.- Clifford A. Pickover, La banda de Möbius, Almuzara, 2009.

2.- Martin Gardner, Festival mágico-matemático, Alianza editorial, 1984.

3.- Marta Macho, Poesía retorcida sobre la banda de Moebius, Cuaderno de Cultura Científica, 2016.

2.- Marta Macho, Otto Spiegel, de la simetría a la teoría del caos, Cuaderno de Cultura Científica, 2019.

3.- Raúl Ibáñez, De menú para hoy, dos novelas gráficas negras con salsa matemática, Cuaderno de Cultura Científica, 2019.

4.- Raúl Ibáñez, Guía matemática para el cómic ‘Promethea’, Cuaderno de Cultura Científica, 2020.

5.- Raúl Ibáñez, Arte Moebius (I), Cuaderno de Cultura Científica, 2020.

6.- Raúl Ibáñez, Arte Moebius (II), Cuaderno de Cultura Científica, 2020.

7.- Stephen Barr, Experiments in Topology, Dover, 1989.

8.- Martin Gardner, The Sixth Scientific American Book of Mathematical Puzzles and Diversions, Simon & Schuster, 1971.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo En busca de la banda de Moebius más corta posible se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El futuro de hace 10 años

Mar, 2022/02/08 - 11:59

Hace casi diez años, el 25 de julio de 2012, publiqué este artículo en Experientia docet hablando sobre las posibilidades que podría traer el futuro. El mensaje fundamental es la importancia de lo imprevisible, cosa que desarrollé algo más en la conferencia que di en Naukas Valladolid 2021 y que aparece al final. Creo que es un ejercicio interesante echar la vista atrás, contrastar, y aprender para el futuro.

El 15 de abril de 2010 volvía a casa después de asistir a una demostración de un nuevo equipo industrial en una ciudad del centro de Suecia. Cuando llegamos mi compañero y yo al aeropuerto de Estocolmo nos encontramos con el caos. Al parecer un volcán en Islandia, el Eyjafjallajökull, había entrado en erupción y las cenizas que arrojaba a a la atmósfera obligaban a cerrar el espacio aéreo por tiempo indefinido. Nuestro vuelo a Madrid aún no estaba cancelado aunque sí muchos otros. Yo, siguiendo un instinto de supervivencia peculiar, entré en la bien surtida librería a comprarme un par de libros.

Nuestro vuelo fue el último en despegar de Estocolmo antes del cierre del espacio aéreo sueco y nuestro piloto nos llevó a España dando un rodeo por Polonia. En ese tiempo comencé a leer uno de los libros que más me ha hecho pensar en los dos últimos años: The Black Swan, The Impact of the Highly Improbable, de Nassim Nicholas Taleb.

Un cisne negro, citando a Taleb, es un acontecimiento que reúne tres características. Primero, es completamente inesperado, ya que nada en el pasado puede apuntar de forma convincente a esa posibilidad. Segundo, tiene un impacto enorme. Tercero, a pesar de ser inesperado, nuestra capacidad humana para la racionalización a posteriori hace que lo veamos como algo explicable y predecible.

Los cisnes negros son el tipo de acontecimientos que marcan las revoluciones científico-técnicas; pensemos en el descubrimiento de los rayos X o en la penicilina o, y perdonad que aquí cite una afición, los cuasicristales. En las próximas décadas serán los cisnes negros los que marquen la evolución de la ciencia y la técnica concretas. Por definición no podemos saber cuáles serán. Nosotros, en lo que sigue, no vamos a intentar predecir qué desarrollos concretos habrá en la ciencia y la técnica en lo que queda de siglo, ya dejamos a otros que se equivoquen en eso, sino que vamos a explorar brevemente, y sin ánimo de ser exhaustivos, las áreas en las que podrían producirse esos avances. Puede que te sorprendan.

La instrumentalización de la química y el recorrido limitado de la física.

La química, como ciencia que permite conocer el universo, está agotada. No habrá sorpresas químicas relevantes, si bien cabe esperar de ella una enorme variedad de contribuciones prácticas. La química es como una lengua que cuesta dominar: a lo largo de los siglos hemos ido aprendiendo su gramática, su vocabulario, sus modismos, cada uno de estos descubrimientos permitiéndonos conocer más el universo y a nosotros. Pero un idioma, una vez dominado, sirve para expresar ideas. Este es el futuro papel de la química, un instrumento sofisticado que facilitará mucho de lo que sigue.

La física sólo es un poco más estimulante desde esta perspectiva que hablamos. Aunque aún haya mucho que aprender acerca de la estructura fundamental del universo, las máquinas necesarias para realizar esta exploración son cada vez más grandes y caras. Existe un concepto económico crítico para estas situaciones, el de rendimientos decrecientes y, aunque el descubrimiento de una partícula compatible con el bosón de Higgs pueda estimular durante un tiempo breve el imaginario colectivo de los que administran el dinero, no cabe esperar muchas inversiones en algo que tiene de entrada pocas aplicaciones prácticas desde su punto de vista.

En las próximas décadas, salvo hallazgos no previstos en el modelo estándar que nos depare el LHC (más improbables si la partícula descubierta se confirma que, efectivamente, es el bosón de Higgs del modelo estándar), la física fundamental estará centrada en comprender la materia oscura (partículas fundamentales que interactúan con la de materia ordinaria aparentemente sólo a través de la gravedad) y en encontrar ondas gravitacionales (lo que permitiría unir la gravedad, explicada actualmente por la torre de marfil que es la teoría general de la relatividad, con la física cuántica que explica el resto de la física). Para conseguir ambos fines bastarían en principio instrumentos relativamente baratos comparados con un megaacelerador de partículas lineal, por ejemplo.

La otra gran incógnita de la física es la energía oscura, eso que hace que el universo se expanda aceleradamente. A diferencia de las dos anteriores, su resolución requiere de una revolución teórica previa más que de nuevos datos. Y esto entra de lleno en el dominio de los cisnes negros. Puede que ahora, mientras lees esto, un parado esté garabateando, en un parque de Málaga, la que podría ser la solución a este problema.

La revolución nanobiomática.

Para el año 2050, parece bastante probable que sepamos, más allá de la certeza estadística, que la vida es abundante en el universo. El estudio de los planetas extrasolares con nuevos telescopios espaciales parece que es algo que tiene la financiación poco menos que garantizada: la pregunta de si estamos solos en el universo es fácilmente entendible por los administradores y también interesante para ellos.

Un aspecto relacionado es el origen de la vida en la Tierra. La respuesta puede que venga del mejor conocimiento del funcionamiento celular y la identificación de sus partes más primitivas, y de la experimentación, es decir, de la creación de organismos vivos en el laboratorio a partir de moléculas químicas sencillas.

Pero los descubrimientos en biología están entrando en una fase exponencial que nosotros atribuimos a cuatro motivos principales:

  1. La capacidad desarrollada recientemente de secuenciar el ADN rápidamente y en cantidades enormes.

  2. Las mejoras en microscopia, en el sentido más amplio, desde sistemas de tinción a fotografías a nivel atómico, que permiten una mejor comprensión de los procesos celulares.

  3. Las técnicas para el estudio específico del encéfalo y su funcionamiento, probablemente el objeto de estudio científico más interesante del universo.

  4. La asunción generalizada de que la investigación biológica tiene que tener una perspectiva evolutiva.

Cabe esperar que en próximo par de décadas la caracterización genética de todas las especies esté completa. Alrededor del año 2030, dependiendo de la financiación, la mayor parte de la vida conocida habrá sido caracterizada, incluyendo la microbiológica marina o la subterránea profunda (de existir). En el proceso es posible que nos encontremos grandes sorpresas (asumimos que con más fundamento que la vida basada en arsénico).

Lo anterior, completar el álbum de cromos de la vida terrestre, es fascinante e intelectualmente atractivo. Pero esta base de datos genéticos gigantesca y el conocimiento biológico derivado de ella, abriría la puerta a la explotación industrial, lo mismo que ocurrió con la química en el XIX. En esto trabajan ya activamente personas como Craig Venter, ya sea por la vía de crear de vida sintética de diseño, ya por la creación de nuevos organismos transgénicos o directamente por el uso de nuevas especies.

Pero, sin duda, el punto de inflexión lo marcará la combinación de la biología con la nanociencia y la informática: la nanobiomática.

Digámoslo claramente, y citando a un sabio malagueño: la nanotecnología ha tenido un arranque de caballo andaluz y un parón de burro manchego. Durante los últimos veinte años se ha hablado mucho de nanotecnología pero, a fin de cuentas, salvo algunas estructuras que quedan muy espectaculares en fotografía y la alteración de las propiedades de algunos materiales, ya sea por la incorporación de otros o por técnicas de encapsulación, poco más se ha conseguido. Estamos a años-luz de esos ejércitos colaborativos de micromáquinas que prometían los visionarios de los años noventa. Pero esto cambiará cuando se conozca mejor el comportamiento de las células.

Las proteínas, el ARN o el ADN son moléculas grandes y tienen exactamente el tamaño típico de los objetos con los que opera la nanociencia: mayor que el de la química tradicional, pero aún suficientemente pequeños como para que la influencia de las interacciones supramoleculares electrostáticas sea crítica impidiendo que la ingeniería mecánica clásica pueda lidiar con ellas. De hecho, fueron estas interacciones las que arruinaron las predicciones de los visionarios: los engranajes y levas de las micromáquinas se veían alterados por las fuerzas de van der Waals y otros efectos mal comprendidos.

Pero, hete aquí que los sistemas vivos, obviamente, funcionan. Una vez que se analicen apropiadamente aparecerá todo un abanico de aplicaciones tecnológicas: ya sean organismos altamente modificados, o sistemas completamente artificiales que simplemente toman sus fundamentos de la biología, como los robots de Karel Capek, el inventor del término en 1921.

Pero unos robots así requerirían también la intersección de la biología, además de con la nanotecnología, con la informática y la inteligencia artificial, lo que hemos dado en llamar nanobiomática. La unión de una mejor compresión del funcionamiento del cerebro con una capacidad de computación artificial mucho más sofisticada. Las nuevas técnicas para el estudio del cerebro pondrán de manifiesto cómo se organiza el cerebro a nivel celular (conectoma). Los ordenadores, más rápidos y potentes, permitirán modelar como software esa nueva información. Así sabremos cómo funciona el cerebro de verdad, lo que permitirá la construcción de cerebros artificiales que trabajarán con los mismos principios, pero mucho más potentes y sin errores. Cerebros artificiales nanobiomáticos que puede que funcionen conscientemente.

Curiosamente, según la teoría de Taleb, nadie podrá hacer una fortuna apostando a nada de lo anterior: lo previsible no es novedoso realmente. Y es que el futuro lo conformarán los cisnes negros.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El futuro de hace 10 años se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La urgencia de los neuroderechos humanos

Lun, 2022/02/07 - 11:59

Txetxu Ausín, Aníbal Monasterio Astobiza,  Belén Liedo,  Daniel López Castro, Manuel Aparicio Payá,  Mario Toboso Martín y Ricardo Morte Ferrer

Shutterstock / JLStock

 

Imagine que está pensando en hacer un regalo a Marta. Ella siempre le ha ayudado cuando más lo ha necesitado y ahora quiere mostrar gratitud. Estaba pensando en regalar a su amiga una nueva chaqueta de color amarillo, como le gustan a ella. Nada más terminar de visualizar en su cabeza el tipo de chaqueta que le puede gustar, el móvil le manda una notificación: “He encontrado varias opciones para comprar una chaqueta amarilla. Diríjase a…”.

Esto puede parecer ciencia ficción, pero es una de las posibles aplicaciones de la neurotecnología en un futuro no muy lejano. Con ciertas reservas, podemos pensar que la neurotecnología comprende dispositivos tecnológicos, artefactos o máquinas que pueden de algún modo “leer nuestra mente”.

Controlando la mente

En síntesis, la neurotecnología es el conjunto de tecnologías que permiten visualizar, manipular, registrar, medir y obtener información del cerebro y del sistema nervioso con el objetivo de controlar, reparar o mejorar sus funciones.

La neurotecnología utiliza distintas técnicas para registrar o estimular el cerebro. Estas técnicas se pueden dividir principalmente entre aquellas que requieren un contacto directo con el cerebro y el sistema nervioso (invasivas) y aquellas que no necesitan un contacto directo (no-invasivas).

Otra división útil para clasificar las neurotecnologías es entre aquellas técnicas que se dedican a registrar y medir la actividad del cerebro y del sistema nervioso (como la EEG o la resonancia magnética funcional) y técnicas que pueden estimularlos (como la implantación de electrodos).

Por supuesto, estas no son las únicas formas de clasificar las distintas técnicas dentro de la neurotecnología. Tampoco es una lista exhaustiva de las técnicas existentes o que pueden desarrollarse. Sin embargo, constituyen una cartografía útil para orientarse en un campo en constante evolución.

Revolución 4.0

Para crear técnicas de neurotecnología confluyen disciplinas como la neurociencia –el estudio del cerebro–, la ingeniería –la aplicación de la ciencia y tecnología para resolver problemas–; y la inteligencia artificial (IA) –la ciencia que estudia y crea sistemas artificiales inteligentes–. Forman parte de la llamada Cuarta Revolución industrial o Revolución 4.0, que supone la convergencia de tecnologías digitales, físicas y biológicas que evolucionan a gran velocidad.

Estas tecnologías reciben el nombre NBIC (nano-bio-info-cogno): nanotecnologías, biotecnologías, tecnologías de la información y ciencias cognitivas (IA, ciencia de datos, robótica, interfaces cerebro-máquina, biología sintética, nanotecnología).

Dada la interdisciplinariedad y la complejidad de su objeto de estudio (el cerebro y el sistema nervioso), la neurotecnología no escapa al “principio de Skolnikoff”. Según este principio, una tecnología puede ser utilizada para cualquier otro propósito que no había sido previsto originalmente en su diseño. Así, las implicaciones de las neurotecnologías van más allá de lo técnico para plantear interrogantes de corte ético, político y social.

Imagine que el dispositivo de neurotecnología que detecta la información relevante directamente desde su actividad neuronal ya no se utiliza solo para ayudarle a encontrar el regalo que busca, sino para extraer otro tipo de datos relevantes de su mente. Imagine que distintas técnicas de neurotecnología se utilizan incluso para controlar e intervenir en su pensamiento o comportamiento.

Esta posibilidad puede no parecer tan lejana de escenarios que ya conocemos dentro de nuestros teléfonos móviles o de determinadas técnicas de marketing. Pero la barrera que se franquearía en el caso de las neurotecnologías es, sin embargo, capital: se trata de la integridad de la propia mente.

Shutterstock / Jirsak

Defender los neuroderechos

Ante la relevancia de preservar esta integridad, se postulan los llamados neuroderechos: derechos humanos específicamente referidos al uso y aplicaciones de las neurotecnologías. Estos nuevos derechos son entendidos como una evolución de los derechos humanos aplicada al auge de las tecnologías que pueden ser consideradas disruptivas para la integridad mental y psicológica de las personas.

Se han propuesto tanto desde la filosofía y el derecho (Marcelo Ienca & Roberto Andorno, Towards new human rights in the age of neuroscience and neurotechnology) como desde la neurociencia (Rafael Yuste, director del proyecto BRAIN).

Entre estos neuroderechos, uno de los que más continuidad guarda con las preocupaciones generales acerca de la inteligencia artificial y la llamada internet de las cosas (IoT) es la privacidad. La creciente datificación y mercantilización de las informaciones personales de los individuos corre el riesgo de atentar contra la privacidad y la intimidad, y esta posibilidad se multiplica en el caso de las neurotecnologías.

Más allá de la privacidad, el llamado derecho a la libertad cognitiva se sitúa en continuidad con el derecho humano a la libertad y libre desarrollo de la conciencia, evitando posibles usos coercitivos de ciertas herramientas neurotecnológicas.

Asimismo, también es relevante el derecho a la integridad mental, de tal manera que se preserve a los usuarios de posibles injerencias que puedan modificar su estado neuronal.

Por último, se destaca el derecho a la continuidad psicológica, referida a la capacidad de las personas de mantener la continuidad de su identidad y personalidad de forma libre.

Por el momento, Chile parece ser el primer país del mundo que va a incorporar los neuroderechos en su proyecto de reforma constitucional en curso.

Disrupción social, brecha de desigualdad y ética

Las neurotecnologías forman parte, como hemos dicho, de las tecnologías emergentes que combinan una evolución técnica acelerada y discontinua con un potencial de disrupción social importante. Más aún, el acceso o no a esas tecnologías puede provocar una nueva brecha de desigualdad e injusticia.

La incertidumbre acerca de los escenarios futuros reclama que la atención a los aspectos éticos y sociales acompañe al desarrollo tecnológico. Como otras tecnologías potencialmente disruptivas, las posibilidades de contribución al bienestar de la sociedad son amplias, pero también los riesgos ante los que prevenirnos.

Sería conveniente evitar un futuro en el que elegir un regalo para su amiga Marta abra escenarios de incertidumbre en su control sobre su propio estado cerebral. Los neuroderechos son una protección que puede contribuir a ello.

Sobre los autores: Txetxu Ausín, científico titular, Grupo de Ética Aplicada, Instituto de Filosofía, Centro de Ciencias Humanas y Sociales (CCHS – CSIC); Aníbal Monasterio Astobiza, investigador posdoctoral en ciencias cognitivas y éticas aplicadas, Universidad de Granada; Belén Liedo, investigadora predoctoral en ética y filosofía, Centro de Ciencias Humanas y Sociales (CCHS – CSIC); Daniel López Castro, investigador predoctoral, Grupo de Ética Aplicada, Instituto de Filosofía, Centro de Ciencias Humanas y Sociales (CCHS – CSIC); Manuel Aparicio Payá, profesor asociado del Departamento de Filosofía, Universidad de Murcia; Mario Toboso Martín, científico titular, Instituto de Filosofía (IFS-CSIC) y Ricardo Morte Ferrer, investigador predoctoral en filosofía, Universidad de Granada. Estos autores constituyen la “Mente Colmena” del Instituto de Filosofía del CSIC, un grupo interdisciplinar que trabaja sobre ética, ciencia y sociedad.

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo La urgencia de los neuroderechos humanos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Supervivientes

Dom, 2022/02/06 - 11:59
Fundulus heteroclitus fotografiado en la bahía de Chesapeake (costa este de los Estados Unidos). Foto: Brian Gratwicke / Wikimnedia Commons

La ciudad de Paterson, Nueva Jersey, alumbró el desarrollo industrial de los Estados Unidos tras su independencia. El río Passaic, a cuya orilla se fundó, aportó el agua utilizada por la industria, que era muy contaminante ya desde sus inicios: la tercera parte de su caudal ha llegado a ser utilizada con fines industriales durante algunos periodos. En sus orillas se instalaron fundiciones, fábricas de pintura, de sustancias químicas, empresas farmacéuticas y curtiderías, entre otras. Utilizaban ácido sulfúrico, arsénico, acetato de plomo, cromo, nitrato de mercurio y, más recientemente, bifenilos policlorados, los famosos PCBs, con propósitos variados.

La planta de la empresa Diamond Alkali en Newark empezó produciendo fertilizantes a partir de huesos de animales; en 1940 pasó a fabricar DDT, un insecticida hoy prohibido en todo el mundo; más tarde produjo herbicidas, el más conocido el defoliante Agente Naranja, del que manufacturó 2,6 millones de litros. La planta se hizo famosa por sus vertidos a gran escala de DDT, ácido sulfúrico y herbicidas al río Passaic. Entre los residuos resultantes de su producción estaban las dioxinas, unas sustancias de muy alta toxicidad. La fábrica fue descrita por el senador estadounidense Cory Booker, como la mayor escena criminal de Nueva Jersey.

Aguas abajo, en Arthur Kill, un estrecho intermareal situado tras la bahía de Newark, entre Nueva Jersey y State Island (Nueva York) por donde el río Passaic discurre hasta el Atlántico, reposan los restos de centenares de barcos. En las bodegas y depósitos de muchos de ellos sigue habiendo sustancias tóxicas para la mayor parte de la fauna de aquellas costas.

Sin embargo, también hay animales capaces de tolerar los efectos de la contaminación causada por las sustancias dañinas que se acumularon allí durante los años de máxima actividad industrial en la cuenca del Passaic. Abundan gusanos poliquetos, almejas y tunicados, animales que se alimentan de partículas orgánicas del sedimento, por lo que están impregnadas de los contaminantes vertidos. También hay cangrejos azules o jaibas. Cada uno de ellos contiene suficiente cantidad de dioxinas como para poder causar cáncer a quien se lo coma.

Otro animal que convive con la contaminación es Fundulus heteroclitus, un pez que tolera condiciones ambientales en general difíciles. Es capaz de vivir y progresar en agua dulce y salada, y está adaptado a un amplio rango de temperaturas. Cuando llega el invierno y baja mucho la temperatura, se entierra en el fango y permanece allí hasta que las condiciones mejoran. La NASA ha enviado peces de esta especie al espacio, para saber si podían nadar en ausencia de gravedad. Nadaron. Es más, llegaron a liberar sus gametos. Los ejemplares de esta especie que viven en lugares muy contaminados, como la Bahía de Newark toleran concentraciones de contaminantes muchísimo más altas que las que toleran la mayoría del resto de peces. Y en el caso de Fundulus, esa capacidad, que es de base genética, se ha adquirido en unas pocas décadas. Han experimentado lo que los biólogos denominamos “evolución rápida”.

Ninguna especie ha transformado nuestro planeta de forma tan profunda y radical como lo ha hecho la nuestra. No solo hemos aplanado montañas, alterado el curso de los ríos, rellenado valles y hondonadas, redibujado la línea de la costa o reconfigurado el paisaje. Hemos transformado plantas y animales para poder alimentar con ellos a miles de millones de personas. Y hemos provocado verdaderas catástrofes ecológicas, alterando de forma radical o destruyendo, incluso, ecosistemas completos. Sorprendentemente, sin embargo, hay especies que han conseguido resistir el efecto de la acción humana, adaptarse a las condiciones deletéreas y medrar allí donde pocos lo consiguen. Son verdaderos supervivientes.

Fuente: Cal Flyn (2021): Islands of Abandonment-Life in the Post-human Landscape. William Collins.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Supervivientes se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: Helena González-Burón – Lectura incómoda

Sáb, 2022/02/05 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

La incomodidad de una lectura depende de la persona que la ha de leer y de sus circunstancias. Sin embargo, hay lecturas que son objetivamente incómodas, como las secuencias de nucleótidos del ADN. ¿Cómo se puede extraer información útil de una hilera larguísima de cuatro letras que se repiten de forma aparentemente aleatoria? Helena González-Burón quien, aparte de ser directora y cofundadora de Big Van Ciencia, tiene un doctorado en genética, te lo explica muy clarito.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Helena González-Burón – Lectura incómoda se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Memoria y envejecimiento: los efectos beneficiosos del ejercicio físico son tremendamente volátiles

Vie, 2022/02/04 - 11:59
Fuente: pasja1000 / Pixabay

Con el fin de fomentar un envejecimiento cerebral sano durante la tercera edad, suele recomendarse introducir diversas modificaciones en nuestro estilo de vida, tales como llevar una dieta más sana, potenciar las actividades cognitivas rutinarias y, especialmente, dedicar más tiempo al ejercicio físico. Más allá del proverbio latino ‘mens sana in corpore sano’, el fundamento de esa recomendación se basa en observaciones epidemiológicas que sostienen que la actividad física se asocia con menor incidencia de la enfermedad de Alzheimer y otras demencias, estimándose que el sedentarismo podría ser el origen de más de cuatro millones de casos de demencia anualmente.

“Diversos ensayos clínicos en los que se ha incluido ejercicio físico moderado como terapia han demostrado un efecto positivo tanto en la cognición como en el grosor cortical”, confirma Alfredo Ramos-Miguel, investigador del Departamento de Farmacología de la Universidad del País Vasco/Euskal Herriko Unibertsitatea.

Los estudios preclínicos en modelos animales han sugerido que el ejercicio físico podría potenciar las habilidades cognitivas mediante un aumento de la sinaptogénesis, es decir, la generación de nuevas conexiones neuronales. Sin embargo, como indica el investigador, “la dificultad para realizar estudios moleculares en cerebro humano limita las posibilidades de hallar los mecanismos biológicos que median los efectos beneficiosos del ejercicio físico sobre la salud mental y cognitiva durante el envejecimiento”.

Para establecer las bases anatómico-patológicas y moleculares del declive cognitivo y psicomotor, el Proyecto Memoria y Envejecimiento (MAP, por sus siglas en inglés) del Rush Alzheimer’s Disease Center, en Chicago EE UU, lidera desde 1997 un estudio longitudinal y prospectivo con voluntarios que se prestan a realizar periódicamente evaluaciones cognitivas y psicomotrices, y a ceder sus órganos tras su defunción. El diseño de ese estudio permite correlacionar directamente los hábitos cotidianos y estados de salud con alteraciones estructurales y funcionales ocurridos en los cerebros de los participantes.

En la última publicación de ese proyecto, se presentan resultados en 404 individuos cuya actividad física fue monitorizada con actímetros ubicados en relojes o pulseras, durante una media de 3.5 años ante-mortem. Tras su defunción, se recogieron muestras de hasta doce áreas cerebrales esenciales para las habilidades cognitivas y psicomotrices, en las que se realizaron análisis cuantitativos y funcionales de ocho proteínas sinápticas, así como una evaluación histopatológica completa, que examina diez neuropatologías asociadas al envejecimiento.

Los resultados obtenidos confirmaron que mayores tasas de actividad física diaria se asocian, de manera global, con un enriquecimiento en la cantidad y funcionalidad de todas las proteínas sinápticas analizadas. Esa asociación se observó acentuada en regiones cerebrales relacionadas con el control motor, tales como el núcleo caudado y putamen. Asimismo, la relación entre ejercicio físico y densidad sináptica era independiente tanto de la carga neuropatológica hallada en las mismas áreas cerebrales como de la presencia de patologías que afectan a las habilidades motoras, indicando que la actividad física puede ser beneficiosa para cualquier persona de avanzada edad con independencia de su estado de salud.

Por otra parte, analizados longitudinalmente, datos de actigrafía indicaron que los efectos beneficiosos del ejercicio físico son tremendamente volátiles, pues aquellos participantes con elevada rutina física durante etapas tempranas y que descontinuaron ese hábito en los últimos dos años de vida, presentaban densidades sinápticas similares a las observadas en participantes más sedentarios.

En definitiva, “este estudio pone de manifiesto, por primera vez en humanos, que ejercitarse físicamente, incluso en edades avanzadas, contribuye bien a promover procesos de sinaptogénesis o bien a incrementar la resiliencia sináptica frente a los efectos deletéreos de las lesiones neuropatológicas”, afirma Ramos-Miguel.

Referencia:

Casaletto K., Ramos-Miguel A., VandeBunte A., Memel M., Buchman A., Bennett D., Honer W. Late-life physical activity relates to brain tissue synaptic integrity markers in older adults (2021) Alzheimer ‘s Dement. doi: 10.1002/alz.12530

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Memoria y envejecimiento: los efectos beneficiosos del ejercicio físico son tremendamente volátiles se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Por qué le dicen Pliniana cuando deberían llamarla Vesubiana?

Jue, 2022/02/03 - 11:59
Tipos de erupciones volcánicas: islándica = fisural; hawaiiana = efusiva; estromboliana, vulcaniana, peleana y pliniana = explosivas (por orden creciente de nivel de explosividad). Fuente: Encyclopædia Britannica (2011).

En los últimos meses, la actividad volcánica de nuestro planeta ha copado portadas y noticias, convirtiéndose en trending topic en las redes sociales de medio mundo. Gracias a esta repercusión mediática, todos hemos aprendido que existen distintos tipos de erupciones volcánicas, desde las más efusivas, en las que un magma de composición básica (menos de un 50% de SiO2), con elevada temperatura y baja viscosidad da lugar a la salida de una lava muy fluida que recorre grandes distancias, hasta las más explosivas, donde un magma de composición ácida (más de un 50% de SiO2), de menor temperatura, muy viscoso y con un elevado contenido en gases provoca la expulsión violenta de piroclastos (fragmentos de magma desgasificado enfriados rápidamente y que adquieren diferentes tamaños) y la acumulación de una lava también muy viscosa que puede taponar el cráter eruptivo.

Y el nombre de estos tipos de erupciones son bastante poéticos y evocadores, de esos que no dejan lugar a dudas sobre su origen. Podemos encontrarnos con una erupción de tipo hawaiano, esas erupciones efusivas que son típicas de los volcanes que han dado origen a las islas del archipiélago de Hawái. O con una erupción de tipo estromboliano, donde se alternan periodos explosivos con momentos de cierta calma volcánica y cuyo nombre proviene de las erupciones características del volcán siciliano Estrómboli, inmortalizado por Julio Verne en su novela “Viaje al centro de la Tierra”. Incluso, podemos toparnos con una erupción de tipo vulcaniano, llamadas así en honor a las erupciones mucho más explosivas y que generan una gran columna eruptiva que se producen en la isla también siciliana de Vulcano.

Pero hay un tipo de erupción con un nombre más particular y cuyo origen es bastante curioso. Seguro que, si os hablo de erupciones de tipo vesubiano, no habéis oído hablar de ellas en ningún momento. Pero si os digo erupción de tipo pliniano, os suena un poco más.

Una erupción pliniana, o de tipo pliniano, es una erupción muy explosiva, en la que se produce la expulsión de una enorme columna de gases y piroclastos que puede ascender varias decenas de kilómetros en altura y donde los materiales rocosos caen como si fuese una continua lluvia ardiente. Pero llega un momento en el que esta columna colapsa y toda esa mezcla de gases y piroclastos acaba discurriendo a gran velocidad por la ladera del volcán como una enorme ola ardiente (decenas a centenares de grados centígrados) que lo arrasa todo a su paso. Pero, ¿de dónde procede su nombre? Pues para eso, tenemos que remontarnos a hace casi dos mil años.

Ilustración de Gaius Plinius Secundus conocido como Plinio el Viejo incluida en la obra de Cesare Cantù Grande Illustrazione del Lombardo Veneto ossia storia delle città, dei borghi etc., Vol. III (1859, Milán). Fuente: Wikimedia Commons.

Corría el año 79 de nuestra era, según algunas fuentes históricas era finales de agosto, según otras, finales de octubre, pero fuera como fuese, ese año el monte Vesubio, situado en la Campania italiana, decidió entrar en erupción. Justo en la orilla de enfrente del Golfo de Nápoles, un tío y su sobrino observaron las primeras nubes piroclásticas salir del volcán y alzarse con esplendor sobre un cielo despejado de comienzos de la tarde. Ambos no solo compartían parentesco, sino también nombre, con un pequeño mote para diferenciar uno del otro. El mayor, militar, naturalista y erudito, creador de la primera enciclopedia de la que se tiene conocimiento y a la que tituló “Historia Natural”, era Plinio, llamado el Viejo. El sobrino, futuro senador romano, era Plinio, apodado el Joven.

Plinio el Viejo, animado tanto por su curiosidad científica como por su espíritu militar para prestar auxilio a varios amigos cuyas villas se encontraban cerca de la ciudad de Pompeya, en las laderas del Vesubio, decidió montar una pequeña flotilla de barcos y cruzar el Golfo de Nápoles de inmediato, lanzándose a la boca del volcán. Antes de soltar amarras, preguntó a su sobrino, Plinio el Joven, si quería acompañarle en su periplo. El muchacho declinó la oferta, prefería quedarse en la otra orilla y ocuparse de proteger a sus parientes y pertenencias. Y esta decisión fue vital para la historia.

El último día de Pompeya, obra del pintor ruso Karl Briulov realizada entre 1830 y 1833. Fuente: Wikimedia Commons.

Plinio el Viejo murió a los pies del Vesubio durante la erupción que arrasó con las villas de Pompeya y Herculano. Y la historia de su muerte fue relatada por carta por su sobrino, Plinio el Joven, al historiador romano Tácito años más tarde, acompañada de una descripción muy detallada de todas las fases eruptivas del volcán. En aquella época, Plinio el Joven defendía convencido que la muerte de su tío se debió al efecto nocivo de los gases volcánico, que acabaron asfixiándole. Actualmente, médicos y científicos de diversa índole creen que Plinio el Viejo murió debido a un ataque al corazón que sufrió en el camino en barco a través de la Bahía de Nápoles y que el volcán no tuvo nada que ver, simplemente cubrió su cuerpo ya inerte con una fina capa de cenizas a forma de manto mortuorio.

Pero, independientemente de la causa real de su muerte, Plinio el Viejo quedó para siempre unido a la historia de la erupción del Vesubio. Hasta tal punto que su nombre se emplea para describir este tipo de erupciones volcánicas a modo de homenaje geológico. Y sí, el término erupción tipo vesubiana es totalmente correcto y utilizado en la literatura científica, pero como los geólogos también somos un pelín poéticos, siempre preferiremos llamarlas plinianas.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo ¿Por qué le dicen Pliniana cuando deberían llamarla Vesubiana? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Kazimierz Kuratowski, el talento y el compromiso de un matemático de Varsovia

Mié, 2022/02/02 - 11:59

 

Él era un profesor de primer año, por así decirlo, y yo era un estudiante de primer año. Desde la primera clase me encantó la claridad, lógica y brillantez de su exposición, y el material que presentaba. […] Pronto pude responder algunas de las cuestiones más difíciles en el curso de teoría de conjuntos, y comencé a plantear otros problemas. Desde el principio aprecié la paciencia y la generosidad de Kuratowski al pasar tanto tiempo con un novato.

Stanislaw Ulam, MacTutor

Kazimierz Kuratowski (1959). Fuente: Wikimedia Commons.

 

Kazimierz Kuratowski nació el 2 de febrero de 1896 en Varsovia, ciudad que formaba parte en aquel momento del Zarato de Polonia, controlado por el Imperio ruso. Era hijo de Marek Kuratow, un abogado, y Róża Karzewska.

Tras completar la escuela secundaria, en 1913 se matriculó en un curso de ingeniería en la Universidad de Glasgow (Escocia), en parte porque estaba prohibida la enseñanza en polaco y no deseaba estudiar en ruso. El estallido de la Primera Guerra Mundial le permitió completar solo un año de formación. En 1915 tuvo lugar la Gran retirada rusa; en septiembre de ese año prácticamente toda Polonia estaba bajo el control del Imperio alemán y del Imperio austrohúngaro. La Universidad de Varsovia volvió a abrirse con el polaco como idioma de enseñanza; Kuratowski reinició allí su educación universitaria ese mismo año, pero cambió la ingeniería por las matemáticas.

Obtuvo su doctorado en 1921, supervisado por los matemáticos Zygmunt Janiszewski (1888-1920) y Stefan Mazurkiewicz (1888-1945). Su memoria de tesis, que resolvía algunos problemas de teoría de conjuntos planteados por el matemático Charles-Jean de La Vallée Poussin (1866-1962), constaba de dos partes. La primera se centraba en una construcción axiomática de la topología a través de los axiomas de clausura, y la segunda parte se dedicaba a continuos irreducibles entre dos puntos.

En 1923, Kuratowski fue nombrado profesor adjunto de matemáticas en la Universidad de Varsovia. Cuatro años más tarde fue contratado como profesor titular de matemáticas en el Politécnico de Leópolis, ejerciendo como director del departamento de Matemáticas hasta 1933.

Kuratowski tuvo la oportunidad de trabajar con algunos de los miembros de la Escuela de Matemáticas de Leópolis (como Stefan Banach (1892-1945) y Stanislaw Ulam (1909-1984)) y del círculo de matemáticos que acudía al Café Escocés. Pero siempre mantuvo estrechos vínculos con su ciudad natal, y regresó a la Universidad de Varsovia en 1934. Aunque no aportó ningún problema al conocido como libro escocés (que comenzó a elaborarse en 1935), colaboró ​​estrechamente con Banach en la resolución de algunos problemas en la teoría de la medida.

Algunos de los miembros de la Escuela de Matemáticas de Leópolis (1930). Fuente: Wikimedia Commons.

 

Durante la Segunda Guerra Mundial, al estar prohibida la educación superior para la población polaca durante la ocupación alemana, Kuratowski impartió clases en la universidad clandestina de Varsovia.

La importancia de la educación clandestina consistía, entre otras cosas, en mantener el espíritu de resistencia, así como el optimismo y la confianza en el futuro, tan necesarios en las condiciones de la ocupación. Las condiciones de vida de un científico en ese momento eran verdaderamente trágicas. Más dolorosas fueron las pérdidas humanas.

Kazimierz Kuratowski, MacTutor

Tras la Segunda Guerra Mundial, Kuratowski participó activamente en la reconstrucción de la vida científica en Polonia. En 1945 se convirtió en miembro de la Academia Polaca de Aprendizaje, desde 1949 fue elegido vicepresidente de la Sociedad Científica de Varsovia y, en 1952, se convirtió en miembro de la Academia de Ciencias de Polonia, de la que fue vicepresidente entre 1957 y 1968.

La investigación de Kuratowski se centró fundamentalmente en estructuras topológicas y métricas; como ya hemos comentado, estableció los axiomas de clausura. Los resultados más relevantes obtenidos tras la guerra son los que se relacionan la topología y la teoría de funciones analíticas. Junto a Ulam (a quien dirigió la tesis doctoral durante su estancia en Leópolis), introdujo el concepto de cuasi-homeomorfismo que abrió un nuevo campo en los estudios topológicos.

Junto a Alfred Tarski (1901-1983) y Wacław Sierpiński (1882-1969) proporcionó la mayor parte de la teoría sobre los espacios polacos. Bronisław Knaster (1893-1980) y Kuratowski aportaron un completo estudio a la teoría de componentes conexas.

Kuratowski demostró el lema de Kuratowski-Zorn en 1922, trece años antes que Max August Zorn (1906-1993), a quien se le da el único crédito en muchos textos.

Algunas de sus otras muchas contribuciones a las matemáticas incluyen la introducción del algoritmo de Tarski-Kuratowski en lógica matemática o la caracterización de los grafos planares: el llamado teorema de Kuratowski.

Recordemos que un grafo está definido por un conjunto de vértices y otro de aristas uniendo algunos de estos vértices. Y se denomina plano cuando puede dibujarse en el plano sin que ninguna arista se cruce. Los ejemplos más sencillos de grafos no planos son los llamados K5 y K3,3.

Grafos K5 y K3,3. Wikimedia Commons.

 

En 1930, Kuratowski demostró este bello teorema que caracteriza la ‘planitud’ de cualquier grafo:

Un grafo es plano si y solo si no contiene ningún subgrafo homeomorfo a K5 o K3,3.

Kuratowski publicó alrededor de 170 trabajos entre artículos, monografías y libros traducidos a varios idiomas, como su Introducción a la teoría de conjuntos y la topología.

Falleció el 18 de junio de 1980 en la ciudad que le vio nacer y en la que realizó la mayor parte de sus aportaciones en matemáticas.

El profesor Kuratowski destaca no solo como una gran figura en la investigación matemática, sino también por su habilidad, tan rara entre los científicos originales, para organizar y dirigir escuelas de investigación y educación matemática.

Stanislaw Ulam, MacTutor

Referencias

 

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Kazimierz Kuratowski, el talento y el compromiso de un matemático de Varsovia se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La asombrosa variedad genética de las neuronas humanas

Mar, 2022/02/01 - 11:59
Neuronas de la corteza cerebral observadas con la técnica brainbow. Imagen: Tamily Weissman / Harvard University

Los análisis genómicos de neuronas humanas individuales, tanto extraídas post mortem como obtenidas en cultivo, ponen de manifiesto que existe en ellas una considerable variación en el número de copias del ADN. Es probable que estas diferencias genéticas afecten a las funciones de las células encefálicas y que podrían, por tanto, tener influencia en nuestra personalidad, inteligencia o en la susceptibilidad a desarrollar enfermedades neurológicas.

En las neuronas existen una serie de cambios genéticos conocidos: la aneuploidía es el cambio en el número de cromosomas; en las retrotransposiciones una secuencia de ADN se mueve a otra parte del genoma mediante transcripción a ARN; y, finalmente, la expresión de enzimas que alteran el ADN. Todas estas fuentes de diversidad genética son frecuentes en el encéfalo.

Durante mucho tiempo ha existido la idea de que, dada la enorme variedad de tipos de células en el encéfalo, deberían existir mecanismos genéticos que generaran esta diversidad. Uno de los mecanismos genéticos potentes que podrían contribuir a esta variedad celular, aparte de los anteriores, es la variación en el número de copias (VNC). Una VNC es una modificación estructural del ADN, en la que una parte significativa del mismo desaparece o aparece duplicada tras una copia en determinados cromosomas. No hay que confundir las VNC con los polimorfismos de un sólo nucleótido, que afectan a un solo gen y que son los cambios más estudiados para ver la influencia genética en determinado proceso.

Para determinar la variabilidad genómica como consecuencia de la VNC es necesario una tecnología que permita analizar célula a célula pues, de lo contrario, con las técnicas de secuenciación habituales lo que se obtiene es un promedio de un gran número de células presentes en el tejido analizado y este promedio tenderá, en general, a acercarse a una sola copia conforme sea mayor el número de células consideradas.

McConnell y sus colegas consiguieron secuenciar células individuales gracias a una técnica desarrollada en el Laboratorio Cold Spring Harbour (EE.UU.). En concreto analizaron 110 neuronas individuales extraídas de tres personas fallecidas. Y el resultado es sorprendente: el 41% de las células contienen una o más VNC, la mayoría borrados o duplicaciones.

Por otra parte, el análisis de neuronas derivadas en cultivos a partir de células madre pluripotentes inducidas (CMPI) reveló la existencia de un número de VNC similar: de 40 células secuenciadas, 13 presentaban cambios únicos en sus genomas.

Un aspecto interesante es que las células progenitoras neuronales derivadas de estas mismas líneas de CMPI no tenían tanta diversidad. Esto sugeriría, primero, que la variación genética de las neuronas tiene lugar sólo en las etapas posteriores de diferenciación y, segundo, que la variación se desarrolla en un corto espacio de tiempo (las neuronas necesitan siete semanas para diferenciarse de sus progenitores). También podría concluirse que la variación detectada en las neuronas tomadas post mortem no sería un efecto del envejecimiento (en principio, la copia repetida aumentaría la probabilidad de un fallo en una copia).

Por tanto, si los cambios genéticos tienen lugar pronto, resulta que nos acompañan durante la mayor parte de nuestra vida y, por consiguiente, la probabilidad de que afecten a la configuración y funcionamiento de nuestro encéfalo aumentaría, con lo que ello implica para el comportamiento, la inteligencia o las enfermedades neuropsiquiátricas. ¿Cuánto? Eso tendrá que esperar, entre otras cosas, a nuevos avances tecnológicos que permitan estudiar VNC y expresión genética en la misma célula individual.

Referencia:

McConnell M.J., Lindberg M.R., Brennand K.J., Piper J.C., Voet T., Cowing-Zitron C., Shumilina S., Lasken R.S., Vermeesch J.R. & Hall I.M. & (2013) Mosaic Copy Number Variation in Human Neurons Science doi: 10.1126/science.1243472

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este artículo se publicó en Experientia Docet el 7 de noviembre de 2013.

El artículo La asombrosa variedad genética de las neuronas humanas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Una vela en la oscuridad

Lun, 2022/01/31 - 11:59

Ignacio González Bravo

Empleamos los datos para hacer modelos y predecir lo que podría funcionar, pero eso es como usar una vela en la oscuridad, que diría Carl Sagan. Foto: Pxhere

La pandemia nos ha mostrado que ni la ciencia ni la ingeniería son capaces, por sí solas, de solucionar un problema en tiempo real cuando la crisis es global, cuando las intervenciones locales son costosas y de efecto limitado, cuando hay que actuar sin tener toda la información.

La ciencia intenta comprender el mundo; la ingeniería, resolver problemas. Son probablemente las herramientas más poderosas creadas por los humanos. Para lo bueno y para lo malo. Nos permiten ir más allá de nosotros mismos, como diría José Antonio Marina.

Las dos son aproximaciones profundamente humanas a la realidad, sin jerarquía intelectual entre ellas: la una no vale más que la otra. Las dos son compatibles y se necesitan mutuamente. Pero no son iguales, sus productos son distintos. Han construido edificios filosóficos diferentes para relacionarse con el mundo: la ciencia para comprenderlo, la ingeniería para actuar sobre él.

La práctica de la medicina no es una ciencia, es una ingeniería del cuerpo, que busca resolver el problema de curar al paciente. La analogía puede ser la construcción de un puente: lo que queremos es tenderlo de un lado al otro y, para ello no necesitamos comprender el fundamento molecular de la elasticidad del hormigón. Claro que hay investigación y ciencia médicas, pero en la práctica médica —como en la construcción, como en la ingeniería—, un conocimiento que resuelve el problema es suficiente.

La vacunología tampoco es una ciencia. La comprensión de los mecanismos inmunitarios va muy por detrás de la práctica en el diseño y la utilización de las vacunas. Ha sido así desde la vacuna contra la viruela. En realidad no sabemos bien por qué unas vacunas funcionan muy bien y otras no, ni cuál es el tiempo ideal entre dosis de refuerzo, ni si es mejor vacunar a todo el mundo o administrar varias dosis de refuerzo a los más susceptibles.

Pero, a pesar de nuestra comprensión limitada, las vacunas son para muchas enfermedades la primera y la más importante línea de defensa: evitan muertes y secuelas de por vida; cuando no la previenen, limitan el impacto de la infección; protegen a los miembros más débiles de la comunidad. Y todo esto, también para la covid-19.

No sabemos, porque comprendemos poco. Pero ni siquiera sabemos por qué comprendemos poco. Hemos acumulado montañas de datos sobre muchas vacunas, y los empleamos para hacer modelos e intentar predecir lo que podría funcionar. Y en este ir a tientas estamos, en los bordes de lo que conocemos —una vela en la oscuridad, diría Carl Sagan— intentando ver por dónde continuar. Ahora bien, predecir no quiere decir comprender.

Un ejemplo operacional —uno entre miles— lo tenemos en el curado del jamón: conocemos las condiciones óptimas de salado, humedad y temperatura —Dulcinea tenía la mejor mano de toda La Mancha para salar puercos—, pero no sabemos muy bien qué pasa en el proceso. Ni falta que nos ha hecho, históricamente, para hacer guijuelos y jabugos.

Otro ejemplo, estadístico esta vez: las funciones matemáticas que describen el comportamiento de un conjunto de átomos radiactivos nos dicen que el sudario de Turín es medieval, pero observar un único átomo radiactivo no nos da pista alguna sobre cuándo se va a descomponer.

También conviene recordar que los datos son necesarios, pero no suficientes para tomar una decisión informada. La proporción de personas vacunadas que pueden ser (re)infectadas por la variante ómicron, o la edad de las personas infectadas, son datos. Pero necesitamos transformarlos en información: obtenerlos estandarizados y en gran número, conectarlos, cruzarlos, construir con ellos modelos, hacer predicciones, concebir intervenciones en salud pública. Quizá proponer soluciones al problema de la pandemia. Después, quizá, comprender.

Esta pandemia ha puesto en evidencia lo poco que comprendemos sobre los estilos de vida de los virus. Pero nos ha mostrado, sobre todo, que ni la ciencia ni la ingeniería son capaces, por sí solas, de comprender el mundo ni de solucionar un problema en tiempo real cuando la crisis es global, cuando las intervenciones locales son costosas y de efecto limitado, cuando hay que tomar decisiones sin tener toda la información.

Habrá sin duda más crisis a las que los humanos tendremos que hacer frente en los próximos treinta años. Si somos inteligentes, la ciencia y la ingeniería serán parte de la solución. Si no lo somos, serán la coartada para justificar malas decisiones. O se convertirán en el chivo expiatorio, culpables de haber hecho posible que la humanidad recorra el camino hasta el borde del precipicio.

Sobre el autor: Ignacio González Bravo es director de investigación en el Laboratorio de Enfermedades infecciosas y vectores: ecología, genética, evolución y control (MIVEGEC) del Centro Nacional de Investigación Científica (CNRS) de Francia.

Este artículo ha aparecido originalmente en SINC con el título «Si no somos inteligentes, la ciencia y la ingeniería serán la coartada para justificar malas decisiones». Ha sido adaptado formalmente a los criterios editoriales del Cuaderno de Cultura Científica; el contenido permanece inalterado salvo el titular (más breve y abierto) y el pie de foto (algo más explícito).

El artículo Una vela en la oscuridad se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Sin macrogranjas, ¿podríamos consumir carne a un precio asequible?

Dom, 2022/01/30 - 11:59

María Arias Álvarez, Clemente López Bote, Felipe José Calahorra Fernández, Manuela Fernández Álvarez y María Isabel Cambero Rodríguez

Shutterstock / ArtbyPixel

 

El fin primordial del sector agroalimentario en general, y de la ganadería en particular, es aportar a la sociedad alimentos de alto valor nutritivo y de alta calidad sanitaria y sensorial. El desarrollo científico y tecnológico de los últimos 60 años ha permitido incrementar la eficacia de los sistemas productivos, proceso conocido como intensificación. Esto ha posibilitado que la oferta de alimentos sea suficiente, amplia y asequible económicamente para la mayoría de la población mundial.

Respecto a la evolución del mercado en estas décadas, es interesante resaltar que el gasto medio familiar en alimentos ha descendido en España desde más del 50 % de su presupuesto hasta aproximadamente el 14 %.

El sistema agroalimentario español

Por sus condiciones climáticas, la ubicación y la capacidad y buen hacer de sus profesionales, el sector agroalimentario es especialmente pujante en España desde su incorporación a la Unión Europea en 1986. Supone un referente en la producción de alimentos, con un elevado potencial para convertirse en la huerta y granja de Europa.

Actualmente, el sector agroalimentario es uno de los principales motores económicos de España, con un elevado impacto en el comercio exterior, y es uno de los que más empleo genera (11,9 %). Se encuentra repartido por todo el territorio nacional, por lo que desempeña un papel esencial en la fijación de la población rural.

La cadena de valor agroalimentaria (producción, industria y distribución) aporta el 9,1 % del valor añadido bruto. Además, a nivel europeo, el sector agroalimentario español destaca por su productividad y competitividad (34,2 % y 30 % superior a la media de la Unión Europea, respectivamente). Cabe añadir que el sector agroalimentario contribuye de forma más o menos directa al desarrollo del turismo gastronómico, la restauración y al avance científico y tecnológico en este área.

Una prueba de la eficacia de nuestro sistema agroalimentario es su capacidad de responder a situaciones de crisis. Conviene recordar que en el periodo de confinamiento durante la pandemia de la covid-19, ha mantenido un abastecimiento ininterrumpido de todos los tipos de alimentos, cosa que no ha ocurrido en algunos países de nuestro entorno. Además, en 2020, las exportaciones de este sector se incrementaron en un 4,4 % mientras que la exportación general cayó un 10,3 %.

Vacas descansando en un prado de alta montaña.Lo que algunas personas entienden como agricultura y ganadería tradicional disminuyó drásticamente, hasta casi desaparecer, hace más de cuatro décadas por razones económicas, demográficas y de bienestar de la población rural. Foto: Shutterstock / Irene Castro

Precios justos y accesibles

En una sociedad cada vez más desvinculada del medio rural, existe un desconocimiento generalizado de cómo se producen los alimentos de origen animal. Los sistemas de producción intensivos surgieron para satisfacer la alta demanda de alimento de una población mal nutrida, específicamente en los estratos sociales más desfavorecidos.

Lo que algunas personas entienden como agricultura y ganadería tradicional disminuyó drásticamente, hasta casi desaparecer, hace más de cuatro décadas por razones económicas, demográficas y de bienestar de la población rural. De hecho, el 80-90 % de los productos que consumimos actualmente proceden de la agricultura y ganadería intensivas. Esto es debido, en parte, a la falta de precios justos y a los altos costes de producción, lo que ha dificultado la supervivencia de las granjas familiares y ha favorecido la implantación de sistemas de producción más eficientes.

Es preciso aclarar que en la legislación española y comunitaria no existe el término “macrogranja”. La RAE ni siquiera lo contempla. Por analogía, es un término que se asocia a la producción intensiva y a granjas de gran tamaño, sin especificar el número de animales.

En la ganadería, como en cualquier otra actividad económica, la producción a gran escala permite reducir costes. Optimiza recursos humanos y de abastecimiento de materias primas, con sus ventajas e inconvenientes.

Por una parte, no puede discutirse el efecto que tiene la producción intensiva en la reducción de los precios. De forma generalizada, en todo el mundo, las granjas más pequeñas son menos competitivas y por ello su número es cada vez más reducido.

Mientras que los costes del pienso para los animales, la energía eléctrica, el agua y los combustibles han aumentado considerablemente, el precio de la carne se ha mantenido estable desde la década de 1980, gracias al avance de los sistemas de producción intensiva. Esto ha permitido que la carne, como alimento de alto valor nutritivo, sea accesible a todos los sectores sociales de España.

Hasta la primera mitad del siglo XX, el hambre y la subnutrición afectaban a más del 50 % de la población mundial. En la actualidad la subalimentación supone menos del 11 %. La mejora de la accesibilidad a alimentos de elevado valor nutritivo se refleja en la reducción de la incidencia de déficits nutricionales y el aumento de indicadores asociados a la salud (como la talla media y la longevidad).

Piezas de vacuno vasco y gallego en el mercado barcelonés de La Boquería. Foto: Shutterstock / Wirestock Creators

Sistemas de producción y calidad de la carne

Calidad es un concepto amplio que en los alimentos abarca distintos aspectos. Así, hablamos de calidad sensorial, nutritiva y microbiológica. En el caso de la carne, un alimento complejo constituido por diversos tejidos, la calidad está condicionada por diversos factores como la especie, la raza y el sexo del animal, el sistema de producción, la alimentación y sus interacciones.

La definición más extendida de calidad de la carne se centra en la percepción objetiva y subjetiva de su composición (relación magro-grasa-tejido conjuntivo) y de sus propiedades sensoriales (aspecto, color y brillo, aroma, sabor, dureza y jugosidad). Sin embargo, más allá de la percepción directa del consumidor, hay otros aspectos que se relacionan con la calidad nutritiva y la seguridad.

Desde el punto de vista nutritivo, la carne, al igual que otros alimentos de origen animal, es una excelente fuente de proteínas con un gran valor biológico y de vitaminas (especialmente B6 y B12) y minerales esenciales (fundamentalmente hierro, zinc, magnesio, potasio, fósforo y selenio).

La cantidad de proteína en la carne puede variar entre un 12 % y un 20 % en función de la especie, de la región anatómica y de la edad del animal. En general, los animales criados en explotaciones intensivas tienden a presentar una carne de composición más homogénea, con menos engrasamiento, especialmente de grasa infiltrada en el músculo. Por tanto, tiene un mayor porcentaje de proteínas, es decir, es una carne más magra que la procedente de la cría en extensivo.

Un conocido ejemplo es la carne de los cerdos ibéricos criados en extensivo o semiextensivo. Las características de la raza, así como el ejercicio y la mayor edad de los animales, confieren un mayor grado de infiltración de grasa, que además es más insaturada, con la consiguiente repercusión en la calidad sensorial y nutritiva. Por su parte, el cerdo de capa blanca procedente de producciones en intensivo proporciona en general una carne más magra y una grasa más saturada, con menores matices sápidos y aromáticos, pero igualmente nutritiva.

Es indudable que las condiciones de cría influyen en la calidad de la carne. Un animal estresado o mal alimentado tendrá un menor índice de crecimiento y una carne más magra y menos jugosa. Los factores estresantes se pueden dar en todos los sistemas de producción. Sin embargo, los veterinarios, de acuerdo con la legislación vigente, velan por que las condiciones sean las adecuadas a lo largo de toda la vida del animal.

Regulación sanitaria

Toda la ganadería en España, independientemente del sistema de producción, está sometida a estrictos controles sanitarios en el ámbito de la legislación de la Unión Europea y de la estrategia De la granja a la mesa, el Pacto Verde Europeo y la iniciativa Una Sola Salud.

Los veterinarios también llevan a cabo las inspecciones pertinentes para garantizar que al mercado llegue carne segura para la salud del consumidor, es decir, procedente de animales sanos, sin enfermedades transmisibles a los humanos y sin sustancias nocivas.

En España existe un Plan Nacional de Investigación de Residuos cuyo objetivo es controlar la presencia de distintas sustancias (antibióticos y otros medicamentos, plaguicidas, metales pesados y otros contaminantes ambientales) en animales vivos y sus productos, y en aguas residuales y piensos. Este plan es de obligado cumplimiento en todas las instalaciones ganaderas.

La comercialización de la carne y sus productos derivados se rige por el Plan Nacional de Control de la Cadena Alimentaria, coordinado y aprobado, entre otros, por la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN), organismo adscrito al Ministerio de Consumo.

Veterinario en una explotación intensiva de porcino. Foto: Shutterstock / hedgehog94

Competitividad en el mercado internacional

Además de la ganadería intensiva, y aunque minoritarios, en España conviven otros tipos de producción: ecológica, extensiva, semiintensiva y familiar intensiva de pequeño tamaño. Es el país con mayor superficie de agricultura ecológica de Europa y ocupa el cuarto puesto a nivel mundial. Esta ganadería, que está enfocada a un mercado de mayor poder adquisitivo, es también un sector vigoroso y de incuestionable valor porque está directamente relacionado con la gastronomía, la biodiversidad, la tradición y la vida rural.

En su conjunto, la ganadería española tiene una gran potencia exportadora y tiene, en la calidad de sus producciones, su mayor valor. En 2020, la cadena ganadería- industria cárnica aportó 8 680 millones de euros de exportaciones a la balanza comercial de España y un saldo positivo del 799 %, que contribuyen a paliar el tradicional déficit comercial de nuestro país.

En los países exportadores de carne, las granjas tienden a ser cada vez de mayor tamaño. Ello permite una producción más homogénea y continua, a precios más competitivos y con mayor tecnificación. Resulta difícil competir en el complicado mercado internacional con granjas de pequeño tamaño para exportar carne a países de gran demanda como China, uno de los principales destinos de los productos españoles.

En este sentido, es interesante señalar que la dimensión media de las granjas españolas es actualmente más pequeña que en la mayor parte de los países competidores en el comercio internacional.

¿Deberían prohibirse las granjas grandes?

Los principales perjudicados por la prohibición de cualquier sistema que permita un menor coste de producción son los consumidores de menor poder adquisitivo. En segundo lugar, y en el caso de la producción animal, serían los ganaderos afectados y el sector cárnico en su conjunto los que perderían competitividad en el mercado internacional, y por extensión la economía del país.

Una producción basada exclusivamente en sistemas extensivos supondría que los procesos productivos serían, en muchos casos, más largos (se tardaría más tiempo, por ejemplo, en que un animal alcanzase el peso comercial) y los rendimientos disminuirían (por ejemplo, la producción de huevos por gallina y año sería mucho menor).

Todo lo anterior implicaría que la oferta global de alimentos se reduciría frente a una demanda, como mínimo, estabilizada. Esto provocaría situaciones de escasez y desabastecimiento, con la consiguiente subida de los precios. Este incremento de los precios afectaría fundamentalmente a las familias más desfavorecidas económicamente, que no tendrían, en muchas ocasiones, acceso a alimentos de elevada calidad nutritiva como los de origen animal.

Para paliar esta situación habría que recurrir a la importación de productos más baratos procedentes de otros países más competitivos en precio (por tener salarios más bajos y normativas sanitarias y de bienestar animal menos exigentes que las europeas), pero con menores garantías de cumplir los requisitos de calidad adecuados.

No sería la primera vez que se prohíba o dificulte la producción de un cierto alimento, pero al mismo tiempo se autorice la importación de ese mismo producto procedente de otro país. Desgraciadamente hay muchos ejemplos en ese sentido que explican en buena medida la dificultad que encuentra el sector agroalimentario español para competir, un factor parcialmente responsable de la despoblación rural.

¿Desaparecerá la producción tradicional?

En un mercado competitivo, para que las granjas pequeñas puedan sobrevivir y competir, es preciso que la sociedad valore y demande sus productos. Un aspecto clave es la diferenciación del mercado. Si la producción llega al mercado sin diferenciación y no existe promoción de ningún tipo, solo la eficiencia (el precio) importa, y esto impulsa el incremento de granjas de mayor tamaño.

Se necesita, por tanto, una política agroalimentaria continuada y activa, orientada a la mejora de la tecnificación de todos los sistemas de producción (también de los pequeños), de los canales de comercialización y promoción de los productos y al desarrollo de sistemas de trazabilidad. Es decir, una promoción y orientación del consumo.

En estos principios se basa la Política Agraria Común, que tiene muchos aspectos manifiestamente mejorables en su implementación, pero debería ser el centro de atención de las políticas agrarias y de consumo. Se trata de potenciar y valorizar lo artesano y tradicional, consiguiendo que los consumidores de nivel adquisitivo medio acepten pagar más de 60-70 céntimos por un litro de leche o más de 10 céntimos por un huevo.

La falta de estructuración del mercado es un aspecto clave para el sector agroalimentario español que obliga a los agricultores y ganaderos a competir en un entorno internacional con países que tienen costes de producción mucho más bajos. Este es el reto conjunto que debería abordarse y coordinarse desde los correspondientes ministerios.The Conversation

Sobre los autores: María Arias Álvarez  es profesora del Dpto. Producción Animal; Clemente López Bote es catedrático del Dpto. Producción Animal; Felipe José Calahorra Fernández es profesor del Dpto. Producción Animal; Manuela Fernández Álvarez es profesora del Dpto. de Farmacia Galénica y Tecnología Alimentaria y María Isabel Cambero Rodríguez es catedrática del Dpto. de Farmacia Galénica y Tecnología Alimentaria. Ambos departamentos de la Facultad de Veterinaria de la Universidad Complutense de Madrid.

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Sin macrogranjas, ¿podríamos consumir carne a un precio asequible? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: Javier Pedreira «Wicho» – Una programadora en el siglo XIX

Sáb, 2022/01/29 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

La programadora del titular es una programadora en el sentido actual del término en el ámbito de la computación. Lo fue a principios del XIX en el primer ordenador digno de ese nombre de la historia. No es otra que Ada Lovelace. El divulgador Javier Pedreira, Wicho en los ambientes internetiles, es informático de profesión.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Javier Pedreira «Wicho» – Una programadora en el siglo XIX se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Datación de la muerte a partir de restos óseos humanos mediante técnicas no destructivas

Vie, 2022/01/28 - 11:59
Fuente: Wikimedia Commons

Un estudio de la UPV/EHU determina por primera vez en muestras reales el intervalo post mortem de restos óseos humanos usando una combinación de herramientas analíticas no destructivas: la espectroscopia Raman y la quimiometría. Esto abre nuevas vías de datación en el ámbito de la medicina forense y la antropología.

Existe una importante demanda en el campo del análisis forense para determinar objetivamente el intervalo post mortem cuando se descubren restos óseos humanos. Hasta ahora se han utilizado múltiples técnicas para establecer el tiempo aproximado transcurrido desde la muerte del individuo, pero presentan importantes inconvenientes en cuanto a fiabilidad y precisión: ofrecen un intervalo aproximado pero no una fecha exacta; se trata de técnicas relativamente invasivas las cuales necesitan de una tinción o de una extracción de una parte del hueso etcétera.

El objetivo de la investigación que ha liderado Luis Bartolomé, técnico del SGIker – Servicio Central de Análisis (SCAB) de la UPV/EHU, fue precisamente proponer un método capaz de determinar el intervalo post mortem relativamente exacto en restos humanos mediante el uso de mediciones no destructivas.

Los investigadores han analizado una colección de 53 restos óseos humanos reales con el intervalo post mortem conocido proporcionada por el Departamento de Medicina Legal, Toxicología y Antropología Física de la Universidad de Granada. “Utilizando por primera vez muestras reales hemos construido y validado un modelo a partir de la combinación de dos herramientas no destructivas: la espectroscopia Raman y la quimiometría”, explica Bartolomé.

Los espectros Raman contienen información fisicoquímica de casi todos los componentes de la muestra; sin embargo, debido a la complejidad de los mismos, en la mayoría de los casos no es posible diferenciar toda la información que contienen. La quimiometría, por su parte, es capaz de extraer los parámetros de interés de los espectros a través de métodos matemáticos y estadísticos.

“Combinando ambas técnicas, hemos sido capaces de construir un modelo en el cual el espectro Raman de cada resto óseo analizado está asociado a un intervalo post mortem”, indica. Relacionar el espectro con un intervalo de tiempo no es una tarea fácil y para ello han utilizado modelos estadísticos y logaritmos que permiten relacionar cada espectro con un tiempo. “De esta manera, cuando nos llegan restos óseos humanos que desconocemos el tiempo transcurrido desde su fallecimiento, lo que hacemos es una interpolación con la introducción de dichos datos en el modelo validado para obtener un intervalo post mortem relativamente exacto”, explica el investigador. “Los datos registrados en el modelo desarrollado proporcionan información valiosa y potencialmente útil y versátil”, subraya.

Según Bartolomé, “la combinación de ambas técnicas supone un importante logro para la medicina forense y la antropología. Sin embargo, siempre existe un ámbito de mejora puesto que este tipo de modelos cuanta más cantidad y variedad de muestras tienen funcionan mejor; el modelo incluye más heterogeneidad y responde con mayor robustez a un mayor rango de casos”.

Referencia:

L. Ortiz-Herrero, B. Uribe, L. Hidalgo Armas, M.L. Alonso, A. Sarmiento, J. Irurita, R.M. Alonso, M.I. Maguregui, F. Etxeberria, L. Bartolomé (2021) Estimation of the post-mortem interval of human skeletal remains using Raman spectroscopy and chemometrics Forensic Science International doi: 10.1016/j.forsciint.2021.111087

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Datación de la muerte a partir de restos óseos humanos mediante técnicas no destructivas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El color de las estrellas

Jue, 2022/01/27 - 11:59
Fuente: Hubblesite / NASA – ESA – K. Sahu (STScI)

Oh, Be A Fine Girl/Guy, Kiss Me!

No, no es el título de una canción cursi, ni una frase babosa para ligar. Se trata de una regla mnemotécnica que contiene siete letras fundamentales para la astrofísica: O B A F G K M. Sirven para clasificar los distintos espectros estelares de acuerdo con el sistema de Harvard que aún sigue vigente hoy en día. Fue definido en 1901 por uno de los miembros más destacados del “harén de Pickering”: Annie Jump Cannon.

¿Y por qué usó unas letras tan aparentemente arbitrarias, os preguntaréis? No haría falta pedirla besos a nadie, si las elegidas hubiesen sido A B C D E F G, por ejemplo. Pues bien, la cuestión es que Jump Cannon no partía de cero. Su trabajo se basaba en un sistema de clasificación previa que asignaba a cada estrella una letra de la A a la Q, en función de la forma de su espectro. Este método había sido establecido por otra astrónoma de Harvard, Williamina Fleming, durante la elaboración del Catálogo Draper, y a su vez, se basaba en las categorías definidas por el pioneer Secchi, solo que subdivididas con mucho más detalle.

Annie Jump Cannon consiguió simplificar todo este sistema, redujo el número de categorías a siete y las reordenó ligeramente, haciendo así más fácil el proceso de clasificación y su propio trabajo. De hecho, entre las “computadoras de Harvard”, Cannon destacó por su rapidez, su habilidad y su precisión. Llegó a clasificar más estrellas que cualquier otra persona a lo largo de su vida, alrededor de 350.000, unas 5000 mil al mes entre 1911 y 19151. Se cuenta que podía clasificar tres estrellas en un minuto con tan solo mirar sus patrones espectrales. La tía iba a 200 por hora, literalmente (o eso aseguraba la prensa de su época2). Fue así como logró descubrir alrededor de trescientas nuevas estrellas variables, cinco novas y una estrella binaria espectroscópica (estrellas dobles cuya melliza solo se puede detectar a través del espectro).

En 1901, poco después de ser contratada por Harvard, se publicó el primer catálogo de espectros estelares en el que Cannon participó. Las siete categorías que allí definió (O B A F G K M), más otras tres que se añadieron posteriormente (L T Y) se corresponden con la temperatura superficial de las estrellas: desde las más cálidas (O) a las más frías (Y). Si bien esta relación no pudo ser demostrada hasta años después, gracias otra astrónoma de Harvard, Cecilia Helena Payne-Gaposchkin.

¿Pero cómo es posible que podamos conocer la temperatura de unos astros que se encuentran a años luz de nosotros?, ¿cómo podemos medir la calidez de unos objetos que, sencillamente, nos abrasarían si estuviesen al alcance de nuestros termómetros? Pues bien, la clave se encuentra de nuevo en el arcoíris interno de la luz. Hasta ahora habíamos explicado cómo el espectro de una estrella nos da información sobre su composición química. Pero existe, además, una relación entre el color dominante de este espectro y la temperatura.

Esta asociación puede explicarse mediante la radiación del cuerpo negro3. Un cuerpo negro es un objeto físico ideal que no refleja ninguna radiación (ningún tipo de luz ni onda electromagnética). Cuando está en equilibrio térmico, emite una radiación que depende de su temperatura. A mí me gusta imaginarlo como el ascua de un carbón negrísimo: al apagar el fuego, emite un fulgor más brillante y blanquecino. Pero con el tiempo, este se vuelve rojizo hasta que finalmente se apaga (emite radiación infrarroja, en realidad, pero esto ya no lo vemos).

Aunque se trata solo de un modelo, el concepto de cuerpo negro nos permite calcular con precisión la temperatura de las estrellas4. Como si fuesen ascuas espaciales (las brasas de una fogata cósmica imaginaria), las estrellas emiten luz de distintos colores en función de su temperatura y esto se manifiesta a través su espectro. Cada una tiene una curva de emisión característica que alcanza el máximo para cierta frecuencia. Es decir, el arcoíris interno de su luz no es homogéneo, algunos colores brillan con más intensidad y según cuáles sean estos colores, podemos deducir la temperatura de superficial de la estrella.

Este es el espectro de nuestro Sol, por ejemplo. En la gráfica aparece también una línea que representa la emisión del cuerpo negro equivalente:

Espectro de la luz solar. Fuente: Wikimedia Commons

La superficie de nuestra estrella se encuentra a unos 5800 K y, en consecuencia, su espectro alcanza el máximo en torno a los 500 nm. Se trata de una luz de color cian azulado. La atmósfera absorbe gran parte de la radiación en torno a este máximo (en la gráfica, en rojo, se puede ver la luz que llega a nivel del mar), y quizás por eso los niños acaban pintando nuestra estrella con el lápiz de color amarillo. Para la mayoría de las estrellas, de hecho, el máximo de emisión se alcanza dentro del rango de la luz visible. Por eso resulta bastante correcto hablar del “color” de las estrellas: desde el azul de las más cálidas, hasta el granate o casi negro, de las frías.

Jump Cannon, por su parte, siguió coloreando el cielo nocturno con sus siete letras durante el resto de su vida. Su figura ayudó a romper estereotipos en un tiempo en que las calculadoras de Harvard aún eran criticadas por salirse de su sitio como amas de casa. En 1911 Cannon fue nombrada conservadora del archivo de fotografías astronómicas de Harvard. En 1914, fue admitida como miembro honorario de la Royal Astronomical Society. En 1921, se convirtió en una de las primeras mujeres en recibir un doctorado honoris causa de una universidad europea y en 1925, la universidad de Oxford la galardonó con otro. Fue la primera vez que esta universidad premiaba así a una mujer dentro de una disciplina científica. Hoy, un cráter de la Luna lleva su nombre.

Referencias:

1García, Antonio. “Annie Jump Cannon.” El extraño caso de Henrietta Leavitt y Erasmus Cefeido, Instituto de Astrofísica de Andalucía, 9 July 2013.

2Woman Making Index of 100 000 Stars for a Catalogue.” The Danville Morning News, 10 de febrero de 1913. Consultado el 10 de enero de 2022.

3El concepto fue propuesto por Kirchhoff en 1860, pero inicialmente planteaba ciertos problemas, como la llamada “catástrofe ultravioleta”. En el 1900, la solución a este problema llegaría de la mano de la física cuántica gracias a Max Planck. Planck obtuvo empíricamente la expresión para la radiación del cuerpo negro en función de la longitud de onda.

4La conocida como ley de Planck describe la radiación del cuerpo negro. Gracias a ella, podemos calcular la temperatura en la superficie de una estrella en función de la longitud de onda en la que su espectro electromagnético alcanza un valor máximo.

&nbsp
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El color de las estrellas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Páginas