Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 1 hora 46 mins

Sueños antiguos

Mar, 2021/10/05 - 11:59
El sueño de Jacob (1639). José de Ribera (1591-1652). Óleo sobre lienzo, 179 x 233 cm. Museo del Prado.  Génesis 28: 10-17 «Jacob salió de Berseba y fue a Jarán.  Llegando a cierto lugar, se dispuso a hacer noche allí, porque ya se había puesto el sol. Tomó una de las piedras del lugar, se la puso por cabezal, y acostóse en aquel lugar. Y tuvo un sueño; soñó con una escalera apoyada en tierra, y cuya cima tocaba los cielos, y he aquí que los ángeles de Dios subían y bajaban por ella.  Y vio que Yahvé estaba sobre ella, y que le dijo: «Yo soy Yahvé, el Dios de tu padre Abraham y el Dios de Isaac. La tierra en que estás acostado te la doy para ti y tu descendencia. Tu descendencia será como el polvo de la tierra y te extenderás al poniente y al oriente, al norte y al mediodía; y por ti se bendecirán todos los linajes de la tierra; y por tu descendencia. Mira que yo estoy contigo; te guardaré por doquiera que vayas y te devolveré a este solar. No, no te abandonaré hasta haber cumplido lo que te he dicho.» Despertó Jacob de su sueño y dijo: «¡Así pues, está Yahvé en este lugar y yo no lo sabía!» 17. Y asustado dijo: «¡Qué temible es este lugar! ¡Esto no es otra cosa sino la casa de Dios y la puerta del cielo!».» El actual estado de Israel puede decirse que se basa en este sueño.

Hasta las obras de Sigmund Freud [1], Carl Jung y sus sucesores, los científicos prestaron escasa atención a los sueños como un verdadero objeto de investigación. Los sueños eran algo para el místico, tal vez, pero no para el científico. Los antiguos, por supuesto, no analizaban los sueños como el resultado de la experiencia diaria y como una actividad necesaria y saludable durante el sueño; no veían los sueños, como se hace hoy día, como el resultado de los mecanismos de mantenimiento de un encéfalo sano.

Sin embargo, los pensadores antiguos dieron importancia a los sueños, incluso si su comprensión no era precisamente fácil. Las culturas de Mesopotamia, Egipto y mediterráneas creyeron en adivinos, visionarios, adivinos y astrólogos que afirmaban utilizar los fenómenos naturales para predecir el futuro. Uno de esos fenómenos era el sueño. Los humanos de la antigüedad no podían concebir los sueños sino como un mensaje divino que insinuaba lo que habría de ocurrir. Surgió una clase de pseudocientíficos [2] que se ganaban la vida prediciendo el futuro mediante la interpretación de los sueños.

La literatura antigua está llena de historias de este tipo. Sin ir más lejos, en la Torá, en el Libro del Génesis, José interpreta los sueños del faraón egipcio y así gana una posición preeminente en el reino. En el Libro de Daniel, el profeta Daniel interpreta los sueños del rey de Babilonia Nabucodonosor. Los poemas de Homero están llenos de relatos de sueños enviados por los dioses para informar a los humanos de las posibilidades futuras. Los griegos, como no podía ser de otra manera, deificaron el sueño [3].

Todos estos pueblos del Mediterráneo antiguo tenían en común la creencia de que los sueños reflejan fenómenos naturales o sobrenaturales y que se necesita la razón y la mente analítica para interpretarlos correctamente. Aristóteles era lo suficientemente escéptico como para preguntarse sobre la causa y significado de los sueños. En su tratado Sobre la profecía mediante los sueños, proporcionó una visión interesante sobre los mismos, preguntándose por qué un dios optaría por hablar a los humanos a través de los sueños; también notó el hecho de que, a veces, los sueños parecen reflejar la realidad. Una posibilidad que exploró fue que, dado que los sueños a menudo recuerdan algunos de los detalles de las horas previas de vigilia, también los sueños podrían predecir acciones del día siguiente en la medida en que el soñador podría (inconscientemente) realizar ciertas acciones con las que había soñado la noche anterior; por lo tanto, el sueño se hace autocumple. Aristóteles reconoció también que, entre la multitud de sueños, algunos podrían terminar ocurriendo por pura casualidad, lo que les privaría de cualquier un significado sobrenatural.

Aristóteles también constató que los animales sueñan, al igual que los esclavos y otros humanos inferiores [4] y, por lo tanto, deben ser más un producto natural que obra de un dios. Pero, por otra parte, la naturaleza es divina en sí misma; por tanto, para Aristóteles solo en este sentido los sueños también son divinos. Aunque Aristóteles no estaba de acuerdo con la interpretación de los sueños de materialistas como Demócrito, de que los sueños son causados por la emanación de átomos que presentan imágenes en el cerebro, sí estuvo de acuerdo con conclusión de que los sueños no podían ser profecías de nada.

Hubo varios estudiosos importantes de los sueños durante el Bajo Imperio Romano. El más famoso fue el médico Galeno, quien creía que los sueños lo ayudaban a orientarlo en el diagnóstico y la curación en general [5]. Galeno, que fue médico del emperador Marco Aurelio, transmitió este respeto por las enseñanza de los sueños al estoico Aurelio.

Los estudiosos más importantes de los sueños fueron Artemidoro de Daldis y Elio Arístides, ambos del siglo II e.c. Artemidoro escribió Oneirocritica, un libro sobre la interpretación de los sueños. Su aproximación puede considerarse científica, desde el momento en que anotaba regularmente cada aspecto de los sueños, compilando un registro preciso de esta peculiar actividad humana. Similar fue Elio Arístides, un sacerdote de Asclepio, el dios griego de la curación. Arístides mantenía también un registro completo de sus muchos sueños que abarca varias décadas. Eso sí, creía que Asclepio sanaba o daba consejos sobre cómo sanar a través de los sueños.

Notas:

[1] Sigmund Freud no fue un científico. Tuvo una enorme influencia cultural, pero sus “hallazgos” son pseudociencia.

[2] Que aún existe y se gana muy bien el pan con ello.

[3] Morfeo es el dios de los sueños, encargado de llevar sueños a reyes y emperadores. Según ciertas mitologías antiguas, es el principal de los oniros, los mil hijos engendrados por Hipnos (el Sueño) y Nix (la Noche).

[4] ¡Sorpresa! Para Aristóteles no todos los humanos son humanos de pleno derecho.

[5] Esto tiene cierto sentido. Hoy sabemos que mucha parte de nuestra toma de decisiones se realiza a nivel inconsciente. Consultar con la almohada no es más que una forma de darle tiempo a nuestro encéfalo para que llegue a una conclusión meditada.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Sueños antiguos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Asclepio
  2. Los mitos como protociencia
  3. ¿Los organismos móviles más antiguos?
Categorías: Zientzia

Naukas Bilbao 2021: Vacíos no tan vacíos, desafíos de la física más allá de lo conocido, y una txapela muy especial

Lun, 2021/10/04 - 11:59

María Larumbe / GUK

Foto: Iñigo Sierra / Cátedra de Cultura Científica de la UPV/EHU.

“El vacío es una sustancia. El vacío es el estado de mínima energía de un campo cuántico. El vacío está hecho de fluctuaciones de punto cero, de partículas virtuales que aparecen y desaparecen por doquier. El vacío es una sustancia, tiene propiedades y puede cambiar. El vacío se puede polarizar…”. Así comenzó el doctor en Matemáticas, físico, informático y profesor de la Universidad de Málaga, Francis Villatoro, su charla en Naukas 2021. Todo este preámbulo le sirvió para explicar ante el público del Euskalduna la gran noticia científica de este año en física de partículas: la medida del momento magnético anómalo del muón, una propiedad que hace que esta partícula se comporte como un pequeño imán.

Pero, ¿qué es un muón? Se trata de la única partícula fundamental que se observó en los rayos cósmicos -partículas que llegan desde el espacio exterior y bombardean constantemente la Tierra desde todas direcciones y a gran velocidad- antes de ser concebida siquiera por los físicos teóricos. Es indistinguible del electrón, salvo por su masa, que es 207 veces más pesada, más inestable y genera un pequeño campo magnético a su alrededor. En la Naturaleza “no existe un muón ‘desnudo’, siempre se encuentra ‘vestido’ por el vacío que lo rodea porque, parafraseando al gran físico español Álvaro de Rújula, ‘el vacío es una sustancia’”.

En este sentido, el pasado 7 de abril se publicó la gran noticia: que el experimento Muon g-2 desarrollado en el laboratorio estadounidense Fermilab confirmaba que la predicción teórica consensuada por el modelo estándar para esta propiedad del muón -que se calculaba a un número muy próximo a dos- se encuentra en realidad a 4.2 sigmas de desviación del resultado experimental. Esto plantea, tal y como explicó Villatoro, dos posibilidades: “que no hayamos calculado bien el vacío que rodea al muón o que quizás estemos ante la primera señal de que hay física más allá de lo conocido”.

Desde este descubrimiento, los científicos especializados en física de partículas han planteado más de 280 artículos proponiendo explicaciones para esta anomalía física más allá del modelo estándar en los que se especula, entre otras teorías, sobre la aparición de nuevas partículas. A este respecto, la ponencia de Villatoro planteó ambas hipótesis y recordó que la medida del momento magnético del muón no es la única anomalía conocida con respecto al modelo estándar.

“Existen otras muchas anomalías experimentales respecto a las predicciones en el modelo estándar que apuntan hacia una nueva física. Puede que muchas de ellas sean ficticias, debido a que no hayamos calculado de forma correcta la forma teórica. Sin embargo, mi más íntimo deseo es que no sea así y que estas anomalías desvelen nueva física”.

Lo que sí saben los físicos, concluyó Villatoro, es que el vacío es una sustancia compuesta, “que está constituida por 118 campos cuánticos observados y se sabe que hay más”. Para poder descubrirlas, hay que seguir realizando experimentos y explorar sus efectos sobre las partículas con una precisión muy alta. ¿Cómo? A través de nuevos colisionadores de partículas. “La imaginación de los físicos es muy poderosa, pero la física no se construye a base de hipótesis, sino de hechos; por eso, necesitamos nuevos colisionadores que hagan hablar a la Naturaleza para que nos desvele todos sus secretos. Porque, por muy listos que seamos y por muy bellas que sean nuestras teorías, como decía el físico Richard Feynman, si no coinciden con la Naturaleza están equivocadas”.

Foto: Iñigo Sierra / Cátedra de Cultura Científica de la UPV/EHU.

Tras su intervención, Javier Peláez, uno de los fundadores de Naukas, y Juan Ignacio Pérez-Iglesias, director de la Cátedra de Cultura Científica de la UPV/EHU, aprovecharon el momento para entregar a Villatoro el premio especial de Naukas 2021: una txapela -como no podía ser de otra manera- con su nombre bordado, brindando así un merecido “homenaje al único ponente que ha participado en los diez Naukas Bilbao”.

N.del.E.: La charla puede verse aquí.

El artículo Naukas Bilbao 2021: Vacíos no tan vacíos, desafíos de la física más allá de lo conocido, y una txapela muy especial se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2021: Francisco R. Villatoro – El vacío es una sustancia
  2. Naukas Bilbao 2021: Cualquier tiempo pasado fue, simplemente, anterior
  3. Naukas Bilbao 2021: En busca del monolito de “2001: una odisea espacial”
Categorías: Zientzia

El primer ángel

Dom, 2021/10/03 - 11:59

Tocó el primero… Hubo entonces pedrisco y fuego mezclados con sangre, que fueron arrojados sobre la tierra: la tercera parte de los árboles quedó abrasada, toda hierba verde quedó abrasada.

Juan de Patmos (siglo I e.c.) Apocalipsis 8: 7.

Foto: Zoltan Tasi / Unsplash

En el planeta viven cerca de ocho mil millones de seres humanos, y es previsible que nos acerquemos a los diez mil millones en unas pocas décadas. Tanta gente consume muchos recursos y, como son finitos, podrían agotarse. Producir todo lo que consumen tantas personas genera muchos residuos, potencialmente peligrosos algunos de ellos. Y el consumo de energía ejerce un efecto colateral dañino: calienta el planeta. Para rematar el panorama, la destrucción de hábitats naturales que provoca ese consumo tan intenso, está provocando una gran pérdida de especies. Pero vayamos por partes.

Es cierto que la población humana aumenta cada día, pero desde hace unas décadas no lo hace de forma exponencial, sino lineal, y en otras pocas décadas bien podría llegara detenerse. Se produce hoy un 24% más comida por persona que en 1968, año en que Paul Ehrlich publicó su muy influyente The Population Bomb (La bomba poblacional), en el que auguraba el inminente colapso de la civilización por escasez de alimentos y materias primas.

Ahora bien, que medio siglo después el colapso no haya ocurrido aún no quiere decir que no vaya a ocurrir. Ciertos recursos pueden llegar a ser tan escasos que la humanidad podría encontrarse en un grave atolladero. Podrían escasear de forma crítica el agua potable, el suelo cultivable, los combustibles fósiles, el fósforo, y un buen número de metales hoy esenciales para nuestra economía. Ninguna de esas escaseces parece suponer un riesgo existencial directo; en otras palabras, no sería muy probable que provocasen el colapso de la civilización, y si algo similar llegase a ocurrir, tampoco sería fácil que acabase con la humanidad. En lo relativo a la biodiversidad, es cierto que su disminución es ya una catástrofe en sí misma: se pierden especies a un ritmo que es entre 10 y 100 veces más alto que el normal a largo plazo. Pero tampoco ese factor representa una amenaza en el próximo siglo para la existencia humana.

¿Y el calentamiento global? ¿Podría un planeta varios grados más caliente conducir a la extinción de nuestra especie? Tampoco parece una posibilidad muy cercana. Pueden descender los rendimientos agrícolas, subir el nivel del mar, escasear el agua potable, aumentar la prevalencia y extensión geográfica de enfermedades tropicales, acidificarse el océano, colapsar la Corriente del Golfo -con la consiguiente alteración del clima de Occidente-, disminuir la biodiversidad -y subsiguiente colapso de ecosistemas-, aumentar el estrés térmico al que nos vemos expuestos los seres humanos, y reducirse la superficie habitable. El desastre ecológico sería de proporciones mayúsculas, pero incluso así, difícilmente habría un alto riesgo existencial para la humanidad.

A lo anterior, no obstante, hay que oponer un matiz. En el supuesto, en principio muy improbable a corto plazo, de que se produzca un efecto invernadero desbocado, entonces sí habría riesgo de desaparición, no solo de nuestra especie sino de muchísimas más, quizás toda la vida en el planeta. El efecto invernadero desbocado sería la consecuencia de una secuencia de efectos que se retroalimentan de forma automática generando un calentamiento rápido y acelerado de la atmósfera.

Pero la probabilidad de que la humanidad desapareciese en el próximo siglo por cualquiera de estas causas sería muy baja. Toby Ord la cifra en una entre mil, para el cambio climático, y también una entre mil para el conjunto de otras catástrofes ambientales. El daño puede ser inconmensurable, pero la humanidad, muy probablemente, perduraría.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El primer ángel se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El origen de la vida desde la nanociencia, por José Ángel Martin Gago
  2. La Sima de los Huesos sería el primer acto funerario conocido de la historia de la Humanidad
  3. Colapso
Categorías: Zientzia

Naukas Bilbao 2021: Francisco R. Villatoro – El vacío es una sustancia

Sáb, 2021/10/02 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

Francisco R. Villatoro presentó en su charla el gran resultado del año en la física de partículas: la desviación significativa entre una característica del muón medida por el experimento Muon g−2 del Fermilab y la predicción teórica de consenso del modelo estándar. Si en los próximos años se confirma esta discrepancia, podríamos estar ante la primera señal firme de física más allá del modelo estándar. La trascripción de la charla puede leerse aquí.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Francisco R. Villatoro – El vacío es una sustancia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Francisco Villatoro – Naukas Bilbao 2019: El abrazo de la plata
  2. Francisco R. Villatoro – Naukas Bilbao 2018: El ángulo mágico del grafeno
  3. Naukas Bilbao 2017 – Francisco R. Villatoro: El espín para irreductibles
Categorías: Zientzia

Los glaciares del Pirineo, a examen

Vie, 2021/10/01 - 11:59

Un estudio internacional, liderado por el Instituto Pirenaico de Ecología (IPE-CSIC), ha analizado los cambios de área y espesor registrados entre 2011 y 2020 en 17 de los 24 glaciares que existen en el Pirineo. Los resultados del trabajo muestran que, lejos de observarse una desaceleración en la tasa de fusión de los glaciares, las pérdidas de hielo siguen un ritmo similar desde la década de 1980.

Modelo en 3D del glaciar del Aneto en 2020

En el periodo analizado el área de los glaciares se redujo un 23,2 %, mientras que su espesor disminuyó, en promedio, 6,3 metros, sobrepasando incluso en algunos puntos los 20 metros de espesor. Ejemplo de esos cambios son los observados en el glaciar del Aneto, cuyas pérdidas se estiman en un 24,3 % en cuanto a su área y una media de 8,5 metros de espesor, registrándose disminuciones de hasta 21 metros en algunas zonas. Entre las masas de hielo más afectadas se encuentran el glaciar de Ossoue, en el macizo de Vignemale, que ha sufrido una disminución del 25,7 % de su área y pérdidas de espesor medio de 10 metros; o el glaciar de Taillón, que en promedio ha perdido 11,6 metros, superando los 23 metros en su zona central.

Los científicos explican que, pese a que las condiciones climáticas no varían mucho entre las zonas donde se ubican los glaciares, ya que el clima ha variado de forma semejante en todo el Pirineo, la evolución del hielo sí que ha sido heterogénea durante ese periodo. “Los glaciares pirenaicos más pequeños, con un área inferior a 10 hectáreas, como el de Barrancs, en el macizo de la Maladeta, o el Llardana, en el macizo de Posets, están fuertemente controlados por la topografía local. Ello se deduce del contraste entre sus pérdidas de área y las de espesor. Sin embargo, los glaciares más grandes están predominantemente influenciados por las condiciones climáticas de esa región montañosa, por lo que las masas de mayor extensión, como las de Aneto, Maladeta, Ossoue y Monte Perdido, evolucionan de forma similar con pérdidas de área y espesor equivalentes”, explican los investigadores.

Vista en 3D que muestra el cambio de elevación de la superficie del glaciar del Aneto durante el periodo 2011-2020. La línea negra delimita el área del glaciar en 2020.

En ese sentido, los autores del estudio inciden en la importancia de disponer de cartografías que muestren con detalle las pérdidas observadas para así monitorizar y comprender las razones por las que los glaciares se están quedando progresivamente más circunscritos a las zonas protegidas (menor radiación solar y mayor acumulación de nieve). Según pronostican, “en esas zonas, los glaciares podrán tener una degradación más lenta, pero en todos los casos estarán abocados a una progresiva desaparición de la dinámica que los caracteriza”.

Cabe destacar que los glaciares pirenaicos son los más grandes del sur de Europa y su supervivencia está amenazada por el cambio climático, por lo que los resultados obtenidos en ese trabajo son un anticipo de lo que puede ocurrir en otras cordilleras de Europa más septentrionales como los Alpes, en las que los glaciares también muestran un claro retroceso.

Las variaciones del área de los glaciares han sido calculadas con imágenes de alta resolución captadas por distintos satélites con sensores ópticos, mientras que los cambios de espesor se han determinado comparando las superficies 3D generadas con vuelos de dron (año 2020) y las obtenidas con un sensor LiDAR aerotransportado (año 2011). El uso de esa metodología cuenta con un enorme potencial, pero su aplicación es compleja dadas las características de las zonas monitorizadas, tanto a nivel de vuelo como de acceso. Tal y como explica el investigador del IPE-CSIC Jesús Revuelto, “es importante preparar las campañas de observación con mucho detalle: diseñando la zona de vuelo, revisando la previsión meteorológica y coordinando a todo el equipo”.

Por su parte, el investigador de la UPV/EHU Eñaut Izagirre resalta la importancia que han tenido en el estudio estas nuevas herramientas, ya que “gracias a la precisión y la elevada resolución de las observaciones de los drones, hemos podido determinar con gran detalle el estado actual de la superficie de los glaciares a escala de toda la cordillera”. Según los autores del trabajo ahora publicado, la combinación de las técnicas de vuelo con drones y LiDAR ha permitido cuantificar las variaciones en la superficie de los glaciares con una incertidumbre inferior a 0,4 metros.

Referencia:

I. Vidaller, J. Revuelto, E. Izagirre, F. Rojas-Heredia, E. Alonso-González, S. Gascoin, P. René, E. Berthier, I. Rico, A. Moreno, E. Serrano, A. Serreta, J. I. López-Moreno (2021) Toward an Ice-Free Mountain Range: Demise of Pyrenean Glaciers During 2011–2020 Geophysical Research Letters doi: 10.1029/2021GL094339

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Los glaciares del Pirineo, a examen se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El test de Allen a examen
  2. La oreja de oso, una joya del Pirineo que guarda el secreto de la resurrección
  3. África arde más de lo que se pensaba
Categorías: Zientzia

Lo que no sabemos sobre la factura de la luz y las nucleares

Jue, 2021/09/30 - 11:59

J. Guillermo Sánchez León

La central nuclear de Almaraz, en Cáceres. Foto: Shutterstock / Gelpi

 

Algunas encuestas señalan que la mayoría de los pequeños consumidores creen que su factura de la luz ha subido. En realidad afecta a menos del 40 %, los acogidos al mercado regulado (PVPC). No es extraño que sea así pues, desde mediados de 2021 y especialmente en las últimas semanas, prácticamente todos los días los telediarios, los boletines de radio y los periódicos abren sus ediciones con la noticia del precio alcanzado por la energía en el mercado mayorista y del nuevo récord histórico batido.

Actuar pensando en el corto plazo al final no sale rentable

En España, el precio de la luz suele ser objeto de confrontación política. Además, en situaciones de alarma social, los gobiernos se sienten abocados a tomar medidas inmediatas, en lugar de establecer políticas energéticas consensuadas para periodos razonablemente largos.

En el pasado reciente hubo gobiernos que limitaron el precio de la luz trasladando el déficit a años posteriores. Otros, crearon primas a las renovables que aún se están pagando y que obligaron a tomar medidas urgentes para evitar el colapso del sistema.

Uno de los pocos casos en los que los grupos políticos españoles se pusieron de acuerdo en temas energéticos y tuvieron visión a largo plazo fue sobre la necesidad de construir un almacén temporal centralizado (ATC) en Villar de Cañas (Cuenca), para el combustible utilizado en los reactores nucleares y los residuos de alta actividad que actualmente se custodian en Francia y por los que España debe pagar una penalización de más de 75 000 euros al día.

El acuerdo duró unos años, en los que se gastaron varios cientos de millones de euros, pero el proyecto quedó paralizado porque el Gobierno de Castilla La Mancha consideró que ese ATC pondría en peligro la riqueza medioambiental de la zona. Naturalmente, los sobrecostes generados los asume la factura eléctrica.

Un decreto de urgencia

El Gobierno de España acaba de promulgar el Real Decreto Ley 17/2021, de 14 de septiembre, de medidas urgentes para mitigar el impacto de la escalada de precios del gas natural en los mercados minoristas de gas y electricidad. Al menos una parte de lo que contempla esta norma formaba parte de un proyecto de ley que ya estaba en trámite. Pero el Gobierno no ha podido resistir la presión del telediario y ha promulgado este decreto de manera urgente.

En este artículo voy a centrarme exclusivamente en analizar lo que, en la práctica, es un gravamen a la energía nuclear y que en el decreto se presenta bajo el título: “Mecanismo de minoración del exceso de retribución del mercado eléctrico causado por el elevado precio de cotización del gas natural en los mercados internacionales”.

La energía nuclear y la generación eléctrica

La energía nuclear es la primera fuente de electricidad en España. Actualmente están operativos 7 reactores:

  • Almaraz 1 y 2.
  • Asco I y II.
  • Cofrentes.
  • Trillo.
  • Vandellós II.

En conjunto, produjeron 55 757 GWh el año 2020, que equivalen al 22 % del total de energía eléctrica en España, y lo hacen con una capacidad instalada de apenas 7,1 GW. Si esta energía hubiese sido generada con gas habría supuesto la emisión de aproximadamente 14 millones de t de CO2.

El siguiente tipo de energía en volumen de generación eléctrica es la eólica, que produce un poco menos que la nuclear pero con una capacidad instalada cuatro veces mayor. Aunque es probable que esta situación cambie en breve, pues el parque eólico está en plena expansión.

Hay un hecho que hace imbatibles a las centrales nucleares: trabajan a plena potencia de forma continuada. Esta situación queda reflejada en el siguiente gráfico:

Generación eléctrica en España en agosto de 2021 (por tipo de fuente)
Fuente: OMIE

Los pocos intervalos en los que se ve una ligera disminución de la energía nuclear coinciden normalmente con la parada de algún reactor para realizar la recarga de combustible (que se prevé con meses de antelación), tiempo que se aprovecha para realizar modernizaciones en las instalaciones. En el mismo gráfico se puede observar la alta variabilidad e impredecibilidad de las renovables que ya explicamos en otro artículo.

Un sector que ha ganado en eficiencia y supervisión

Entre los numerosos tópicos que hay sobre las centrales nucleares el más utilizado estos días es el de que, una vez construidas, su coste de operación es prácticamente cero. Como ya están amortizadas, se dice, al percibir lo que les corresponde según el precio marginal fijado en la subasta en el mercado mayorista se trata de beneficios caídos del cielo.

La realidad es otra. Es cierto que el coste del combustible nuclear es muy bajo. Un reactor tipo consume menos de 20 toneladas de uranio al año frente a los muchos miles de toneladas de combustible de las centrales de gas. Además, su precio es proporcionalmente mucho más bajo. Sin embargo, los reactores se han visto envueltos en costes adicionales no previstos en el momento de su construcción, la mayoría relacionados con la seguridad de las instalaciones y con los aumentos de potencia y eficiencia que han experimentado.

Cuando los reactores se pusieron en marcha su potencia era aproximadamente un 10 % menor que la actual. Paraban cada 12 meses durante 2 o 3 meses para recargar combustible. Ahora la mayoría para un mes cada año y medio (Almaraz 1, Ascó I y Cofrentes lo harán entre octubre y diciembre). Además, la energía obtenida por kilogramo de uranio (grado de quemado) era casi la mitad que ahora.

Todos estos cambios han permitido que la energía que producen anualmente haya pasado de cerca de 35 000 GWh a 56 000 GWh. Esto coloca a los reactores españoles entre los primeros del mundo por su factor de carga.

Además, al consumir menos uranio para generar la misma energía, el volumen de residuos radiactivos (el combustible gastado) se ha reducido considerablemente. Naturalmente, todo esto ha requerido la realización de grandes inversiones para la mejora de las centrales.

Los reactores deben renovar sus licencias de operación cada 10 años y este es un proceso que habitualmente obliga a introducir nuevas medidas de seguridad, requeridas por el Consejo de Seguridad Nuclear.

Las centrales españolas están atravesando un momento clave. Ahora están inmersas en el proceso de obtención de su última licencia (así lo acordaron las compañías eléctricas con el Estado) y ello supondrá inversiones de al menos 3 000 millones de euros más.

La previsión es que, tras esta última renovación, las centrales se irán cerrando paulatinamente desde 2027 (Almaraz 1) a 2035 (Trillo). Entonces habrán cumplido aproximadamente 50 años de operación, menos de los 60 años que en la actualidad se considera la vida normal de un reactor. Esta situación, como veremos, puede cambiar por el conflicto entre el Gobierno y las eléctricas.

Los reactores no emiten gases invernadero (y eso les puede costar caro)

Una de las causas de la subida en el precio de la electricidad es el aumento de la demanda de energía que, durante semanas, ha coincidido con una menor disponibilidad de fuentes renovables, lo que ha hecho necesario recurrir a la producción en centrales de ciclo combinado que producen electricidad a partir del gas.

Esta situación se ha repetido en gran parte de Europa occidental. El precio del gas se ha disparado y otro tanto ha ocurrido con los derechos de emisión de CO₂, asociados a la quema de combustibles fósiles (como el gas).

Ahora, el término beneficios caídos del cielo se está aplicando al ahorro que tienen las nucleares por no tener que comprar derechos de CO₂. Las centrales nucleares no emiten CO₂ por lo que el real decreto ley considera que, al no tener este gasto, se debe sustraer a las centrales nucleares la retribución que reciben y las penaliza por no emitir CO₂, a la vez que señala que el cobro de esos derechos esta destinado a fomentar energías no emisoras de CO₂.

Es el Estado el que percibe los derechos de CO₂ y el propio real decreto ley declara que se han obtenido por esta vía muchos más ingresos de los previstos, de los que “2 000 millones de euros (estarán) destinados a la reducción automática de los cargos del sistema eléctrico”.

Aunque es cierto que los aumentos en el precio de la electricidad están motivados por la subida del gas en los mercados internacionales, normalmente el gas no marca el precio marginal de la electricidad en el mercado mayorista. En el siguiente gráfico se puede ver que en agosto la energía hidráulica fue la que marcó el precio final la mayoría de las veces (frecuentemente ocurre así por razones técnicas).

Tecnologías que han marcado el precio final de la electricidad en el mercado mayorista español en agosto de 2021.
Fuente: OMIE

Ahora bien, si el precio en el mercado mayorista no lo establece una fuente no emisora de CO₂, ¿cómo puede decirse que se realiza una sustracción en la retribución debida al efecto del pago de derechos de emisión de CO₂?

Aunque las empresas eléctricas no contaban con los ingresos extra generados por la subida en los precios al renovar la vida útil de sus centrales nucleares, tampoco contaban con otros sobrecostes posteriores (como, por ejemplo, el nuevo impuesto a las nucleares de la Generalitat de Cataluña).

Sin beneficios extra, surge la amenaza de cierre

Tras el anuncio del Gobierno de reducir sus beneficios, la primera reacción de las empresas eléctricas fue anunciar que procederían al cierre de las centrales nucleares con el argumento de que, para que el funcionamiento de los reactores sea rentable, el precio del MWh debe estar en torno a 60 euros (entre 20 y 25 €/MWh se destinarían al pago de tasas e impuestos).

También alegan que la previsión es que el precio de la electricidad baje de 45 €/MWh en un par de años, y en eso coinciden con el mercado de futuros. Además, argumentan que una parte de lo generado por las nucleares está ya vendido en contratos a plazo, fuera del mercado mayorista y a un coste considerablemente menor, lo que hace que muchos clientes del mercado libre puedan tener en estos momentos precios fijos menores que los de tarifa PVPC.

Algunos gestores de las eléctricas con centrales nucleares afirman que esta energía genera grandes incertidumbres, que afectan a su valoración, debido a la inseguridad jurídica que la rodea. Y para empresas que cotizan en bolsa esto es una rémora, incluso aunque esas centrales les den beneficios. De cara a los accionistas es mucho mejor invertir en fuentes de energía con buena imagen, que atraigan nuevos fondos y subvenciones.

Hay quienes ven un farol en la amenaza lanzada por las eléctricas. Pero España tiene un precedente: el cierre de Garoña. Esta central había recibido la autorización para seguir funcionando y todo estaba listo para que así fuese pero simultáneamente se impuso una nueva tasa a las nucleares y los propietarios de la central renunciaron a seguir operándola. Así que pasó a manos de la empresa publica ENRESA para su desmantelamiento.

Desde un punto de vista técnico este cierre fue un error, pues en el reactor quedó material radioactivo a medio quemar. La vida útil de una central debe programarse con antelación para aprovechar al máximo el combustible.

Lo mismo pasó en Alemania. En 2011, tras el tsunami que afectó a los reactores de Fukushima, se pararon de forma inmediata 8 reactores y se aceleró la previsión para el cierre de otras. En la práctica, y para poder satisfacer la demanda energética, fueron sustituidas por centrales de carbón que hicieron de Alemania uno de los grandes emisores de CO₂ de Europa.

La detracción de beneficios a las centrales nucleares y la amenaza de cerrarlas hacen probable que se avecine un conflicto jurídico entre las eléctricas y el Gobierno de España.

Una fuerza laboral cualificada y experta

En esta guerra habrá perdedores seguros. El sector nuclear ocupa, directa o indirectamente, a unos 28 000 trabajadores altamente cualificados, sumidos en la incertidumbre. Lo sé porque trabajé en la empresa pública española ENUSA, que fabrica combustible para reactores nucleares y da soporte a centrales nucleares de toda Europa.

Esta empresa vende dos tercios de su producción en el exterior, gran parte a centrales nucleares de Francia, de donde parte regresa convertida en energía eléctrica (aunque menos de la que podría por la escasa interconexión existente).

Si se cierran estas centrales España perderá, “como lágrimas en la lluvia”, el enorme conocimiento de estos trabajadores. Las centrales nucleares son una fuente de energía que tarde o temprano necesitaremos. Mientras que los viejos reactores de la actualidad solo utilizan el 1,5 % de la energía potencial del combustible, en las regiones del mundo en crecimiento se preparan para poner en marcha nuevas y mejores centrales.

De hecho, el empresario y filántropo Bill Gates ha hecho grandes inversiones en esta tecnología. Y en pocos días empezará a funcionar en China un reactor de nuevo diseño.

Lo que marca el precio de la energía y sus vaivenes es la dependencia de fuentes externas, particularmente del gas. Si se quiere evitar esta dependencia y mitigar los efectos del cambio climático, renovables y nucleares deben poder convivir y complementarse. Ante los desafíos a los que nos enfrentamos debe haber sitio para todos.The Conversation

Sobre el autor: J. Guillermo Sánchez León es ingeniero técnico de mínas, físico, doctor en matemáticas y profesor del máster de modelización matemática de la Universidad de Salamanca

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Lo que no sabemos sobre la factura de la luz y las nucleares se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Desmantelando metódicamente instalaciones nucleares
  2. Cómo garantizar la seguridad del suministro eléctrico en España sin nucleares ni carbón
  3. Los residuos nucleares y la memoria de las arcillas
Categorías: Zientzia

Anne Lucy Bosworth Focke, la primera estudiante de David Hilbert

Mié, 2021/09/29 - 11:59

 

Anne Lucy Bosworth nació el 29 de septiembre de 1868 en Woonsocket (Rhode Island, EE. UU.). Fue la única hija (que sobrevivió) del matrimonio formado por Ellen Metcalf (1842–1929) y Alfred Bosworth (1845–1872). Ellen enviudó en 1872 y comenzó a trabajar como bibliotecaria: Anne Lucy creció en un entorno femenino: con su madre, su tía Anna y su abuela materna que también había enviudado.

Anne Lucy Bosworth Focke. Imagen: University of Rhode Island.

 

Anne Lucy Bosworth estudió en el Woonsocket High School y se graduó en el Wellesley College en 1890, en la misma clase que las matemáticas Grace Andrews (1869-1951) y Clara Latimer Bacon (1866-1948).

Trabajó durante los dos años siguientes como profesora en el Amesbury High School de Massachusetts. Fue nombrada instructora de matemáticas en el Rhode Island College of Agriculture and Mechanic Arts (actualmente Universidad de Rhode Island) a principios de 1892.

Mientras continuaba trabajando, Bosworth consiguió su título de Máster en la Universidad de Chicago estudiando durante los veranos de 1894 a 1896 con los matemáticos Eliakim Hastings Moore (1862-1932) y Oskar Bolza (1857-1942).

En 1898 solicitó un permiso de trabajo para viajar a la Universidad de Gotinga (Alemania); se desplazó a Europa acompañada por su madre. Allí asistió a los cursos de los matemáticos Felix Klein (1849-1925), Arthur Schönflies (1853-1928), Issai Schur (1875-1941) y del físico Woldemar Voigt (1850-1919). También asistió a las clases de geometría no euclidiana de David Hilbert (1862-1943). En la primavera de 1899 Hilbert la animó a realizar sus exámenes de doctorado: el matemático había propuesto a Anne Lucy un ejercicio especial relacionado con su curso y ella lo había resuelto con un enfoque totalmente original que era perfectamente aceptable como tesis. Su disertación (Begründung einer vom Parallelenaxiome unabhängigen Streckenrechnung) fue defendida el 31 de julio de 1899; Anne Lucy obtuvo su título de Doctora en 1900. Hilbert formó parte de su tribunal de tesis y calificó esta disertación como “… un logro sólido e independiente de valor científico”.

Portada de Begründung einer vom Parallelenaxiome unabgängigen Streckenrechnung (1900) de Anne Lucy Bosworth. Imagen: Iberlibro.

 

De hecho, Anne Lucy fue la primera estudiante de doctorado de Hilbert; más adelante el grupo de las alumnas del matemático incluyó a otras cinco mujeres: Nadeschda Gernet (Untersuchung zur Variationsrechnung. Über eine neue Methode in der Variationsrechnung, 1902), Vera Myller (Die Theorie der Integralgleichungen in Anwendungen auf einige Reihenentwickelungen, 1906), Margarete Kahn (Eine allgemeine Methode zur Untersuchung der Gestalten algebraischer Kurven, 1909), Klara Löbenstein (Über den Satz, daß eine ebene, algebaische Kurve 6. Ordnung mit 11 sich einander ausschließenden Ovalen nicht existiert, 1910) y Eva Koehler (Absolute und relative Bewegung, 1912).

Anne Lucy Bosworth y su madre regresaron entonces a Rhode Island. En 1901 contrajo matrimonio con Theodore Moses Focke (1871-1949), un ingeniero civil y matemático al que había conocido en Gotinga mientras él estudiaba matemáticas y física.

Focke fue contratado como profesor en el Case Institute of Technology en Cleveland (Ohio): Anne Lucy abandonó su trabajo académico (aunque asistía a su marido en la corrección de ejercicios y exámenes) y se dedicó a cuidar de sus tres hijos Helen (1902-1997), Theodore (1904-1986) y Alfred (1906-1986).

Falleció el 15 de mayo de 1907 a causa de una neumonía. Como tantas otras mujeres tuvo que abandonar una brillante carrera al contraer matrimonio…

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Anne Lucy Bosworth Focke, la primera estudiante de David Hilbert se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los fundamentos de la literatura según David Hilbert
  2. Lucy
  3. El Hotel de Hilbert cuántico
Categorías: Zientzia

Ciencia militar I

Mar, 2021/09/28 - 11:59

La guerra siempre ha sido un motor de la ciencia y de la tecnología. En la historia probablemente la máxima expresión de simbiosis entre poder militar y desarrollo tecnológico fue Roma, donde cada comandante era un ingeniero, además de un observador de los rivales armado con lo que no puede describirse sino como una actitud científica.

Recreación de hoplitas avanzando. El que los hoplitas fuesen uniformados es una invención del cine estadounidense. Fuente: Wikimedia Commons

Las ciudades-estado griegas de la Edad Clásica desarrollaron la mejor fuerza de combate de la época, centrada en los hoplitas. Los hoplitas eran soldados de infantería fuertemente armados que marchaban en formación de falange. Eran muy maniobrables y, cuando unían los escudos, parecían inexpugnables para sus enemigos. Los ejércitos hoplitas griegos derrotaron con éxito a los ejércitos persas en los siglos V y IV a.e.c. y tuvieron cierto éxito contra los romanos en el siglo III a.e.c. [1].

Demetrio (337-283 a.e.c.), hijo de Antígono I, inventó máquinas de asedio como la tortuga, el ariete protegido y un gran taladro para horadar muros. Inventos similares tuvieron como artífice a Diodos de Pella, quien acompañó a Alejandro en sus campañas asiáticas, y fue ensalzado como el conquistador de Tiro, aunque no tiró ni una flecha. Las conquistas de Alejandro introdujeron a los científicos griegos en el uso de petróleo, azufre y arsénico en la formulación de armas y venenos para la guerra. [2]

Los romanos del primer milenio a.e.c. utilizaron la ciencia militar para construir un vasto imperio que rodeaba el mar Mediterráneo y abarcaba tres continentes: Europa, Asia occidental y Norte de África. Los soldados romanos eran excelentes ingenieros, conocían las técnicas básicas de agrimensura, construyeron calzadas de piedra que duraron siglos, erigieron muros que los turistas aún exploran e idearon un sistema de campamentos militares que eran inexpugnables al ataque enemigo.

El ejército romano evolucionó a lo largo de los siglos a medida que los romanos observaban constantemente las debilidades en las unidades de su propio ejército, aprendían de las técnicas de sus oponentes e implementaban continuamente los cambios necesarios. Los comandantes máximos se mantenían al día con la tecnología militar a medida que se desarrollaba en el mundo antiguo y equiparon a las legiones romanas con las mejores máquinas de asedio, catapultas, picas, lanzas, cascos, escudos, espadas y armaduras. [3]

Recreación de legionarios del alto imperio (siglos I al III e.c.) luciendo una armadura llamada lorica segmentata.

Los romanos adoptaron las técnicas hoplitas griegas y las mejoraron. También desarrollaron un sistema superior de logística para mantener las comunicaciones y asegurar los suministros. Pero la clave del éxito militar romano residía en la eficiencia desarrollada por la experimentación: una organización superior, un entrenamiento riguroso y una atención al detalle rayana en lo obsesivo.

La legión romana formaba el núcleo del ejército. El historiador griego Polibio nos cuenta que durante su época (siglo II a.e.c.) una legión la componían 4200 legionarios. Cada legión tenía diez manípulos de 420 hombres que actuaban como una sola unidad. Los manípulos se disponían en el campo de batalla en forma de tablero de ajedrez, para permitir la máxima maniobrabilidad en todas las direcciones para responder a los ataques de fuerzas enemigas superiores en las alas, en el frente o en la retaguardia. Las reformas de Cayo Mario en el 107 a.e.c. crearon la legión moderna: 10 cohortes, cada una con tres manípulos, cada manípulo con dos centurias [4], y al frente de cada centuria un centurión.

Los centuriones entrenaban incesante e indiscriminadamente tanto a nuevos reclutas y como a legionarios veteranos, no solo en las técnicas de combate guerra, sino especialmente en la construcción a toda velocidad de fortificaciones y campamentos. La disciplina era de una prioridad absoluta. Dormirse o embriagarse durante una guardia o ausentarse del puesto asignado podía conllevar castigos terribles, incluida la muerte. Según el historiador Josefo, cada soldado llevaba, además de sus armas, su propia comida y las herramientas necesarias para la construcción del campamento. En realidad, el legionario pasaba más tiempo trabajando con la pala y acarreando tierra, construyendo y demoliendo, que luchando. El mayor logro del ejército romano fue, irónicamente, su sistema de campamento y defensa, lo que amerita su propia entrada.

Detalle de las murallas romanas de Lugo (España). Fuente: Wikimedia Commos

Notas:

[1] Hasta que los romanos aprendieron y mejoraron el diseño.

[2] Posiblemente el desarrollo más espectacular fue el llamado Fuego griego.

[3] El equipamiento y entrenamiento de una legión romana en la época imperial eran tales que un reducido número de tropas podía hacer frente con éxito a ejércitos muy superiores en número.

[4] A pesar del nombre, la centuria típica estaba constituida por 80 legionarios.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Ciencia militar I se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Por qué en Alemania los lobos se sienten más seguros en territorio militar
  2. Ni ciencia, ni pseudociencia, ciencia patológica.
  3. Asclepio
Categorías: Zientzia

Naukas Bilbao 2021: En busca del monolito de “2001: una odisea espacial”

Lun, 2021/09/27 - 11:59

María Larumbe / GUK

 

Miguel Santander durante su intervención en Naukas Bilbao 2021. Foto: Iñigo Sierra / Cátedra de Cultura Científica de la UPV/EHU.

 

Esta historia ocurrió un buen día en un santuario de orangutanes en la isla de Borneo. Un grupo de estos primates se coló en la cocina, robó una olla y la sacó al exterior. Los orangutanes colocaron una pila de rocas en el suelo, pusieron la olla encima y se sentaron a esperar pacientemente a su alrededor tal como habían visto hacer cientos de veces a sus cuidadores humanos. Sin encender el fuego, claro.

El astrofísico y escritor Miguel Santander se sirvió de esta anécdota, contada por el psicólogo Steve Stewart-Williams en su libro “The ape that understood the Universe” (“El simio que comprendió el universo”) para demostrar al público de Naukas Bilbao 2021 la dificultad para encontrar pruebas de vida extraterrestre. Esta ponencia, llamada “Tecnomarcadores: cómo buscar marcianos sin salir en Cuarto Milenio”, cerró la sesión de la mañana del segundo día de Naukas Bilbao, que esta edición celebraba su décimo aniversario.

Los seres humanos llevamos buscando marcianos durante mucho tiempo. “De hecho, los hemos encontrado más veces incluso de las que los hemos buscado y sabemos muy poco de ellos. Que gustan de abducir a personas borrachas o incapacitadas mentalmente de algún modo, que son extremadamente tímidos y que solo se muestran antes personas potencialmente abducibles y que, a pesar de eso, decoran sus naves con luces de colores fácilmente identificables por los periodistas del misterio”.

Sin embargo, pese a lo ‘poco discretos’ que supuestamente se muestran en sus contactos con los humanos, no existe prueba científica alguna de que sean reales; lo que tampoco quiere decir necesariamente que estemos solos en el universo. La posibilidad de que haya o de que haya habido civilizaciones extraterrestres está ahí. De hecho, los seres humanos somos prueba de que se puede dar en el Universo.

“Es posible -explicó Santander- que las condiciones para que surja la vida no sean tan restrictivas como aseguran los biólogos después de todo y quizá incluso las condiciones de la vida simple unicelular dé el salto a la vida más compleja o intenten hacer potajes de garbanzos”. O quizá sea que, aunque exista vida en otros planetas, estén tan lejos de la Tierra que nunca vayamos a encontrarnos ni en tiempo ni en espacio. O puede que tengamos una civilización extraterrestre ‘vecina’, es decir, lo bastante cerca como para encontrarla.

De ser así, ¿cómo podríamos encontrarlas? A través de tecnomarcadores, evidencias o huellas del uso de tecnología presente o pasada o actividad industrial en otros lugares del Universo, pruebas objetivas que produzcan efectos en el medio frente a los avistamientos de ovnis y abducciones nocturnas sin testigos.

En este sentido, el investigador del Instituto de Astrofísica de Canarias (IAC) Héctor Socas-Navarro -que la pasada edición de este evento charló en el evento por partida doble ante el público de Naukas Pro y el de Naukas Bilbao 2019– ha liderado este año una investigación en la que se proponen distintas ideas sobre los tecnomarcadores que indicarían la existencia de vida más allá de nuestro planeta; desde las más cercanas como la presencia de contaminantes industriales como el dióxido de nitrógeno en una atmósfera exoplanetaria, enormes enjambres de satélites o esferas de Dyson, “estructuras que recubrirían de paneles solares la estrella alrededor de la cual vive la civilización avanzada para aprovechar casi toda la energía de la estrella. Esto produciría una disminución de la luz que nos llegaría de esa estrella”.

Otra huella irrefutable sería la presencia de enjambres de satélites alrededor de un exoplaneta. “En la órbita de la Tierra tenemos alrededor de mil, pero una civilización que tuviera un cinturón más denso, con más de estos satélites produciría al pasar por delante de su estrella una huella característica que nos permitiría distinguirlo de algo natural como pueden ser, por ejemplo, los anillos de Saturno”. Esta idea propuesta por Socas-Navarro se conoce como exocinturones de Clarke, en honor a Arthur C. Clarke, divulgador científico, escritor y padre de uno de los tecnomarcadores más potentes y bellos que ha imaginado la mente humana: el monolito de “2001: una odisea espacial (1968)”, una máquina avanzada extraterrestre de color negro mate que puede, entre otras funciones, dotar de inteligencia a los primates o transformarse en un agujero de gusano.

Al final de su ponencia, Miguel Santander volvió a recordar a los orangutanes del santuario de Borneo y se planteó si es más posible que el ser humano encuentre la evidencia de alguno de estos tecnomarcadores o si los orangutanes aprenderán a hacer potaje de garbanzos. “Me temo que mi apuesta es a favor de los orangutanes. Sin embargo, del mismo modo que ellos ponen todo su empeño en obtener ese potaje de garbanzos, nosotros también deberíamos seguir buscando evidencias de vida extraterrestre. No solo porque se trata de algo ‘barato’ ya que se pueden utilizar datos de otras misiones espaciales sino, y sobre todo, porque de tener suerte y encontrar una de estas huellas estaríamos ante el descubrimiento más importante de la historia. Y, por fin, ante la prueba de que no estamos solos en el Universo”.

El artículo Naukas Bilbao 2021: En busca del monolito de “2001: una odisea espacial” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2021: Cualquier tiempo pasado fue, simplemente, anterior
  2. Sigue en directo todo lo que sucede en Naukas Bilbao 2021
  3. Javier Peláez – Naukas Bilbao 2019: Una odisea ártica
Categorías: Zientzia

Naukas Bilbao 2021: Cualquier tiempo pasado fue, simplemente, anterior

Dom, 2021/09/26 - 11:59

María Larumbe / GUK

Esther Samper durante su charla. Foto: Iñigo Sierra / Cátedra de Cultura Científica de la UPV/EHU.

Ya no se hace música como la de antes. Lo recordaba todo mucho más bonito… No hay duda de que algunas personas tienden a idealizar el pasado. Piensan que cualquier tiempo pasado era mejor, pero puede ser que, simplemente, como cantaba Karina mientras buscaba en `su baúl de los recuerdos’, nos lo parezca. Sin embargo, al menos, tal y como demostró la médica y divulgadora científica Esther Samper durante su charla en la primera jornada de Naukas Bilbao 2021, en lo que se refiere a medicina “ninguna época pasada fue mejor”.

Y lo hizo a través de ejemplos de lo más sorprendentes, retrotrayéndose a alguno de los falsos mitos más impactantes relacionados con la salud de la historia reciente. “En aquellos tiempos había una gran ignorancia en cuestiones de medicina, mucho charlatán que vendía falsos remedios y muchos falsos tratamientos ‘milagrosos’ que, sin tener evidencia científica, se extendieron rápidamente por el boca a boca a través de frases como ‘A mí me funciona’ o ‘si escuece, cura’”.

Como el furor que hubo por lo radioactivo en los años 30, al que se le atribuyeron propiedades cosméticas y curativas. “En aquellos tiempos, aún no se conocían la toxicidad y mortalidad que provocaba este elemento químico en altas exposiciones y se añadió a productos cotidianos de lo más variopintos: desde pasta de dientes, chocolates, agua mineral o cremas de belleza, ‘para tener una belleza radioactiva’, como rezaba el eslogan de la época, literal y metafóricamente”.

A mediados del siglo XX, pero en otro ámbito, el de la psiquiatría, el neurocirujano portugués António Egas Moniz, inventó un nuevo tratamiento para tratar la esquizofrenia y otras enfermedades mentales: la lobotomía prefrontal, procedimiento quirúrgico que consistía en seccionar la corteza prefrontal y que, teóricamente, mitigaba trastornos mentales.

No obstante, según precisó Samper, no fue una práctica muy popular hasta que el doctor americano Walter Freeman desarrolló la técnica del picahielo, un instrumento quirúrgico similar a una maza con el que “destruía parte del lóbulo prefrontal sin utilizar ni siquiera anestesia en muchas ocasiones”. Entonces, la lobotomía se convirtió en un espectáculo, llegando incluso a hacer giras donde ponía en práctica este procedimiento para calmar el ‘tormento mental’. En algunos pacientes llegaban a calmar, pero en la mayoría de los casos el remedio fue mucho peor que la enfermedad. Daños cerebrales e irreparables, indiferencia con el mundo, pasividad, “zombización” y una alta mortalidad entre los pacientes tratados. En la cultura popular, películas como “Alguien voló sobre el nido del cuco” (1975) o “Shutter Island” (2010) han reflejado estos horrores.

Egas Moniz llegó a ganar el premio Nobel de Medicina en 1949 por esta invención, Nobel de la vergüenza en palabras de Samper. De hecho, en la actualidad grupos de familiares de lobotomizados siguen luchando para que le sea retirado el premio, pero conforme a los Estatutos de la Fundación Nobel, hasta el momento es imposible retirar el galardón una vez otorgado.

Pero en España tampoco se estaba mucho mejor. “En los años 50 los vinos quinados, con un 15% de alcohol se vendían directamente a un público infantil como una especie de medicina para aumentar su apetito. De hecho, se hicieron anuncios representando a Kinito, un niño que consumía este alcohol, dibujados por el historietista Franscisco Ibáñez -padre de Mortadelo y Filemón-.”

Saltando a la realidad actual, “podemos pensar que ahora que la medicina ha avanzado esto ya no pasa, pero desafortunadamente no es cierto”. En algunas zonas de África, por ejemplo, los albinos son perseguidos, mutilados e incluso asesinados por sus supuestas propiedades mágicas”.

La sociedad occidental tampoco se libra. “Ante la incertidumbre sanitaria y la ignorancia han proliferado los negacionistas y antivacunas y personas que se han tratado, sin el aval de la ciencia, con dióxido de cloro o incluso Ivermectina, un antiparasitario para hacer combatir el coronavirus y evitar contagiarse, lo que ha provocado muchas intoxicaciones. Y es que, sea la época que sea, la construcción de un pensamiento crítico y riguroso con los hechos, teniendo como base las evidencias científicas es clave porque – como concluyó Samper-, “cuando la ciencia sale por la puerta… ¡la medicina salta por la ventana!”.

El artículo Naukas Bilbao 2021: Cualquier tiempo pasado fue, simplemente, anterior se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Pro 2021: Medicina de precisión para combatir el cáncer de próstata
  2. Sigue en directo todo lo que sucede en Naukas Bilbao 2021
  3. Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic
Categorías: Zientzia

Naukas Pro 2021: Quesos de pastoreo frente a quesos de producción intensiva

Sáb, 2021/09/25 - 11:59

María Larumbe / GUK

Luis Javier Rodríguez Barron: “Los quesos de pastoreo como el queso Idiazabal son nutricionalmente más saludables que los de producción intensiva”

La expresión “darla con queso” se utiliza habitualmente cuando se intenta engañar a alguien y tiene su origen en La Mancha Medieval. Ya en aquella época, la región era conocida por la calidad de sus vinos y a ella acudían taberneros de todos los lugares para comprar toneles de este caldo. Antes de realizar el pago del producto, lo cataban para asegurarse de su buena calidad. Cuando los bodegueros querían dar salida a partidas de vino picado o de peor condición, obsequiaban a los compradores con poca experiencia con un plato de queso manchego en aceite ya que su fuerte sabor hacía que el paladar del cliente novato no distinguiera un buen caldo de uno picado.

Precisamente, para evitar que ‘nos la den con queso’, existen diferentes sistemas que permiten controlar la trazabilidad de un alimento, es decir, conocer todos los pasos que ha seguido un alimento desde su origen hasta las manos de los consumidores, pasando por todo el proceso de transformación. Se trata de un proceso de rastreo esencial para poder garantizar la seguridad alimentaria, así como para autentificar los alimentos, verificando que un alimento cumple con la descripción de su etiqueta.

Luis Javier Rodríguez Barron durante su intervención en Naukas Pro 2021. Foto: Iñigo Sierra / Cátedra de Cultura Científica de la UPV/EHU.

En el grupo Lactiker de la UPV/EHU llevan más de 10 años trabajando en la identificación de distintos marcadores que garantizar la autentificación de productos lácteos y cárnicos que proceden de animales en pastoreo, como los quesos tradicionales producidos en sistemas de pastoreo extensivo o semi-extensivo y en especial, el queso Idiazabal, elaborado exclusivamente con leche pura de oveja latxa y/o carranzana, sin mezcla alguna y sin pasteurizar.

¿Cómo se puede distinguir un queso que procede de animales que pastan al aire libre frente a uno procedente en estabulación? Luis Javier Rodriguez Barron, líder de este grupo, doctor en Ciencias Químicas y catedrático de Tecnología de los Alimentos en la UPV/EHU, aprovechó su ponencia en Naukas Pro el viernes por la tarde para dar respuesta a esta y otras preguntas referentes relacionadas con su ámbito de trabajo, el de la calidad y seguridad de alimentos de origen animal y desde el que colaboran con distintas pequeñas queserías artesanas, la Denominación de Origen Idiazabal o asociaciones de productores.

“Para poder hacer esta autentificación, nosotros estudiamos ciertos compuestos presentes en la grasa láctea como los ácidos grasos insaturados o el contenido de vitaminas liposolubles como la A que actúan como marcadores para poder diferenciar los quesos de pasto de otros”.

En este sentido, tal y como explicó ante el público del Auditorio del Euskalduna, los quesos elaborados de pastoreo son más saludables debido, entre otras cosas, al consumo de hierba fresca por parte de los rumiantes. “Esto provoca que la grasa láctea tenga más compuestos saludables como ciertos antioxidantes y ácidos grasos insaturados que los no producidos por este sistema”. Asimismo, también han podido observar que estos quesos tienen un mayor contenido en vitamina E y A.

Más allá de establecer biomarcadores para garantizar la calidad nutricional, sensorial e higiénico-sanitaria de estos quesos, el desafío principal del grupo Lactiker es contribuir a la producción sostenible de alimentos procedentes de animales en pastoreo y facilitar al sector productivo la información necesaria para obtener un producto de alta calidad y seguridad.

A este respecto, Barron recalcó la importancia de la investigación, el apoyo de las administradores y la innovación para ayudar a los pequeños productores y frenar la desaparición de las queserías, ya que “el abandono del pastoreo pondría en peligro, no solo las características de quesos de pasto como el Idiazabal, sino que también se perdería de forma gradual el impacto positivo que genera este sistema en distintos ámbitos como el medioambiente, la biodiversidad, el bienestar animal, la cultura o el desarrollo rural. Y eso no lo debemos permitir”.

El artículo Naukas Pro 2021: Quesos de pastoreo frente a quesos de producción intensiva se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Pro 2021: Medicina de precisión para combatir el cáncer de próstata
  2. Naukas Pro 2017: Inma Estévez y la producción animal
  3. Sigue en directo todo lo que sucede en Naukas Bilbao 2021
Categorías: Zientzia

Naukas Pro 2021: Medicina de precisión para combatir el cáncer de próstata

Vie, 2021/09/24 - 11:59

María Larumbe / GUK

Las células del cuerpo humano están en constante comunicación. Intercambian información entre sí bien mediante señales directas o bien a través de la emisión de una sustancia recibida por otra célula. Se trata de una relación esencial que permite mantener el estado normal de los órganos. Pero no siempre es así. De hecho, cuando una de estas células pierde conexión con las células de su entorno y, con ello, la capacidad de responder a las señales de otras células podría convertirse en cancerosa. Y, si un grupo de estas células cancerosas ‘decide’ irse por su cuenta a otras zonas del cuerpo y asentarse creando nuevos tumores, es cuando surge la metástasis y, con ella, el riesgo de muerte.

Sobre la importancia de la comunicación intercelular y su impacto en la progresión del cáncer habló ayer Verónica Torrano Moya, doctora en Biología e investigadora Ramón y Cajal en el Departamento de Bioquímica y Biología Molecular de la UPV/EHU en su sesión dentro de Naukas Pro en el Palacio Euskalduna de Bilbao. En concreto, dentro del grupo de investigación que lidera- llamado Cancer Transcription and Cell Communication Lab- trabajan en una línea de investigación relacionada con los procesos biológicos responsables de la aparición del cáncer de próstata, una patología de gran prevalencia ya que, como explicó Torrano, “afecta a alrededor de 1 de cada 6 hombres a lo largo de su vida”.

“A pesar de que aproximadamente el 80% de los pacientes que padecen esta enfermedad consiguen curarse con los tratamientos disponibles actualmente, alrededor de un 20% de los pacientes desarrollan un tumor agresivo que es el principal causante de muerte en estos pacientes”.

En este sentido, el trabajo de Torrano y su equipo está principalmente enfocado en tratar de conocer los procesos biológicos asociados a este tipo de cánceres agresivos ya que, según puntualizó “al conocer estos procesos seremos capaces de diseñar estrategias terapéuticas personalizadas que consigan mejorar la calidad de vida de los pacientes con tumores agresivos e incluso curarlos”.

Veronica Torrano, investigadora Ramón y Cajal en el Departamento de Bioquímica y Biología Molecular de la UPV/EHU en su intervención en NaukasPro 2021. Foto: Iñigo Sierra / Cátedra de Cultura Científica de la UPV/EHU.

Para poder diseñar un tratamiento específico para pacientes de cáncer de próstata agresivo, primero los identifican en el laboratorio mediante el análisis de la expresión de aquellos genes que tienen un impacto en la comunicación celular, esencial para que la estructura de un tejido se mantenga. ¿El objetivo? Poder anticiparse, detectar y clasificar de forma temprana a aquellos pacientes que es probable que desarrollen en unos años un cáncer de próstata agresivo. “De esta manera, seremos capaces de diseñar terapias específicas para ellos”, puntualizó.

Con este fin en el laboratorio trabajan con distintos tres modelos experimentales: células en cultivo, murinos (ratones) y muestras de los pacientes. En el caso de las muestras de los pacientes, “disponemos de acceso al historial y a la evolución clínica de pacientes distintos tipos de pacientes de cáncer de próstata, lo que nos da una información muy valiosa para ser capaces de analizar cómo es la expresión del gen en una situación preagresiva del tumor y en el mismo paciente cuando el tumor se ha vuelto agresivo”.

Esta línea de trabajo tan personalizada se enmarca dentro de la medicina de precisión, una nueva tendencia en medicina que utiliza la información de los genes o las proteínas de una persona con el fin de prevenir, diagnosticar o tratar una enfermedad. En el caso de la medicina personalizada para el cáncer, se usa información específica del tumor de una persona con el objetivo de facilitar el diagnóstico, planificar el tratamiento, determinar si es eficaz o dar un pronóstico.

A este respecto, la investigadora, con más de 17 años de experiencia investigadora en la biología del cáncer, hizo hincapié en los tres aspectos que considera claves para poder combatir esta enfermedad: la detección temprana, que es posible “gracias al trabajo de los investigadores en el desarrollo de métodos de diagnóstico y a las campañas de detección precoz de diferentes patologías que están en aumento desde los últimos años”; el tratamiento eficaz y personalizado mediante la medicina de precisión; y la prevención, para reducir el riesgo de padecer cáncer.

Por último, además de poner en valor la colaboración entre investigadores básicos y clínicos, reclamó más financiación para la investigación, “porque solo los países con alta inversión en ciencia tienen modelos productivos sostenibles”. O, lo que es lo mismo, parafraseando el hashtag, sin ciencia no hay futuro, pero con ciencia sí que lo hay.

El artículo Naukas Pro 2021: Medicina de precisión para combatir el cáncer de próstata se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Lo mejor de dos mundos para avanzar en el tratamiento del cáncer
  2. La senescencia celular: el gran desafío para entender y tratar el cáncer
  3. Nanopartículas recubiertas para el tratamiento localizado del cáncer por hipertermia magnética
Categorías: Zientzia

Sigue en directo todo lo que sucede en Naukas Bilbao 2021

Vie, 2021/09/24 - 09:00

 

Sigue en directo todo lo que sucede en Naukas Bilbao 2021. Hay dos opciones para acceder a las emisiones en directo: Youtube y Kosmos Streaming.

Programa definitivo e información sobre Naukas Bilbao 2021.

El artículo Sigue en directo todo lo que sucede en Naukas Bilbao 2021 se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017, en directo
  2. Naukas Bilbao está en marcha
  3. Naukas Pro, en directo
Categorías: Zientzia

Aves de bajos vuelos

Jue, 2021/09/23 - 11:59
Cormorán piquicorto (Microcarbo melanoleucos). Ilustración: María Lezana

Los cormoranes son buenos buceadores. Lo que no hacen tan bien es volar. Son de tamaño relativamente grande; en algunas especies los individuos adultos pueden llegar a pesar 5 kg. De hecho, ese tamaño es un hándicap considerable a la hora de levantar el vuelo y volar. Hay que tener en cuenta que, al aumentar las dimensiones lineales de un organismo, su masa aumenta en mayor medida que lo que lo hace la fuerza que es capaz de desarrollar esa masa.

Por otro lado, los cormoranes tienen las alas relativamente cortas, por lo que han de batirlas con mucha fuerza para poder alzar el vuelo y mantenerse en el aire. Sin embargo, si los comparamos con los de otras aves, los músculos del vuelo de los cormoranes son de pequeño tamaño también. Así pues, tienen que hacer un esfuerzo tan grande para volar, que se ven obligados a hacer uso de la máxima potencia que pueden desarrollar sus músculos. Por esa razón, no suelen volar durante periodos largos; de hecho, la distancia media que recorren al volar es de 1 km, y difícilmente se mantienen en el aire durante más de 10 minutos. Si se computa el tiempo total que vuelan en un día, no suele superar la media hora. Estos datos, no obstante, pueden variar entre especies.

Pero como hemos dicho antes, los cormoranes son grandes buceadores. Tienen, por un lado, gran capacidad para almacenar en sus tejidos el oxígeno que necesitan durante la inmersión, y lo que es muy importante: esa capacidad aumenta con el tamaño del animal en mayor medida que lo que se eleva su consumo de oxígeno. Por eso pueden permanecer largo tiempo bajo el agua, más cuanto mayor es el tamaño del cormorán. El tamaño grande, que es una desventaja cuando de volar se trata, resulta ser un factor beneficioso a la hora de bucear. Una cosa por la otra.

Por otra parte, si bien es cierto, como hemos visto, que las alas pequeñas son inadecuadas para volar, resultan muy útiles a la hora de sumergirse, porque de esa forma la tendencia a flotar es menor, como también lo es la resistencia que oponen a la inmersión.

Por último, los músculos de sus extremidades inferiores son de un tamaño considerable, representan entre un 10 y un 12% de la masa corporal. Son los músculos, precisamente, de los que hace uso para sumergirse. Está claro que sus rasgos anatómicos son ideales para bucear.

Las tendencias anatómicas y fisiológicas que hemos visto aquí alcanzan su grado más extremo en el cormorán mancón o cormorán de las Galápagos (Phalacrocorax harrisi), donde es endémica. Ha llevado las características de su género hasta su máxima expresión porque se trata del único cormorán que no vuela; ha perdido la capacidad de volar, aunque resulta ser, como era previsible, un buceador excelente.

Después de lo señalado antes, no sorprenderá saber que sus ejemplares son los cormoranes que alcanzan un mayor tamaño, pues pueden llegar a medir 100 cm de longitud y alcanzar una masa de 5 kg. Sus alas miden una tercera parte de lo que necesitarían para permitirles volar con esa masa. Además, la quilla del esternón, que es donde se anclan los músculos del vuelo de las aves, es de tamaño muy inferior al de las aves que vuelan.

Fuente: Yuuki Y. Watanabe, Akinori Takahashi, Katsufumi Sato, Morgane Viviant y Charles-André Bost (2011): Poor flight performance in deep-diving cormorants. The Journal of Experimental Biology 214: 412-421 doi: 10.1242/jeb.050161.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Aves de bajos vuelos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Tamaño corporal y función renal de aves y mamíferos
  2. Los pulmones de reptiles y aves
  3. Las aves de Prometeo
Categorías: Zientzia

Contando lentejas, las particiones de los números

Mié, 2021/09/22 - 11:59

 

Hace unos años escribí una biografía sobre el matemático británico Arthur Cayley (1821-1895), que es uno de esos matemáticos por los que siento cierta admiración. Arthur Cayley investigó prácticamente en todas las áreas de las matemáticas –escribió 967 artículos y un libro sobre funciones elípticas–, en un tiempo en el que la investigación matemática era como una de esas expediciones geográficas, llenas de aventuras, del siglo XIX y principios del siglo XX, pero por territorio matemático. Escribiendo el libro Cayley, el origen del álgebra moderna aprendí algunas cosas sobre las particiones de los números naturales, tema al que vamos a dedicar esta entrada del Cuaderno de Cultura Científica.

Portada del libro Cayley, el origen del álgebra moderna (Raúl Ibáñez), de la colección Genios de las Matemáticas, RBA, 2017

 

Sin embargo, me gustaría empezar con un poco de literatura. En concreto, con una cita de la novela El contable hindú (Anagrama, 2011), del escritor estadounidense David Leavitt, novela que se centra en la relación de los matemáticos Srinivasa Ramanujan (1887-1920) y Godfrey H. Hardy (1877-1947), y en el ambiente de la Universidad de Cambridge de principios de siglo XX.

Por la mañana, va hasta las habitaciones de Hardy. Cuando se quita el abrigo, las lentejas se le caen del forro.

¿Le pasa algo? — pregunta Hardy— Parece agotado.

Me pasé la noche cocinando. Voy a dar una cena. El martes que viene. Me pregunto si me haría el honor de asistir.

Pues claro —dice Hardy—. ¿Qué se celebra?

Que Chatterjee se va a casar. […]

¿Está seguro de que se encuentra bien? —pregunta Hardy. Ramanujan asiente con la cabeza.

Se lo pregunto porque parece un poco distraído. ¿Es por la cena?

Qué va. Son las lentejas.

¿Qué lentejas?

Las del rasam. —Y Ramanujan se pone a explicarle que, mientras preparaba los ingredientes para el rasam, se dedicó a contar las lentejas, y eso le hizo pensar en las particiones.

No es la primera vez que hablan sobre las particiones. De hecho, tienen la teoría de las particiones en mente (aunque de un modo bastante disperso) desde que Hardy recibió la primera carta de Ramanujan y se topó con un enunciado sobre la serie theta cuya inexactitud permitía enfocar la cuestión desde un ángulo nuevo realmente sorprendente. Calcular p(n) —el número de particiones de un número— es fácil cuando n es 5 o 7; el problema es que, a medida que el número va siendo más alto, p(n) aumenta a un ritmo asombroso. Por ejemplo, el número de particiones de 7 es 15, mientras el número de particiones de 15 es 176. Así que ¿cuál es el número de particiones de 176? 476.715.857.290. Y entonces, ¿cuál sería el número de particiones de 476.715.857.290?

¿Y adónde le han llevado las lentejas?

Tengo una idea sobre una fórmula para calcular el número de particiones de un número. Aunque sea un número muy alto. —Se levanta—. ¿Puedo?

Claro. —Hardy borra la pizarra, y Ramanujan se acerca a ella. Empieza a trazar diagramas: puntitos que representan las lentejas. Luego escribe la serie theta de su primera carta. Entonces Hardy menciona la función generadora que descubrió Euler, y […].

Portada de la novela El contable hindú, de David Leavitt, publicada por Anagrama en 2011

 

Pero vayamos con las particiones. Una partición de un número natural es una forma de expresarlo como suma de números naturales, donde el orden no es relevante. Por ejemplo, el número 3 puede expresarse como suma de números naturales de tres formas distintas

1 + 1 + 1, 2 + 1, 3,

es decir, hay tres particiones del número 3, mientras que existen cinco particiones del número 4, a saber,

1 + 1 + 1+ 1, 2 + 1 + 1, 2 + 2, 3 + 1, 4.

Dicho de una forma un poco más técnica, una partición de un número entero positivo n es una sucesión no creciente de números enteros

de forma que su suma es n,

Se denota por p(n) el número de particiones de un número n y por convención se toma p(0) = 1. Calcular las particiones de números pequeños es un problema sencillo, incluso un juego entretenido. Se puede ver fácilmente que p(6) = 11, p(7) = 15, p(8) = 22, p(9) = 30 y p(10) = 42. Sin embargo, la cuestión se complica según vamos avanzando en los números naturales. Por ejemplo, un número bajo como 100 tiene ya p(100) = 190.569.292 particiones, que no es precisamente un número pequeño. Solo en escribir explícitamente las particiones de 100 tardaríamos bastante más de 18 años y eso considerando que se estuviese escribiendo a un ritmo muy rápido y sin parar a descansar en todo el día, las 24 horas del día. O 36 años, a 12 horas diarias. Además, como se menciona en El contable hindú es una función que crece exponencialmente.

Por otra parte, se define como pk(n) el número de particiones del número n con k, o menos, sumandos. Por ejemplo, p3(6) = 7, ya que el 6 se puede expresar como suma de 3, o menos, sumandos de estas siete formas distintas

2 + 2 + 2, 3 + 2 + 1, 3 + 3, 4 + 1 + 1, 4 + 2, 5 + 1, 6.

Mientras que se denota por qk(n) al número de particiones del número n cuyos sumandos son menores, o iguales, a k. Por ejemplo, q3(6) = 7, ya que existen siete particiones del 6 cuyos sumandos son 1, 2 o 3,

1 + 1 + 1 + 1 + 1 + 1, 2 + 1 + 1 + 1 + 1, 2 + 2 + 1 + 1, 2 + 2 + 2, 3 + 1 + 1 + 1, 3 + 2 + 1, 3 + 3.

Se estudian muchos más tipos de particiones: con números impares, con números distintos, con determinado tipo de números, con solo ciertos números, planas, perfectas, etcétera. Además, si en las particiones se tuviera en cuenta el orden se obtendrían las composiciones o particiones ordenadas, pero hoy no vamos a hablar de estas.

La primera referencia a las particiones aparece en una carta, de 1669, del matemático alemán Gottfried Leibniz (1646-1716) al matemático suizo Johann Bernoulli (1667-1748), aunque las llama «divulsiones». Sin embargo, fue Leonhard Euler quien realizó el primer estudio serio de las particiones en su libro Introductio in analysin infinitorum (1748). Además de Euler, han estudiado las particiones de los números matemáticos como Arthur Cayley, James J. Sylvester (1814-1897), Percy A. MacMahon (1854-1929), Godfrey H. Hardy, Srinivasa Ramanujan y muchos más.

Edición original del libro Introductio in analysin infinitorum (1748), de Leonhard Euler. Imagen de la Galería Swann

 

En el texto Introductio in analysin infinitorum, Leonhard Euler expresó la sucesión de los números de particiones {p(n)} como coeficientes de una función generatriz, una serie infinita de potencias. En concreto, demostró que

pero no vamos a explicar en esta entrada del Cuaderno de Cultura Científica el significado e importancia de esta potente fórmula matemática, sino que vamos a mostrar una técnica más visual de estudio de las particiones de los números, los denominados diagramas de Ferrers.

Norman Macleod Ferrers (1829-1903) fue un matemático británico de la Universidad de Cambridge, como muchos de los protagonistas del estudio de las particiones de los números. Un diagrama de Ferrers es un diagrama de puntos en el que cada partición se representa con una serie de puntos de forma que en cada fila haya tantos puntos como el número que se está sumando. Por ejemplo, la partición 21 = 6 + 4 + 4 + 2 + 2 + 2 + 1 se representa con una fila de seis puntos, dos de cuatro puntos, tres de dos puntos y una de un punto, como se ve en la siguiente imagen.

Si en el diagrama de Ferrers de una cierta partición se intercambian las filas por las columnas, se obtiene el diagrama de una nueva partición del mismo número, que es la denominada partición conjugada de la primera. Por ejemplo, si al diagrama de la imagen anterior, correspondiente a la partición 21 = 6 + 4 + 4 + 2 + 2 + 2 + 1, se le intercambian filas y columnas, se obtiene el diagrama de la partición conjugada de la anterior, la partición 21 = 7 + 6 + 3 + 3 + 1 + 1.

Observando los diagramas de Ferrers de particiones conjugadas se deduce que dada una partición de un número n con k, o menos, sumandos (el número de sumandos se corresponde con el número de filas, que no puede ser mayor que k), su partición conjugada es una partición de n donde los sumandos son números menores, o iguales, que k (puesto que ahora el número de puntos de cada columna no puede exceder k, que era la cantidad de filas que había antes). Y el recíproco también es cierto. Por ejemplo, en las imágenes anteriores, la partición 6 + 4 + 4 + 2 + 2 + 2 + 1, tiene siete o menos sumandos, y su conjugada, 7 + 6 + 3 + 3 + 1 + 1, tiene sumandos que no son mayores que siete.

En consecuencia, los diagramas de Ferrers ofrecen una sencilla demostración de la «bella ley de Euler», como la denominó Sylvester,

pk(n) = qk(n),

es decir, el número de particiones de n con k, o menos, sumandos es igual al número de particiones con sumandos que no exceden a k.

Veamos otro resultado sencillo que puede demostrarse con la ayuda de estos diagramas:

pk(n) = pk – 1(n) + pk(n – k).

Como ya hemos mencionado en más de una ocasión en la sección Matemoción del Cuaderno de Cultura Científica las demostraciones son una parte muy importante, de hecho, fundamental, de las matemáticas, por lo que este ejemplo nos sirve para ilustrar el proceso de una demostración matemática.

Vamos a demostrar la anterior fórmula. Es decir, la vamos a demostrar que pk(n) –el número de particiones del número n con k, o menos, sumandos- es igual a la suma de pk – 1(n) –el número de particiones del número n con k – 1, o menos, sumandos- y pk(n – k) –el número de particiones del número n – k con k, o menos, sumandos-. Para demostrarlo vamos primero a dividir el conjunto S de particiones del número n con k, o menos, sumandos en dos subconjuntos, a saber, el subconjunto S1 de particiones del número n con exactamente k sumandos y el conjunto S2 de particiones del número n con menos de k sumandos. Luego si contamos la cantidad de elementos de los subconjuntos S1 y S2, obtendremos que su suma es igual al número de elementos del conjunto S, esto es, pk(n).

Pero claramente el conjunto S2 es igual al conjunto de particiones del número n – 1 con k, o menos, sumandos, de donde se deduce que la cantidad de elementos de S2 es igual a pk – 1(n).

Para obtener el número de elementos de S1 vamos a utilizar los diagramas de Ferrers. Como los elementos de S1 tienen exactamente k sumandos, sus diagramas de Ferrers tienen exactamente k filas, como se muestra en el ejemplo de la imagen, luego si se elimina la primera columna –que para cualquier elemento de S1 tiene k puntos- se obtiene una partición de nk (ya que se han quitado k puntos) con k, o menos, sumandos. Por lo tanto, el número de elementos de S1 es pk(n – k).

Dos ejemplos de cómo una partición del número 21 en exactamente 7 sumandos, nos da –al quitar la primera columna- una partición de 21 – 7 = 14 con 7, o menos sumandos

 

En conclusión, pk(n) es igual a la suma de las cantidades de elementos de S1 y S2, luego pk(n) = pk – 1(n) + pk(n – k); QED (Quod erat demonstrandum).

Otra propiedad, esta vez de las particiones autoconjugadas –aquellas particiones de un número que son iguales a sus conjugadas-, que se puede probar fácilmente de forma visual teniendo en cuenta los diagramas de Ferrers es la siguiente:

El número de particiones autoconjugadas es igual al número de particiones con números impares distintos.

La idea que subyace a esta prueba es que una línea con un número impar de puntos se puede plegar en una partición autoconjugada (con una única fila y una única columna, con la misma cantidad de puntos en ambas), como en la siguiente imagen.

A partir de la anterior idea se puede observar que el número de particiones autoconjugadas es igual al número de particiones con números impares distintos, sin más que aplicar el plegado a cada una de las filas con un número impar de puntos, todos ellos distintos, como se muestra en la siguiente imagen.

Observemos que si hay dos columnas con el mismo número impar de puntos no se genera una partición autoconjugada, como se muestra en el siguiente ejemplo.

Estos ejemplos nos sirven para mostrar, una vez más, como en ocasiones podemos diseñar herramientas visuales potentes para realizar demostraciones matemáticas, como son el caso de los diagramas de Ferrers en el estudio de las particiones de los números.

Cartel de una de las representaciones de la obra teatral Partition, de Ira Hauptman, en la Universidad de California, Berkeley. Imagen: University of California, Berkeley. Para más información la entrada de Marta Macho, Particiones: Hardy y Ramanujan

 

Aunque pueda sorprender por su sencillez, las particiones de los números, como muchas otras herramientas de la combinatoria, tienen muchas aplicaciones en ciencia y tecnología. Aparecen en ocasiones en las que hay que contar determinado tipo de elementos o estructuras que pueden pensarse como particiones de los números. Por ejemplo, el matemático inglés Arthur Cayley se interesó en el estudio de la teoría de particiones como herramienta en el cálculo de ciertos invariantes algebraicos, pero lo mismo ocurre con muchas otras ramas de las matemáticas, y también de la física de partículas, la computación o la estadística, entre otras.

Más aún, las particiones están relacionadas, por ejemplo, con lo que en teoría combinatoria se llaman “problemas de ocupación”, que consisten en contar el número de formas de colocar una cierta cantidad de bolas n en una cierta cantidad de cajas k. Las particiones, en general, se corresponden con los problemas en los que las bolas son indistinguibles. Si las cajas son también indistinguibles, son las particiones propiamente dichas, y si son distinguibles, son las particiones ordenadas. Un ejemplo, de una aplicación de un problema de ocupación lo mostramos en la entrada Aprendiendo técnicas para contar: lotería primitiva y bombones.

Bibliografía

1.- Raúl Ibáñez, Cayley, el origen del álgebra moderna, Genios de las Matemáticas, RBA, 2017.

2.- R. B. J. T. Allenby, Alan Slomson, How to count, an introduction to combinatorics, CRC Press, 2011.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Contando lentejas, las particiones de los números se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Particiones: Hardy y Ramanujan
  2. Calcular el área contando puntos
  3. Dos conjeturas sobre números primos
Categorías: Zientzia

Montañas y explicaciones naturalistas

Mar, 2021/09/21 - 11:59

Incluso cuando las sociedades mediterráneas se volvieron más sofisticadas y la mente científica griega despertó del letargo, las montañas seguían siendo distantes, misteriosamente temibles e inaccesibles. Era tal el efecto que producían a quien se aventuraba en ellas que, como a Polibio, que viajó a través de los Alpes y vio el monte Atlas a la distancia, solo las cifras equivalentes al infinito servían para describirlas.

Dolomitas, en el norte de Italia. Foto: Andrew Mayovskyy / Shutterstock

Los pocos ascensos de montañas registrados se produjeron por razones militares. Así, Alejandro de Macedonia en el siglo IV a.e.c. cruzó las montañas Tauro del sureste de Turquía y el Hindú Kush de Afganistán. Aníbal de Cartago atacó Roma en el 218 a.e.c. después de haber cruzado los Pirineos y luego los Alpes. El historiador romano Livio registró el ascenso del monte Hebrus en Tracia a principios del siglo II a.e.c. por parte del rey Filipo de Macedonia, en guerra con Roma. Filipo habría subido a la montaña para espiar los movimientos de las tropas romanas. Los montañeros tardaron tres días en atravesar las estribaciones y ascender a la cima. El descenso posterior duró dos días. El sufrimiento de los hombres fue inmenso, sobre todo por el frío; la tercera noche en la cumbre fue terrible en este sentido. Según Livio, quien obviamente sabía poco sobre montañismo, la espesa niebla que envolvió a Filipo y sus hombres en la cima era un fenómeno inusual.

Los griegos, y después de ellos los romanos, rara vez intentaron explicar los fenómenos montañosos. La ciencia requiere no solo observación, sino análisis basado en la experiencia directa y, cuando es posible, en la experimentación. Y a los griegos les faltó la voluntad de ascender a las altas cumbres. Además, las montañas se consideraban sagradas, asociadas con lo sobrenatural y trascendente.

Lucrecio el epicúreo, que se negaba a creer en todo lo que no pudiera explicarse según la materia en movimiento, el movimiento perpetuo de los átomos invisibles [1], no hizo una excepción con las montañas y los fenómenos asociados a ellas. Las montañas son huecas, creía Lucrecio, y las erupciones volcánicas ocurren cuando los átomos de fuego son expulsados del cono. Más cercana a la realidad fue su observación de que las nubes se forman en los picos de las montañas debido al aire caliente que sube por las laderas hacia el frío de la cumbre.

Monte Vesuvio. Fuente: Wikimedia Commons

El romano más famoso que investigó las montañas fue Cayo Plinio Secundo, Plinio el Viejo. En el 79 e.c. el Monte Vesubio entró en erupción, arrojando cenizas, gases y lava. Plinio, que podía ver el volcán desde su casa en la bahía de Nápoles, se hizo a la mar para investigar la densa columna de humo que se elevaba desde el Vesubio. Tomó notas de sus observaciones y cuando el barco llegó a las costas al sur de Pompeya, continuó observando la caída de ceniza y rocas hasta su muerte por asfixia [2].

Contemporáneamente, en el siglo I e.c., una nueva secta palestina, los cristianos, supusieron una renovación de la fascinación judía con las montañas. Su líder fundador, Jesús de Nazaret, encontró, como Moisés milenios antes en el Sinaí o Zacarías en el Monte de los Olivos, significado y trascendencia en las pequeñas montañas que rodean Jerusalén. Sin embargo un teórico de la ya religión, Agustín de Hipona, varios siglos después, condenó la fascinación humana por las montañas a expensas de la autoconciencia. La influencia de san Agustín explica el desdén de la europea medieval hacia los monumentos físicos al Creador y su concentración en lo incorpóreo y espiritual. Hubo que esperar al Renacimiento para que se despertase de nuevo el interés por las montañas, y fue con una excusa espiritual: el humanista y montañista Francesco Petrarca en el siglo XIV mostró las posibilidades de autodescubrimiento y contemplación en la experiencia de ascender una montaña.

Procession de saint Janvier à Naples pendant une éruption du Vésuve (1822)  de Antoine Jean-Baptiste Thomas. Procesión de San Jenaro para implorar la intervención divina ante una erupción del Vesubio.

Nota:

[1] Algunos periodistas televisivos, al informar sobre erupciones volcánicas, siguen a Lucrecio, sin saberlo. Es más, oyéndoles uno pensaría que creen que la lava es algo que está ardiendo, pero uno no lo piensa porque no puede creer que la ignorancia y la incompetencia lleguen a esos niveles.

[2] En vulcanología se llama erupción pliniana a la erupción violenta de un volcán liberando gases en una columna eruptiva que puede alcanzar decenas de kilómetros, como la del Vesubio, en honor a Plinio el Viejo.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Montañas y explicaciones naturalistas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Montañas y mitos
  2. En Marte el viento crea montañas
  3. Galileo vs. Iglesia Católica redux (III): Observaciones
Categorías: Zientzia

Julio Garavito, con la mirada en la Luna

Lun, 2021/09/20 - 11:59

Alberto Mercado Saucedo

El billete de veinte mil pesos colombianos es un raro ejemplo: lleva impreso el retrato de un matemático. En efecto, entre sus similares de los países de habla hispana es común encontrar militares y políticos, algunas personalidades de la pintura o de la literatura, pero casi nunca de las ciencias. Este billete lleva impresas figuras geométricas, una representación de la Luna y la imagen de Julio Garavito Armero. Su uso en las transacciones cotidianas ha llevado a una curiosa costumbre urbana alrededor de la tumba de Garavito en el cementerio de Bogotá, que se ha convertido en objetivo de visitas espontáneas de diversas personas, especialmente en medio de la noche, que dejan pequeños regalos como flores azules, del mismo color del billete, en solicitud o agradecimiento de favores personales. Como si fuera un santo a quien acuden en peregrinación. Su nombre también aparece en otro inusual lugar: un cráter de la Luna. Julio Garavito Armero, esta es su historia.

Nació en Bogotá el 5 de enero de 1865. De joven, al tiempo que asistía a la escuela, trabajó para contribuir al ingreso de la familia y después de sus estudios secundarios se interesó por seguir aprendiendo ciencias. Como frecuentemente ocurría durante el siglo XIX (y parte del XX) en países de Latinoamérica, la enseñanza de las matemáticas estaba mayormente enfocada a la ingeniería, área que estudiaban quienes se sentían atraídos por la disciplina de Pitágoras. Además, los distintos cambios políticos de la época, usualmente violentos, afectaron el desarrollo de las ciencias, como ocurrió con los planes de Garavito: a causa de la guerra civil colombiana de 1885, la Universidad Nacional cerró por algún tiempo y él debió esperar a que reabriera para poder estudiar.

Finalmente estudió en la Facultad de Matemáticas e Ingeniería, donde además de los estudios de ingeniería, se podía optar al titulo de profesor de matemáticas, para lo cual se debía de realizar una tesis de temática adecuada. Garavito fue el primer graduado como profesor de matemáticas. Podemos encontrar registros de dos trabajos de tesis que realizó: uno donde estudia matemáticamente el funcionamiento de un barómetro, aparato para medir la presión de un gas, y una segunda tesis donde estudió el problema que hoy conocemos como la aguja de Buffon, que consiste en calcular la probabilidad de que una aguja, arrojada a una superficie reglada por líneas paralelas (como una hoja de cuaderno) separadas por la misma longitud de la aguja, resulte en una posición en que toca a una de las líneas. La solución no se obtiene directamente por algún proceso de conteo y son necesarios argumentos de geometría integral para obtener el resultado: el valor de 2/. De manera interesante, esto proporciona un método práctico para aproximar a  (se debe realizar el experimento repetidas veces, digamos N, contar el número de casos favorables A, y entonces A/N se acercará a 2/ cuando N es grande, de donde se puede despejar el valor de ).

Después de graduarse, Garavito dictó clases en la Facultad y se fue interesando cada vez más en lo que se convertiría en su pasión por el resto de su vida: la Astronomía. Ideó métodos para establecer latitudes y longitudes del país, llevó a cabo con éxito un proyecto para cartografiar Colombia y en particular para obtener la latitud de Bogotá. También trabajó en la predicción del paso del cometa Halley. Fue director del Observatorio Nacional desde 1892 y hasta su muerte, ocurrida el 11 de marzo de 1920, cuando tenía apenas 55 años de vida.

Quizá el más grande logro científico de Garavito es el relacionado con sus cálculos sobre el movimiento lunar, lo que está incluido en varios de sus trabajos, en particular en uno de sus artículos de la Academia Colombiana de Ciencias. Extendiendo un método propuesto anteriormente, resolvió las ecuaciones que rigen el movimiento de la Luna alrededor de la Tierra. La teoría de la gravitación universal, desarrollada con Newton un par de siglos antes, junto con todas las herramientas del cálculo diferencial, habían proporcionado un marco matemático para modelar, de manera precisa, el movimiento de los astros. Pero la Luna ha tenido por costumbre volver locas a las personas, y ésta no fue una excepción. Siendo el cuerpo celeste más cercano a nosotros, se le ha observado desde la antigüedad, y la comparación con las observaciones se convirtió en una verdadera prueba para la teoría de gravitación, que no era evidente que aprobara fácilmente.

La ley de gravitación universal permitió comprender de forma conjunta dos fenómenos que ya se habían estudiado: la ley de inercia y las leyes de Kepler del movimiento elíptico. Con las nuevas herramientas matemáticas comenzó una era en la que los detalles del universo podrían cabalmente ser descritos. La luz de las matemáticas iluminó rincones que habían permanecido oscuros. Nació así el área de estudio con el bello nombre de mecánica celeste. En particular, surgió un problema que en términos generales se puede plantear de la siguiente manera: si se conocen las posiciones y velocidades iniciales de N cuerpos celestes en el espacio, los cuales afectan unos a otros por medio de la gravedad ejercida mutuamente, se debe determinar las posiciones y velocidades que tendrían en el curso del tiempo. Para N=2, se tiene un sistema de dos cuerpos, (pensemos en el Sol y la Tierra), que fue resuelto poco después de que Newton estableciera su teoría. Pero para valores mayores, la cuestión es mucho más compleja.

Es asombroso pensar que, en el problema de los N cuerpos, aumentar un objeto para simplemente pasar de dos a tres cuerpos (el Sol y dos planetas girando a su alrededor, por ejemplo) complica enormemente la complejidad del problema, y ya no hay soluciones explícitas. A finales del siglo XIX, el matemático francés Poincaré encontró que este tipo de sistemas siempre incluyen soluciones caóticas (esto significa que pequeños cambios en la situación inicial de los cuerpos pueden llevar, con el curso del tiempo, a inmensas diferencias). Actualmente se conocen algunas soluciones particulares, en particular para el caso de tres cuerpos de la misma masa, pero no del problema en general. Es interesante constatar que recién el año 2000 fue encontrada un nuevo tipo de órbitas de tres cuerpos: la figura del ocho, que es recorrida por tres planetas distribuidos de forma simétrica a lo largo de la trayectoria y que se persiguen mutuamente. Esto fue encontrado por el matemático estadounidense Richard Montgomery en lo que significó un importante descubrimiento. Como dato curioso, la conocida novela de ciencia ficción El problema de los tres cuerpos, de Cixin Liu, se inspira en la trayectoria encontrada por Montgomery.

Fuente: Wikimedia Commons

Dentro del problema de los tres cuerpos, es natural pensar en el ejemplo de los tres astros que tenemos más cerca en nuestra vida diaria: nuestro hogar la Tierra, el Sol y, claro, la Luna. Este sistema tiene la peculiaridad de que un cuerpo es de masa mucho menor comparada con los otros dos, por lo que podemos pensar en una simplificación: considerarlo como un punto en el espacio, con masa despreciable. Además, se puede simplificar pensando que los tres cuerpos se mueven dentro de un plano. Entonces resulta lo que se conoce como el problema restringido de los tres cuerpos, planteado por Poincaré y que ha sido estudiado a lo largo del tiempo.

Uno de los principales aportes en el problema restringido de los tres cuerpos fue realizado por George William Hill (1838-1914) y continuado por Ernest William Brown (1866-1938). La teoría de Hill-Brown, construida a finales del siglo XIX, fue un gran avance en el estudio del movimiento lunar y sirvió como el método más preciso para calcular las efemérides lunares por décadas. Uno de los puntos geniales en este trabajo fue el uso de series complejas infinitas por Hill, quien usó su conocimiento fino de la teoría desarrollada por Euler sobre números complejos (recordemos la fórmula de Euler, la más hermosa de las matemáticas: exp( i) = -1), para encontrar una solución periódica al problema restringido de los tres cuerpos. Fue tal el éxito de esta teoría que astrónomos proponían medir el tiempo usando las efemérides lunares en vez del tiempo universal (lo cual no tuvo mayor éxito, en parte por el descubrimiento de precisos métodos de cálculo del tiempo usando relojes atómicos).

Pues bien, aún siendo muy precisa, la teoría de Hill-Brown no bastaba para describir completamente el movimiento lunar en todos sus detalles, y con el tiempo aparecieron más y más discrepancias entre las observaciones y la teoría. Garavito se abocó a la tarea de mejorar tal teoría, lo que consiguió después de mucho trabajo. Mejoró los resultados de Hill y Brown, resolviendo las ecuaciones diferenciales de la teoría con varios grados mayores de precisión. Llegó a construir las tablas del movimiento lunar más adelantadas de su época. En 1970, la Unión Astronómica Internacional decidió asignar el nombre de Garavito a un cráter de la Luna, en conmemoración de este inmenso logro intelectual. En la Luna, Garavito es vecino de Poincaré y otros nombres de científicos que también fueron asignados a varios cráteres.

Garavito también se interesó en problemas de álgebra y geometría. Por ejemplo, publicó una demostración original del Teorema Fundamental del Álgebra y de varias propiedades de geometría no euclidiana, entre las cuales está una demostración … del Quinto Postulado de Euclides. Evidentemente, una demostración equivocada, pues sabemos que tal axioma es independiente de los otros, aunque muchas personas se empeñaron en demostrar lo contrario a lo largo de la historia. Y sucede que Garavito tuvo una relación complicada con las geometrías no euclidianas, la que podríamos resumir diciendo que simplemente no las aceptaba, no le hacían sentido como modelo de la geometría del universo real. Comprendía bien y dominaba los resultados referentes a propiedades geométricas de la esfera y de las geometrías hiperbólicas (de hecho, publicó varios artículos en tales temas, más allá de sus intentos por probar el Quinto Postulado). Pero todo parece indicar que, para Garavito, la euclidiana era la geometría del universo.

¿Qué es la geometría no euclidiana? Como su nombre lo indica, es la teoría que se sigue cuando nos salimos de las reglas establecidas por Euclides, el conocido geómetra de la Grecia clásica. No se trata de que Euclides se haya equivocado o que queramos corregirlo. Euclides realizó un compendio de lo que se sabía de Geometría, con la característica que lo escribió como un sistema lógico completo: primero los axiomas, que son algo así como las reglas básicas del juego, establecidas como verdades absolutas, de los cuales se desprenden los teoremas, las propiedades de las figuras y toda la teoría. Uno de esos axiomas causaba especial atención: el Quinto Postulado, que afirma que siempre es posible trazar paralelas a una recta dada, exactamente una paralela para cada punto exterior a la recta. Sucede que algunas personas creían que tal propiedad se podría deducir de los demás axiomas, quizá por considerarla tan natural y evidente. Eso habría vuelto el Quinto Postulado como innecesario, se habría convertido en un teorema. Podemos pensar que Euclides tuvo bastante intuición al incluirlo como postulado, sobre todo por todo lo que ocurrió durante los siglos siguientes.

Con el tiempo, ocurrieron muchos intentos por demostrar el Quinto Postulado, aparecían artículos donde se afirmaba que se tenía una prueba matemática, que con el tiempo era descubierto que tenía un error. Se dice fácil, pero es impresionante darse cuenta de que pasaron unos 18 siglos para que a alguien se le ocurriera una jugada genial: no intentar demostrar el axioma, sino negarlo. Es decir, considerar el juego que se obtiene al cambiar esta regla: al fin y al cabo, si éste no es un resultado que depende de los demás axiomas, entonces puede considerarse independiente, y por tanto su negación proporcionará otro sistema lógico con validez. Eso fue lo logrado por Bolyai, Lobachevsky y otros matemáticos del siglo XIX. Fue una jugada genial, pues surgieron teorías matemáticas precisas e interesantes. Básicamente hay dos opciones cuando se niega el Quinto Postulado: que no existe ninguna paralela o que exista más de una. En la segunda opción nos encontramos con lo que se conoce como geometría esférica: los meridianos en la tierra son las rectas, pues realizan la distancia más corta entre dos puntos (es decir, un círculo máximo es la trayectoria que realiza la trayectoria de un avión). Pues bien, dos meridianos siempre se intersectan (en dos puntos opuestos) y por tanto, en la geometría esférica no hay paralelas. Por otra parte, si asumimos que hay más de una paralela, se llega a lo que se conoce como geometría hiperbólica, la que, para sorpresa (y rechazo) de muchas personas de ciencia, llegaría a mostrarse como un modelo del universo.

Regresando a Garavito, todo indica que comprendía las geometrías no euclidianas, pero no las consideraba sino meros malabarismos de las matemáticas puras (citando a Alvárez Lleras, su principal biógrafo). Artificios alejados de la sólida estructura edificada por Euclides y en la cual se basa la física de Newton y de Laplace, la verdad absoluta e inmutable del universo real que habitamos. Hay evidencia que indica que esta postura pudo haber sido motivada por la fuerte influencia del positivismo en el espacio y tiempo que habitaba Garavito. Lo que está claro es que, ya para entonces, se conocían contradicciones entre observaciones astronómicas y la teoría clásica, como el célebre experimento de Michelson y Morley, que hoy sabemos es explicado por la teoría de la relatividad, que justamente establece que el espacio-tiempo de nuestro universo se comprende nítidamente a través de los lentes de la geometría no-euclidiana, pues la gravedad ocasiona una curvatura que los dominios de Euclides simplemente no permiten. Pero, para muchas personas, no era claro si tales discrepancias se debían a errores de cálculo o a algo más profundo.

En su momento, la teoría de la relatividad tuvo oposición en el medio científico. No es difícil imaginarlo, dado el cambio de paradigma que traía consigo. Probablemente Garavito, como muchos otros, consideraba la teoría desarrollada por Newton como la culminación del poder de las matemáticas para modelar el universo: Como ya mencionamos, por medio de la teoría de la gravitación y usando el cálculo infinitesimal es posible calcular el movimiento de los cuerpos celestes. Las discrepancias con lo observado eran producto de los factores no tenidos en cuenta o de las aproximaciones particulares usadas en cada cálculo. Todo era cuestión de mejorar los métodos, alcanzar mejores aproximaciones, como él mismo hizo respecto a los cálculos de Brown-Hill, y listo. No había más que matematizar los fenómenos por estudiar. Como ya lo dijimos, es la influencia del positivismo, corriente filosófica que otorga completa confianza en los fenómenos observados, los cuales tienen un carácter positivo, y elimina posibles explicaciones alternativas. Se tiende siempre a la búsqueda de leyes universales que funcionen en todo contexto, y los detalles son menospreciados. Para Garavito, las discrepancias en las observaciones astronómicas eran de una naturaleza distinta a las verdades establecidas por Newton.

Por supuesto, no tiene sentido juzgar a Garavito por su postura en un contexto particular de hace más de un siglo. Más allá de las influencias filosóficas que hayan existido, consideremos que la mecánica newtoniana es efectivamente una elegante y poderosa caja de herramientas para comprender el universo, que ya para ese tiempo mostraba falencias pero que podía ser mejorada, pulida constantemente por los trabajadores de la ciencia como Garavito, quien ciertamente se dedicó a ello durante toda su vida. Es comprensible que existiera resistencia a abandonar el mundo clásico para dar ese salto incierto que la relatividad demandaba. Garavito falleció con sólo 55 años, al parecer por complicaciones ocasionadas por una tuberculosis. No sabemos qué hubiera pasado si hubiera vivido algunas décadas más, si la Luna lo habría continuado inspirando, quizá, para cambiar de opinión. Pero muy probablemente hubiera continuado trabajando con la constante y absoluta pasión con la que siempre lo hizo.

Referencias

  1. Los ingeniero-matemáticos colombianos del siglo XIX y comienzos del XX. Las tesis para ser Profesor en Ciencias Matemáticas. Facultad de Matemáticas e Ingeniería 1891-1903. Clara Helena Sánches. Universidad Nacional de Colombia. Facultad de Ciencias, Bogotá. ISBN: 978-958-701-843- 1. 2007.
  2. ¿Por qué Garavito?. Charla de Bernardo Mayorga, The 1st Colombia-ICRANet Julio Garavito Armero Meeting, Bucaramanga, 2015. Bogotá, Colombia.
  3. Fórmulas definitivas para el cálculo del movimiento de la luna por el método de Hill-Brown y con la notación usada por Henri Poincaré en el Tomo III de su curso de Mecánica Celeste. Julio Garavito Armero. Rev. Acad. Colomb. Cienc. Ex. Fis. Nat. 1945, 6 (24):560-570. http://dx.doi.org/10.18257/raccefyn.568

  4. Garavito Armero, J. (2017). Fórmulas definitivas para el cálculo del movimiento de la luna por el método de Hill-Brown y con la notación usada por Henri Poincaré en el Tomo III de su curso de Mecánica Celeste. Rev. Acad. Colomb. Cienc. Ex. Fis. Nat.41(Suplemento), 80-91. https://doi.org/10.18257/raccefyn.568

  5. Wilson, Curtis. The Hill-Brown theory of the moon’s motion.
    Its coming-to-be and short-lived ascendancy (1877–1984). With an appendix of undated pages from a file of George William Hill. Sources and Studies in the History of Mathematics and Physical Sciences. Springer, New York, 2010.

  6. Jacques Féjoz. The N-body problem. Celestial Mechanics (ed. Alessandra Celletti). EOLSS publishers, Oxford. 2015. https://www.ceremade.dauphine.fr/~fejoz/Articles/Fejoz_2014_nbp.pdf

  7. Richard Montgomery. The Three-Body Problem. ScientificAmerican. August 2019.

  8. Editorial, Rev. Acad. Colomb. Cienc. Ex. Fis. Nat. 44(170): 9-13, enero-marzo de 2020.

  9. Sobre las geometrías no euclidianas: Notas históricas y bibliográficas. Francisco José Duarte Isava. Rev. Acad. Colomb. Cienc. Ex. Fis. Nat. 1946, 7 (25-26): 63-81.

  10. El positivismo en la física moderna y la evolución de la ciencia. Jorge Álvarez Lleras. Conferencia del curso de extensión universitaria, Universidad de Bogotá, enero 1937.

  11. Gabriel Poveda Ramos. Historia de las matemáticas en Colombia. Ediciones UNAULA 2012.

Sobre el autor: Alberto Mercado Saucedo es profesor de matemáticas en la Universidad Técnica Federico Santa María (Valparaíso, Chile)

El artículo Julio Garavito, con la mirada en la Luna se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una mirada topológica al conjunto de Cantor
  2. Otra mirada al planeta: arte y geología
  3. La pandemia desde una mirada infantil
Categorías: Zientzia

Microorganismos, sin ellos, usted no estaría leyendo este artículo

Dom, 2021/09/19 - 11:59

Ignacio López-Goñi y Víctor Jiménez Cid

Placa de Petri con bacterias, levadura y moho.
Shutterstock / luchschenF

 

Cada 17 de septiembre se celebra el Día Internacional de los Microorganismos. Dicha celebración parece contradictoria en medio de una pandemia, como si algo bueno pudiera salir de estos seres vivos. Los gérmenes nos causan enfermedades e incluso la muerte, pero no permitamos que el árbol no nos deje ver el bosque: la inmensa mayoría de los microorganismos son buena gente. Es más, son necesarios para nuestra supervivencia y la todos los ecosistemas del planeta, así que se merecen que celebremos su día.

Una de las 190 cartas que el holandés Anton Van Leeuwenhoek escribió a la Royal Society entre los años 1673 y 1723.
Wikimedia Commons / WikiProject Royal Society / Mike Peel

Pero, ¿por qué el 17 de septiembre?

Probablemente el 17 de septiembre de 1683 amaneció frío y lluvioso en la pequeña ciudad holandesa de Delft, famosa por sus canales. Anton van Leeuwenhoek, comerciante de telas primero y luego empleado municipal, sin formación científica alguna, decidió ese día enviar una carta que cambiaría el curso de la ciencia. En aquella misiva, dirigida a la Royal Society de Londres, describía por primera vez los microorganismos, formas de vida microscópicas aparentemente simples que él denominó “animálculos”.

Anton van Leeuwenhoek.
Wikimedia Commons, CC BY

Leeuwenhoek era aficionado a construir pequeñas lupas que los comerciantes empleaban para analizar la calidad de los tejidos. Pulía sus propias lentes biconvexas que fijaba entre dos hojas de latón y sostenía muy cerca del ojo. Las muestras se colocaban sobre una especie de alfiler, que se podía acercar o alejar de la lente para enfocar mediante unos tornillos. Tenía tal habilidad para pulir lentes que sus lupas llegaban a alcanzar más de 250 aumentos y un poder de resolución (capacidad para diferenciar entre dos puntos muy próximos entre sí) de 1,5 micras. Esto alcanza casi la resolución de un moderno microscopio óptico. Fue, por tanto, la primera persona que logró observar bacterias y otros microorganismos.

Réplica de uno de los ‘microscopios’ de Leeuwenhoek.
Wikimedia Commons, CC BY

En realidad, Leeuwenhoek no inventó el microscopio. Probablemente fue otro holandés, Zacharias Janssen (1588-1638), quien construyó el primero, compuesto de dos lentes. Este consistía en un simple tubo de unos 25 cm de longitud y 9 cm de ancho con una lente convexa en cada extremo.

El inglés Robert Hooke (1635-1703), contemporáneo de Leeuwenhoek, publicó en 1665 el libro Micrographia, donde describía las observaciones que había llevado a cabo con un microscopio similar al de Janssen diseñado por él mismo. Este libro contiene por primera vez la palabra “célula”. Hooke las descubrió observando en su microscopio una lámina de corcho, dándose cuenta de que estaba formada por pequeñas cavidades poliédricas que recordaban a las celdillas de un panal.

Sin embargo, aquellos microscopios compuestos eran solo una lupa capaz de conseguir unos pocos aumentos. Ni Janssen ni Hooke fueron capaces de observar lo que poco después describiría Leeuwenhoek usando una sola lente.

El mundo de los microorganismos estuvo oculto para la ciencia hasta que Leeuwenhoek decidió enfocar con su microscopio más allá de los tejidos y telas de su comercio.

Espermatozoides de perro y conejo dibujados por Anton van Leeuwenhoek en 1678.
Wikimedia Commons

Leeuwenhoek fue el primero en ver los glóbulos rojos y los espermatozoides. Sus dibujos de bacterias publicados en 1684 son de una excelente calidad y nos permiten reconocer varios tipos de bacterias frecuentes y sus agrupaciones: bacilos, cocos, etc.

Fue muy celoso con sus microscopios. No compartió con nadie su forma de pulir o tallar las lentes y no dejó ninguna indicación sobre sus métodos de fabricación. Destruyó la mayoría de sus creaciones, de las que actualmente solo se conserva una docena. Uno de ellos está expuesto hasta el 8 de diciembre en el Museo Nacional de Ciencias Naturales de Madrid, con motivo de la exposición “Explorando más allá de lo visible” que organiza la Sociedad Española de Microbiología con motivo de su 75 aniversario.

Los primeros habitantes del planeta

La ciencia tardó casi doscientos años en volver a desarrollar una técnica equivalente a la de Leeuwenhoek. Sus observaciones demostraron tres características del mundo microbiano: que está integrado por seres muy pequeños, que están en todas partes y que son muy diversos.

Los microorganismos han tenido y tienen un papel esencial en nuestros ecosistemas. Se estima que hace unos 3 800 millones de años surgió la vida en la Tierra. Desde entonces, hasta la aparición de los primeros seres vivos pluricelulares hace unos 900 millones de años, el planeta solo ha estado habitado por seres microscópicos. Bacterias, arqueas, virus y microorganismos más complejos pero unicelulares.

Esto supone que, durante unos 2,9 millones de años, han sido los únicos habitantes del planeta. Nos han precedido y muy probablemente seguirán aquí cuando nuestra especie desaparezca.

Han sido responsables de grandes cambios a nivel planetario: hasta la aparición de las cianobacterias (un tipo de microorganismos que llevan a cabo una fotosíntesis que genera oxígeno) hace unos 2,8 millones de años, la Tierra era un ambiente anaerobio. El oxígeno atmosférico es un invento de los microorganismos. Por tanto, no solo la vida en la Tierra ha sido y será fundamentalmente microbiana, sino que los seres más complejos, plantas y animales hemos evolucionado a partir de ancestros microbianos en una biosfera modificada y condicionada por su actividad.

Halobacterium salinarum.
Wikimedia Commons, CC BY

Cuando hablamos de conservación de la biodiversidad en el planeta, no debemos olvidar que el grueso de la biodiversidad en la Tierra es invisible. Estas formas de vida diminutas han llegado a colonizar prácticamente todos los ecosistemas terrestres y son capaces de sobrevivir a las condiciones más extremas. Incluso donde a primera vista la vida es imposible: Geogemma barossi es capaz de sobrevivir a 121 ⁰C en chimeneas hidrotermales en las profundidades marinas. La bacteria Psychromonas ingrahamii se aísla de ambientes polares y crece a temperaturas de -12 ⁰C. Picrophilus oshimae fue aislada de fumarolas volcánicas a un pH ácido de 0,7. Halobacterium salinarum se aísla por ejemplo del Mar Muerto a concentraciones de sal saturantes, incompatibles con otras formas de vida.

¡Están por todas partes! Se han aislado hongos microscópicos y bacterias en capas altas de la atmósfera, a más de 15 km de altura. Se encuentran en las profundidades marinas a más de 10 000 metros de profundidad e incluso a varios cientos de metros bajo la superficie terrestre.

El 90 % de la biomasa marina es microbiana y son responsables de la mitad del CO₂ fijado y de la mitad del O₂ producido. Por eso, también los microorganismos pueden influir en el cambio climático y viceversa: cambios de temperatura y humedad pueden alterar la biología de estos seres vivos y, a su vez, eso puede cambiar las condiciones del hábitat.

El suelo que pisamos, sin ir más lejos, es uno de los ecosistemas más complejos. Se calcula que un gramo de suelo puede contener más de 10 000 millones de microorganismos, más que seres humanos tiene el planeta. Son responsables de completar todos los ciclos biogeoquímicos de la materia. Por ejemplo, realizan la fijación del nitrógeno atmosférico (en simbiosis con las leguminosas o de vida libre en el suelo) y lo transforman en amonio, nitrito y nitrato. Sin microorganismos no existiría el ciclo del nitrógeno, esencial para la vida tal y como la conocemos.

La extinción de bacterias como Nitrobacter, que intervienen en el ciclo del nitrógeno, supondría el colapso inmediato de la vida.
Wikimedia Commons / William Hickey, CC BY-SA

Aunque suene drástico, es muy probable que la extinción del pingüino emperador (aunque sea una pérdida de valor incalculable) no suponga el colapso del planeta, pero la extinción de bacterias como Nitrosomonas o Nitrobacter, que intervienen en el ciclo del nitrógeno, supondría el colapso inmediato de la vida. En esencia, sin microorganismos la vida macroscópica que apreciamos a simple vista, nuestra propia vida, no sería posible.

Medio humanos, medio microbios

Hoy en día las nuevas técnicas de metagenómica (secuenciación masiva), que superan los métodos tradicionales del cultivo, nos permiten comprobar la enorme biodiversidad microbiana que se oculta en la naturaleza.

Los científicos conocemos con cierto detalle la biología de mucho menos del 1 % de los microorganismos que realmente existen. El hábitat de muchos de ellos es la superficie o el interior de otros seres vivos. Es lo que conocemos como la microbiota de las plantas, de los animales o del ser humano. Nosotros mismos somos mitad humanos, mitad microorganismos: por cada una de nuestras células humanas, tenemos al menos una célula microbiana. Están en nuestra piel y en todas nuestras mucosas: en la boca, en los intestinos, en la vagina, en las vías respiratorias, etc.

Somos un conjunto ambulante de ecosistemas microbianos en los que se producen multitud de interacciones entre nuestras células y los microorganismos. El equilibrio de estos ecosistemas es esencial para nuestra salud. Estos diminutos seres evitan la colonización de nuestra piel y mucosas por otros microorganismos patógenos. Estos forasteros deben recurrir a complejos mecanismos de virulencia para imponerse en un entorno bien defendido por los colonos.

Los microorganismos que forman nuestra microbiota ayudan a mantener la barrera intestinal y contribuyen a la digestión degradando sales biliares, proteínas y polisacáridos. También modulan y entrenan a nuestro sistema inmunitario, regulan los procesos inflamatorios, sintetizan vitaminas y otros compuestos necesarios para nuestra salud, degradan drogas y toxinas o producen neurotransmisores y hormonas.

Cuando ese equilibrio entre nuestros microbios y nuestro organismo se altera (disbiosis) se pueden producir patologías.

La caries dental y la periodontitis son ejemplos directos de “problemas diplomáticos” con nuestra microbiota, pero recientemente se ha descrito la relación de múltiples patologías con una alteración de nuestra microbiota: desde la obesidad, diabetes, alergias, asma, enfermedades inflamatorias, hasta la depresión, el alzhéimer e incluso el autismo.

Así, la medicina del siglo XXI cuenta con un nuevo sistema en el cuerpo humano esencial para la salud: la microbiota. Del mismo modo, cuando estudiamos la función del genoma humano, no debemos pasar por alto que el sistema se completa con el microbioma, el conjunto de genes codificados en los genomas de los cientos de especies microbianas que forman parte de nosotros. La ecología microbiana entra en la ecuación de nuestro bienestar y la biomedicina se enfrenta a nuevos retos.

Levadura, yogur, queso y PCRs

Si a alguien le parecen aún pocos los motivos, añadiremos que gracias a los microorganismos nuestra vida es más fácil e incluso más agradable. Saccharomyces, la levadura que se utiliza ancestralmente en fermentaciones alimentarias, es un hongo unicelular gracias al cual tenemos en la mesa pan, cerveza y vino.

Lácteos como el yogur y el queso son fruto de la fermentación bacteriana. Alimentos y bebidas fermentadas, antibióticos, enzimas, vitaminas, hormonas, aminoácidos (aditivos, edulcorantes, antioxidantes…) son productos del metabolismo de los microorganismos. La biotecnología cuenta también con ellos para la producción de energía verde, el control de plagas, el bienestar animal y la descontaminación.

La técnica de la PCR es posible gracias a una enzima termoestable que se obtiene de Thermus aquaticus.
Wikimedia Commons / Diane Montpetit (Food Research and Development Centre, Agriculture and Agri-Food Canada)

La famosa técnica de la PCR que ha sido un elemento esencial durante la pandemia es posible gracias a una enzima termoestable que se obtiene de Thermus aquaticus,una de esas bacterias capaces de sobrevivir a altísimas temperaturas.

Hoy somos capaces de modificar microorganismos en el laboratorio para que fabriquen todo tipo de medicamentos o productos esenciales en biomedicina y biotecnología. Podemos emplearlos para desarrollar plantas transgénicas capaces de resistir a la sequía, para producir biocombustibles, para degradar compuestos contaminantes, e incluso emplearlos como vacunas para controlar una pandemia.

En aquella famosa carta del 17 de septiembre de 1683 se realizó una descripción exquisita de la primera observación de bacterias vivas presentes en la placa dental, acompañada por dibujos de los microorganismos observados y sus movimientos. Ese día comenzó una nueva era para la ciencia que tardaría dos siglos, ya en tiempos de Louis Pasteur y Robert Koch, en desarrollarse como disciplina científica, y nos permite conocer y estudiar el mundo de los microorganismos, que tanta influencia tiene en nuestro planeta. Vivimos en un mundo microbiano.

Celebre con nosotros el Día Internacional de los Microorganismos.The Conversation

Sobre los autores: Ignacio López-Goñi es Catedrático de Microbiología de la Universidad de Navarra y Víctor Jiménez Cid es Catedrático de Microbiología de la Universidad Complutense de Madrid

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Microorganismos, sin ellos, usted no estaría leyendo este artículo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Natacha Aguilar: “Necesitamos que el mar esté en equilibrio para que el planeta también lo esté”
  2. La extinción de la megafauna chilena dejó a este árbol sin ayuda para dispersar sus semillas
  3. Identificadas 472 posibles dianas inmunes en la interacción planta-microorganismos
Categorías: Zientzia

La ría y el metro

Sáb, 2021/09/18 - 11:59
Fuente: Metro Bilbao

Construir un metro en una ciudad nunca es cosa fácil. Si encima hay que atravesar una ría como la del Nervión por debajo la ingeniería tiene que ser muy creativa. En este vídeo se resume los hitos técnicos de como se construyeron los tramos que atraviesan la ría de Metro Bilbao.

Edición realizada por César Tomé López

El artículo La ría y el metro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Evolución de la flora y fauna en el Abra de Bilbao
  2. La ría de Bilbao como medio de transporte de mineral
  3. Poesía métrica, ¿de metro?
Categorías: Zientzia

La fluorescencia de la clorofila y el estudio de la Tierra como un sistema

Vie, 2021/09/17 - 11:59

¿Cuánto dióxido de carbono atmosférico asimila realmente un bosque por fotosíntesis? ¿Qué variedades de plantas son menos sensibles al cambio climático global? Responder a esas preguntas ahora podría ser posible mediante la observación de la fluorescencia de la clorofila.

Imagen de un antocerote. A la izquierda, como lo ve al natural el ojo humano, con el predominio del color verde característico de la clorofila, cuando está iluminado por la luz del Sol. A la derecha se muestra al mismo organismo de color rojo debido a la emisión de fluorescencia de sus moléculas de clorofila, en este caso iluminado solo con luz ultravioleta semejante a la del Sol (invisible al ojo humano).

La clorofila, el pigmento verde presente en plantas y algas que permite captar la luz del sol, emite una luz roja tenue durante la fotosíntesis. Esa denominada “fluorescencia de la clorofila”, que no vemos en condiciones normales debido al reflejo de otros colores de la luz incidente, especialmente el verde, transmite información sobre la tasa instantánea de fotosíntesis, lo que proporciona una «ventana óptica» que rastrea el estado funcional y de salud de la planta. Una reciente investigación en el que ha participado José Ignacio García Plazaola, del grupo de investigación Ekofisko del Departamento de Biología Vegetal y Ecología de la UPV/EHU, describe la conexión existente entre esta fluorescencia y el estudio de la Tierra como un sistema.

Aunque se conocen desde hace décadas diferentes métodos de laboratorio y de muestreo en el campo que permiten medir e interpretar la fluorescencia de la clorofila en una hoja o a nivel subcelular, solo recientemente se puede medir la fluorescencia de la clorofila inducida directamente por el sol (SIF), y obtener imágenes en un ecosistema y a escalas regionales.

Las mediciones actuales de SIF se realizan con sensores ópticos montados en torres, drones, aviones e, incluso, satélites. En este sentido la misión FLuorescence EXplorer (FLEX) de la Agencia Espacial Europea lanzará un satélite en 2024 que proporcionará mapas globales de SIF con una resolución de unos pocos cientos de metros.

Esos desarrollos allanan el camino para múltiples aplicaciones científicas y comerciales en ecofisiología vegetal, ecología, biogeoquímica, así como para la agricultura de precisión y silvicultura.

«Estas herramientas abren la puerta a la realización de estudios de fotosíntesis espacial y 3D en el campo, lo que ayudará a resolver cuestiones relacionadas con la dinámica fotosintética de las diferentes partes de una planta o ecosistema en condiciones del mundo real. SIF también se puede aplicar en fenotipado fisiológico y detección pre-visual de estrés, que es una herramienta poderosa para las prácticas de manejo de cultivos y bosques de próxima generación”, explica José Ignacio García Plazaola.

Para cumplir con esos ambiciosos objetivos, se requieren estudios colaborativos multidisciplinarios y a múltiples escalas. La experiencia de la biología vegetal, la teledetección, la agronomía y la silvicultura deben fusionarse para traducir el contenido de información de SIF en aplicaciones innovadoras que aprovechen el conocimiento a través de las escalas molecular, foliar (las hojas) y del dosel (la parte superior de los árboles visible desde arriba).

Referencia:

Albert Porcar-Castell, Zbyněk Malenovský, Troy Magney, Shari Van Wittenberghe, Beatriz Fernández-Marín, Fabienne Maignan, Yongguang Zhang, Kadmiel Maseyk, Jon Atherton, Loren P. Albert, Thomas Matthew Robson, Feng Zhao, Jose-Ignacio Garcia-Plazaola, Ingo Ensminger, Paulina A. Rajewicz, Steffen Grebe, Mikko Tikkanen, James R. Kellner, Janne A. Ihalainen, Uwe Rascher & Barry Logan (2021) Chlorophyll a fluorescence illuminates a path connecting plant molecular biology to Earth-system science Nature Plants doi: 10.1038/s41477-021-00980-4

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La fluorescencia de la clorofila y el estudio de la Tierra como un sistema se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Saturno tiene el sistema de nieblas en capas más extenso observado en el Sistema Solar
  2. Puntos cuánticos encapsulados con fluorescencia de meses
  3. Las lapas como indicador paleoclimático de alta resolución
Categorías: Zientzia

Páginas