Los antiguos radicales libres ahora se llaman ROS y no son tan malos
Alfonso Blázquez Castro

La virtud fue definida como “el punto medio entre dos vicios” hace más de dos mil años, por Aristóteles. Siglos después, Paracelso establecía que no existían venenos, sino concentraciones dañinas de todas las sustancias.
Estas dos reflexiones son perfectamente aplicables al papel del oxígeno en la biología celular, que ha pasado por distintas etapas en relación a su “bondad” o “maldad”. En un primer momento se observó que el oxígeno es imprescindible para sostener la vida tal y como la conocemos. Sin embargo, en la primera mitad del siglo XX se confirmó que el oxígeno daba lugar a una serie de alteraciones dañinas en las células a largo plazo.
Nacía así el concepto de radicales libres o “teoría de los radicales”, que achacaba a estos compuestos derivados del uso oxígeno el origen de muchos procesos negativos para la vida, como el envejecimiento, el cáncer y otras muchas enfermedades.
En los inicios del siglo XXI se ha empezado a entender mejor el papel de estos “radicales”. Los científicos que nos dedicamos a su estudio estamos encontrando “la virtud entre dos vicios” en relación con ellos. Aunque ahora los llamamos, más correctamente, especies reactivas de oxígeno (ROS, por sus siglas en inglés).
¿Qué son las Especies Reactivas de Oxígeno?
Son un conjunto de compuestos químicos que contienen oxígeno en su fórmula y una mayor o menor reactividad química y capacidad de oxidar. Las más conocidas son el superóxido (O2–), el peróxido de hidrógeno (H2O2, a menudo llamada “agua oxigenada”) y el radical hidroxilo (· OH).
Desde hace muchas décadas se sabe que estas ROS son el resultado inevitable de la respiración en las células. Podría decirse que son como el “humo” del tubo de escape del “motor celular”. A lo largo de los años esta contaminación provoca un daño en nuestras células. Las células pueden anular el daño de las ROS usando compuestos que llamamos reductores, que permiten mantener un equilibrio entre el daño y la salud celular.
Pero lo realmente interesante es que ahora sabemos que las células también producen ROS de manera intencionada. En este caso funcionan como “mensajeros” que llevan mensajes de una parte a otra de la célula, o entre distintas células del cuerpo. Por ejemplo, dependiendo del momento del ciclo celular, más cerca o lejos de dividirse, las células muestran niveles internos de ROS distintos.
Históricamente, la fuente principal de ROS han sido las mitocondrias. Estas estructuras producen la mayor parte de la energía de la célula. Actualmente siguen siendo una fuente muy importante de ROS, pero el giro interesante es que sabemos que muchas de esas ROS se producen a propósito en las mitocondrias y no como resultado de la “mala combustión” que mencionábamos antes.
En paralelo, se ha probado que existen mecanismos alternativos, también bajo un fuerte control celular, para producir ROS cuando son necesarias en otras partes de la célula, como la membrana, el retículo endoplasmático o el medio exterior. Estos mecanismos se basan en proteínas cuya función es la producción de ROS.
Al mismo tiempo, las células producen en todo momento esos compuestos reductores que controlan la acción de las ROS. De esta manera, son capaces de regular de manera muy precisa el dónde y el cuánto de los mensajes que usan ROS como señales.
El mecanismo de señalización de las ROS
Al final, lo que parece indiscutible es que los niveles de ROS no deben ser ni muy altos, ya que provocan daños y “oxidan” la célula, ni muy bajos, ya que no podrían actuar como mensajeros.
En el siguiente esquema se plasma de manera sencilla esta idea. Existe un rango de niveles de ROS que son óptimos para su función celular. Demasiado altos o demasiado bajos, y se echa a perder su utilidad. Existe un punto intermedio adecuado entre dos extremos indeseables.

Pero, ¿cómo pueden las ROS actuar de mensajeros dada su reactividad? La respuesta se encuentra en las proteínas, las máquinas microscópicas que llevan a cabo el metabolismo celular. Algunas proteínas tienen partes que son especialmente sensibles a la oxidación de las ROS. En las concentraciones adecuadas, estas zonas se oxidan y cambian la estructura de la proteína.
Igual que ocurre con un interruptor, la proteína se puede “encender” o “apagar”, dependiendo de su función. Tras un cierto tiempo, la zona oxidada de la proteína se vuelve a reducir y la proteína vuelve a su estado inicial.
Esta es la base del control en las funciones celulares por parte de las ROS: niveles adecuados de ROS y de compuestos reductores permiten que las proteínas se “enciendan” o “apaguen” de manera correcta. Ahora bien, si hay un exceso de ROS, las proteínas se oxidan en demasiados sitios y estos cambios son permanentes: ya no se puede volver al estado inicial y la proteína queda dañada e inservible. Esta es la razón por la cual demasiadas ROS alteran de manera tóxica el metabolismo celular y terminan provocando multitud de trastornos y enfermedades.

Con este mejor conocimiento de la acción de las ROS se están consiguiendo importantes progresos en el tratamiento de diversas enfermedades. Sabemos, por ejemplo, que se producen demasiadas ROS en el corazón durante los infartos de miocardio, o en el cerebro tras un ictus.
Una forma muy prometedora de abordar estos problemas es disminuir de manera eficaz la producción de ROS en el paciente con nuevos fármacos. Esta es una línea de investigación muy importante en la actualidad.
Y, así, buscando el punto medio entre dos extremos, encontramos no sólo la virtud sino también la salud.
Sobre el autor: Alfonso Blázquez Castro es profesor ayudante doctor en genética en la Universidad Autónoma de Madrid
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Los antiguos radicales libres ahora se llaman ROS y no son tan malos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La ciencia de la cosmética antioxidante contra los radicales libres
- Radicales libres, el libro
- Cuando las algas rojas no pueden gestionar los radicales libres
6.174, un número seductor
Mientras escribía mi último libro Números primos, amigos y demás familia (Catarata, 2021), que estará en las librerías en abril, he descubierto números con propiedades muy curiosas e interesantes, entre ellos, la constante de Kaprekar.

El número 6.174 es aparentemente un número de lo más normal, un número de esos que no llamaría nuestra atención, sin embargo, posee una propiedad matemática que parece pura magia. En 1949 el matemático recreativo indio Dattatreya Ramchandra Kaprekar (1905–1986) publicó el artículo Another Solitaire Game, en la revista Scripta Mathematica, en el que describía las curiosas propiedades que había descubierto sobre el 6.174, aunque fue la publicación en la columna Mathematical Games de Martin Gardner en la revista Scientific American, lo que le daría un mayor reconocimiento.
Consideremos un número de cuatro dígitos cualquiera, tal que estos no sean todos iguales (por ejemplo, 6.282), con sus dígitos escribimos los números mayor y menor que se pueden representar, es decir, 8.622 y 2.268, y los restamos
8.622 – 2.268 = 6.354.
Ahora repetimos este proceso,
6.543 – 3.456 = 3.087.
Seguimos con el mismo proceso,
8.730 – 0378 = 8.352.
Este parece un proceso artificial en el que se irán generando números sin parar. Sin embargo, en el siguiente paso se alcanza el número 6.174, ya que
8.532 – 2.358 = 6.174.
Y nuestro número 6.174 es un número particular respecto a este proceso ya que este se estaciona y siempre queda 6.174.
7.641 – 1.467 = 6.174.
Al proceso descrito se le llama algoritmo de Kaprekar y lo sorprendente es que siempre –salvo para números con los cuatro dígitos iguales– se llega a la denominada constante de Kaprekar, el número 6.174. Veamos otro ejemplo. Si empezamos con el número de cuatro dígitos –recordemos que no todos iguales– 3.631, la sucesión de números que nos da el algoritmo de Kaprekar es
6.331 – 1.336 = 4.995;
9.954 – 4.599 = 5.355;
5.553 – 3.555 = 1.998;
9.981 – 1.899 = 8.082;
8.820 – 0288 = 8.532;
8.532 – 2.358 = 6.174;
donde se estaciona el proceso, ya que hemos llegado a la constante de Kaprekar. Mientras que en el primer ejemplo habíamos necesitado de cuatro pasos, en este han sido necesarios seis pasos.
Si todos los dígitos del número son iguales, como 7.777, entonces el algoritmo de Kaprekar se estaciona en el primer paso, llegando a cero, ya que el mayor y el menor número que se puede formar con esos dígitos es el mismo 7.777, y entonces 7.777 – 7.777 = 0.

Por lo anteriormente visto, sabemos que el número 6.174 es un punto fijo del algoritmo de Kaprekar, es decir, al aplicarlo a él mismo, nos vuelve a dar ese número: 7.641 – 1.467 = 6.174. Una de las cuestiones que nos podríamos haber planteado inicialmente es el cálculo de todos los puntos fijos que existen para ese algoritmo. Veamos, a continuación, una idea de la prueba de que realmente la constante de Kaprekar es el único punto fijo posible.
Sea un número de cuatro dígitos, no todos ellos iguales, entonces podemos expresar al mayor número que se puede representar con sus cuatro dígitos como abcd, donde 0 ≤ a ≤ b ≤ c ≤ d ≤ 9, y al menor como dcba, luego la resta de ambos será un número ABCD tal que
de donde se obtienen las siguientes relaciones:
D = 10 + d − a (a > d)
C = 10 + c − 1 − b = 9 + c − b (b > c − 1)
B = b − 1 − c (b > c)
A = a − d.
Como buscamos un punto fijo, sabemos que {A, B, C, D} = {a, b, c, d}, salvo el orden. Como existen 4! = 24 permutaciones (ordenes) posibles de {a, b, c, d}, si probamos todas ellas veremos que el anterior sistema con cuatro ecuaciones y cuatro incógnitas (a, b, c, d) tiene solución única solo cuando A = b, B = d, C = a, D = c. Además, en ese caso la solución única es precisamente a = 7, b = 6, c = 4 y d = 1.

La siguiente cuestión matemática sería demostrar esta propiedad mágica, es decir, que para cualquier número de cuatro dígitos, tal que estos no sean todos iguales, el algoritmo de Kaprekar llega siempre a la contante de Kaprekar, 6.174. Más aún, se puede probar que el número de pasos para llegar a la constante es como mucho siete. Para quien esté interesado en la demostración de esta propiedad puede consultarla en la literatura que existe sobre esta cuestión, por ejemplo, en el artículo The weirdness of number 6174, de Yutaka Nishiyama.
En los ejemplos que se han mostrado en esta entrada del Cuaderno de Cultura Científica, hemos visto que para el número 6.282 se necesitan 4 iteraciones del algoritmo de Kaprekar para llegar a la constante 6.174 y para el número 3.631 se necesitan 6 iteraciones. En el siguiente diagrama vemos la cantidad de números de cuatro dígitos, no todos ellos iguales, que necesitan una cantidad dada de iteraciones para alcanzar el 6.174.
Esta interesante propiedad descubierta por el matemático recreativo indio Dattatreya Ramchandra Kaprekar para números de cuatro dígitos la podríamos pensar para números con otras cantidades de dígitos.
Para números con dos dígitos veamos, para empezar, un ejemplo. Si tomamos el número 53 y realizamos el algoritmo de Kaprekar, la sucesión de números que aparecen es 18, 63, 27, 45, 09, 81 y se repetiría el ciclo 63, 27, 45, 09, 81 todo el tiempo. De hecho, esta situación es la general, para cualquier número de dos dígitos, tal que estos no sean todos iguales, el algoritmo de Kaprekar llega siempre al ciclo 63, 27, 45, 09, 81. Por lo tanto, no existe una contante de Kaprekar de dos dígitos.
Si tomamos un número de tres dígitos, como 184, entonces el algoritmo de Kaprekar da lugar a la sucesión 693, 594 y 495, siendo este último un punto fijo en el que se estaciona la sucesión. De hecho, para números de tres dígitos el número 495 es una constante de Kaprekar, la única para esta cantidad de dígitos.
No existe una constante de Kaprepkar para números de cinco dígitos. Para estos lo que ocurre es que el algoritmo de Kaprekar terminará en alguno de los ciclos siguientes:
Ciclo 1: 53.955, 59.994, 53.955;
Ciclo 2: 61.974, 82.962, 75.933, 63.954, 61.974;
Ciclo 3: 62.964, 71.973, 83.952, 74.943, 62.964.
Mientras que para seis dígitos tenemos una mezcla de las situaciones anteriores. Existen dos constantes de Kaprekar (549.945 y 631.764), es decir, puntos fijos del algoritmo de Kaprekar, a las que convergerán muchas de las sucesiones de números construidas mediante este algoritmo, y un ciclo (420.876, 851.742, 750.843, 840.852, 860.832, 862.632, 642.654, 420.876).
En la Enciclopedia on-line de sucesiones de números enteros (oeis.org [https://oeis.org/]), de N. J. A. Sloane, podéis encontrar la sucesión de constantes de Kaprekar. Es la sucesión etiquetada como A099009, cuyos primeros elementos son:
495, 6.174, 549.945, 631.764, 63.317.664, 97.508.421, 554.999.445, 864.197.532, 6.333.176.664, 9.753.086.421, 9.975.084.201, 86.431.976.532, 555.499.994.445, 633.331.766.664, 975.330.866.421, 997.530.864.201, 999.750.842.001, 8.643.319.766.532, 63.333.317.666.664, etc.

Bibliografía
1.- Raúl Ibáñez, Números primos, amigos y demás familia, Catarata, 2021.
2.- Martin Gardner, Los números mágicos del doctor Matrix, Gedisa, 2019.
3.- David Wells, The Penguin Dictionary of Curious and Interesting Numbers, Penguin Books, 1986.
4.- Yutaka Nishiyama, The weirdness of number 6174, International Journal of Pure and Applied Mathematics, vol. 80, no. 3, pp. 363 – 373, 2012.
5.- Wikipedia: Kaprekar routine
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo 6.174, un número seductor se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Control de la reacción nuclear en cadena (2): moderadores

Los átomos de hidrógeno del agua son muy efectivos para ralentizar los neutrones por dos motivos: primero porque la masa de un núcleo de hidrógeno (un solo protón) es casi la misma que la de un neutrón y, segundo, porque la cantidad de átomos de hidrógeno por unidad de volumen es alta. Un neutrón, por tanto, puede perder una gran fracción de su energía en una colisión con un núcleo de hidrógeno. Solo se necesitan unas 20 colisiones, en promedio, para ralentizar el neutrón rápido a energías por debajo de 1 eV. Sin embargo, los neutrones también pueden ser capturados por el núcleo de hidrógeno en la colisión, según la reacción
La probabilidad de que ocurra esta reacción en lugar de una colisión elástica es lo suficientemente alta como para que no se pueda conseguir una reacción en cadena con uranio natural y agua ordinaria. Pero la absorción de un neutrón por un núcleo de deuterio, el isótopo del hidrógeno con un protón y un neutrón (hidrógeno-2), que se encuentra en la llamada agua pesada, tiene una probabilidad extremadamente pequeña.
Los neutrones no pierden tanta energía por colisión con los núcleos hidrógeno-2, pero esta desventaja se ve compensada por la tasa de absorción mucho más baja. Se puede lograr fácilmente una reacción en cadena con uranio natural y agua pesada. Se han construido reactores, con uranio natural como combustible y agua pesada como moderador, en Estados Unidos, Canadá, Francia, Suecia, Noruega y otros países, y científicos alemanes intentaron construirlos durante la Segunda Guerra Mundial [1].
El contraste entre las propiedades nucleares del hidrógeno hidrógeno-1 y el deuterio tiene importantes implicaciones para el desarrollo de los reactores nucleares. El agua pesada es cara de producir, pero cuando se utiliza con uranio natural (en su mayoría uranio-238), se puede lograr, como hemos mencionado, una reacción en cadena de manera eficiente. Aunque el uranio-238 normalmente absorbe neutrones en lugar de fisionarse, el agua pesada consigue ralentizar los neutrones por debajo de la energía a la que serían capturados por los núcleos de uranio-238. Un neutrón lento simplemente rebotará en los núcleos uranio-238 que encuentre hasta que finalmente sea absorbido por un mucho menos abundante núcleo de uranio-235, lo que provocará la fisión de este.
El agua corriente se puede utilizar como moderador en un reactor de uranio si se utiliza uranio enriquecido en el isótopo uranio-235 en lugar de uranio natural. En los Estados Unidos se han construido muchos reactores “alimentados” con uranio enriquecido y moderados con agua corriente. Estos reactores se denominan reactores de agua ligera. De hecho, este tipo de reactor general es el diseño preferido para la producción comercial de energía (electricidad), ya que es menos costoso de construir y menos probable que genere como subproductos materiales fisionables que podrían usarse para armas nucleares.
El carbono en forma de grafito ultrapuro se ha utilizado como moderador en muchos reactores, incluidos los primeros. Al ser más masivos sus átomos, no es tan bueno para ralentizar los neutrones rápidos como el agua ligera y el agua pesada; se necesitan aproximadamente 120 colisiones con átomos de carbono para ralentizar un neutrón rápido con una energía inicial de 2 MeV a la energía deseada de aproximadamente 0.025 eV; en agua pesada sólo se necesitan unas 25 colisiones. Pero aunque el carbono en forma de grafito puro no es el mejor moderador y absorbe algunos neutrones, sí permite que ocurra una reacción en cadena cuando se colocan trozos de uranio natural (barras cilíndricas que contienen gránulos de uranio, por ejemplo) en una gran masa de grafito. Determinar cómo se podría hacer esto realmente fue uno de los principales problemas ingenieriles que tuvo que resolverse antes de que la primera reacción en cadena del mundo se lograra en diciembre de 1942 por un equipo que lideraba Enrico Fermi en la Universidad de Chicago [2]. Muchos reactores moderados por grafito funcionan actualmente en todo el mundo.
El control de un reactor nuclear es relativamente sencillo. Para que no se produzca una fisión con demasiada frecuencia, se insertan algunas barras de control en el reactor. Las barras consisten en un material (como cadmio o boro) capaz de absorber los neutrones lentos, reduciendo así el número de neutrones en el reactor. La eliminación de las barras de control permitirá que aumente la tasa de fisión en el reactor.
Notas:
[1] No podemos dejar de mencionar en este punto la película “Los héroes de Telemark” (Anthony Mann, 1965) que recrea (con muchas licencias artísticas, porque en realidad no se disparó ni un solo tiro) una de las operaciones en la batalla por el agua pesada de la Segunda Guerra Mundial.
[2] Este experimento demostró que una reacción en cadena no era solo una especulación teórica, sino que era algo realizable y controlable en la práctica.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Control de la reacción nuclear en cadena (2): moderadores se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Control de la reacción nuclear en cadena (1): tamaño crítico
- Fisión nuclear (3): más neutrones
- Fisión nuclear (1): los elementos transuránidos
Ramón Picarte, una aproximación a la utopía
Alberto Mercado Saucedo
A mediados del siglo XIX, Ramón Picarte Mujica elaboró tablas de cálculo más precisas que las que se usaban en cualquier parte del mundo. Para publicarlas, viajó a Francia para someter su trabajo a la Academia de Ciencias de París. Regresó a Chile para dedicarse a otra obsesión: aplicar las matemáticas a la búsqueda del bienestar de los trabajadores. Ramón Picarte Mujica, nacido el 9 de junio de 1830, puede considerarse el primer matemático chileno. Esta es su historia.

Enero de 1857 en Valparaíso. Frente a la principal puerta de entrada y salida de Chile, el mar parece infinito, tanto como los sueños, ambiciones o incertidumbre de las personas que comienzan aquí su personal aventura. Además de grandes embarcaciones que cargan y descargan mercancías de todo tipo, hay diplomáticos, traficantes, estudiantes que parten a estudiar a Europa o inmigrantes que llegan al país. El joven Ramón Picarte, de 26 años, está listo a embarcarse; lleva consigo muy poco equipaje y sus escasos ahorros de cien pesos, además de varios cuadernos y carpetas con hojas manuscritas en las que lleva un gran tesoro, su trabajo de los últimos años. Intenta que sea revisado y publicado, para lo cual necesita apoyo que no ha conseguido por ninguna parte. Apenas unas semanas atrás se entrevistaba con el ministro Antonio Varas, de quien recibió una rotunda respuesta negativa. Convencido de sus logros, no le queda opción que emprender una aventura solitaria, tomar un barco a otras latitudes y mostrar su trabajo a quien sí esté dispuesto a apreciarlo.
Cuando su padre falleció, él apenas tenía cinco años. Ramón Picarte y Castro había sido militar independentista, llegó a ser intendente de Valdivia y sus convicciones liberales le significaron enemistarse con superiores y ser dado de baja del ejército en 1830; murió olvidado y en la pobreza. Carmen Mujica quedó a cargo de sus cinco hijos pequeños y no conseguiría un montepío -pensión estatal- sino muchos años después. Ramón ingresó en 1840 al Instituto Nacional, la primera institución educativa del país independiente, fundada en 1813 a partir de casas de estudio de la época colonial con la misión expresa de formar los ciudadanos que dirigieran a la patria. Se convertiría en el más importante centro de educación media del país y llegaría al siglo XXI con el distintivo de liceo emblemático, siendo todavía un colegio sólo para estudiantes varones, con más de cuatro mil inscritos y manteniendo sin duda una particular mitología propia; del Instituto Nacional han egresado cantidad de jóvenes que se convertirían en deportistas, científicos y artistas -entre ellos premios nacionales de ciencias y artes- además de varios presidentes del país.
Ramón había comenzado sus estudios en humanidades, pero al poco andar cambió el derecho por las ciencias, a pesar de que ello significaba un posible futuro menos oneroso. Se graduó como agrimensor, título al que podía optar tras estudios científicos. Tuvo una valiosa influencia de Andrés Antonio Gorbea, ingeniero vasco que había sido contratado por el gobierno chileno para impartir clases en las instituciones recién creadas: fue profesor en el Instituto Nacional, donde se convirtió en mentor de Picarte, y posteriormente sería el primer decano de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile, fundada en 1843 y que, por cierto, sólo algunas décadas después incorporó en su Estatuto Orgánico a la investigación científica como una labor propia, lo que denota lo incipiente de esta actividad en la época. Gorbea conocía bien los textos matemáticos más modernos, tradujo cursos actualizados que se usaban en Francia y los hizo editar para ser usados en Chile. Sin duda que fue una gran influencia para Ramón Picarte.
Después de abordar una nave en Valparaíso, los pocos ahorros que Picarte había podido reunir no le permiten llegar muy lejos y debe quedarse en el puerto de Callao, en Lima, donde trabaja de cualquier cosa para subsistir durante un par de meses. Intenta conseguir algún editor para publicar sus tablas, sin éxito, y sufre un robo que le obliga a rehacer parte de sus tablas. ¿En qué consiste su trabajo? Simplemente, había mejorado las tablas de cálculo más precisas conocidas hasta entonces en todo el mundo. Diversas actividades requerían operaciones precisas de números con muchas cifras, y las computadoras de la época no eran sino tablas de cálculo: libros con tablas y tablas llenas de números, hojas de cálculo similares a las de Excel o de cualquier otro programa informático, pero no en una pantalla sino impresas en enormes volúmenes. Usadas de manera cuidadosa, el usuario podía realizar operaciones complejas apoyándose en varias operaciones sencillas.
Entre las tablas más usadas en la época estaban las de logaritmos del astrónomo francés Jérôme de Lalande, célebre por haber calculado la distancia de la Tierra a la Luna y la trayectoria de Venus, y sobre todo por haber corregido al astrónomo inglés Edmond Halley sobre el nuevo avistamiento del cometa que llevaría su nombre.Lalande predijo que sería visible en 1759, un año después de la fecha anunciada por Halley, tras calcular la perturbación ocasionada por la fuerza de gravedad de los grandes planetas del sistema solar. Lalande acertó y su logro ayudó al asentamiento de la física newtoniana en la ciencia francesa. Para realizar sus cálculos, Lalande se apoyaba en sus tablas de logaritmos, que se convirtieron en un clásico en todos aquellos campos de la técnica que requerían hacer operaciones con números de gran cantidad de cifras. En Chile estas tablas eran el estándar en el siglo XIX y todo mundo las utilizaba. Por supuesto, no eran perfectas, y ellas mismas eran el resultado de mejorar tablas más antiguas, pero ya llevaban un buen tiempo usándose y aún nadie había logrado mejorarlas. Hasta que llegó Ramón Picarte.
Picarte trabajó como profesor de matemáticas en la Escuela Militar hasta 1856. Como agrimensor, no se conformó con aprender a usar las tablas del astrónomo francés Lalande: después de dominar las propiedades matemáticas que las sustentaban, se propuso nada menos que mejorarlas, lo que consiguió después de mucho trabajo. ¿En qué consistía mejorar una tabla? No se trataba de simplemente añadir más resultados de operaciones matemáticas, hasta eventualmente incluir todas las operaciones posibles. Cada tabla tiene sus reglas de uso: una división u otra operación entre números grandes se obtiene como resultado de varias operaciones parciales más sencillas que dependen de los dígitos de los números en cuestión. El usuario debe conocer estas reglas para utilizar la tabla. Mejorar una tabla consistía en programarla de manera más eficiente. Picarte encontró una mejor manera de separar las operaciones en operaciones auxiliares para que el resultado final fuera más preciso, incluso usando una tabla más pequeña. Separó de ingeniosa manera las operaciones necesarias para hacer una división de una cifra, de manera que bastaba operar con cada dígito y luego sumar los resultados. Además, usó propiedades matemáticas para aumentar el número de dígitos conseguidos en la respuesta. Es decir, Picarte mejoró el algoritmo con el que funcionaban las tablas, fue un programador que dominó las matemáticas que sustentaban las tablas y así fue capaz de crear una tabla más poderosa.
Varado en Lima, sin dinero y sin poder publicar su trabajo, Picarte debe reunir lo suficiente para continuar su viaje. Consigue un préstamo de un compatriota, de apellido Prado, por mil pesos, un gran alivio después de tantas negativas recibidas antes de embarcarse en Valparaíso. Puede ser que en la búsqueda infructuosa de ayuda haya influido el hecho que Andrés Gorbea, su mentor, había fallecido poco antes, en 1852. Es de notar también que Antonio Varas, ministro del Interior y de Relaciones Exteriores, en quien Picarte había cifrado sus últimas esperanzas de obtener ayuda, había sido rector del Instituto Nacional durante los años en que Ramón fue estudiante. De hecho, la historia familiar de Antonio Varas es de cierta forma un reflejo de la trayectoria de la familia Picarte Mujica, desde el lado político opuesto: el padre de Varas había sido partidario de la corona española y después de la independencia, los bienes de la familia fueron incautados, y ésta cayó en la pobreza. Antonio Varas (trece años mayor que Picarte) también había estudiado ciencias en el Instituto Nacional, era agrimensor y abogado; es lógico pensar que comprendía bien el alcance del logro de Ramón Picarte, pero es un hecho que le negó su patrocinio. Quizá no le pareció redituable gastar dinero en ello o quizá simplemente estaba más ocupado en el proceso de colonización del sur del país que llevaba a cabo como ministro: su encargado Vicente Pérez Rosales gestionaba la llegada de ciudadanos europeos, en especial alemanes, para poblar tierras que les eran entregadas bajo condición de trabajarlas. Este proceso, por cierto, con el tiempo llevaría a ocupaciones irregulares de tierras que históricamente pertenecían a las comunidades mapuche y huilliche, originando así conflictos que desgraciadamente perduran hasta nuestros días. Como haya sido, el punto es que Ramón Picarte no había encontrado ningún apoyo del gobierno, y tampoco mucho entusiasmo de la comunidad académica del país.
En Lima, un poco de suerte sonríe a Picarte. Con la ayuda recibida logra proseguir su odisea. Viaja a Panamá y luego hace el largo trayecto hasta Southampton, en el Reino Unido, donde vende su reloj, la única herencia de su padre, para poder sortear el último tramo de su viaje. Picarte casi logra su cometido, está cerca de llegar a Paris y entrevistarse con los matemáticos franceses para mostrarles su trabajo. Irónicamente, sus detractores en Chile solían elogiar a los científicos de estas latitudes, pero lo hacían desde una perspectiva categórica, absolutamente conservadora, más bien una caricatura: “Los grandes descubrimientos de las ciencias están reservadas para los grandes sabios europeos”, había sido la triste declaración al consejo de la facultad de nada menos que el director de la Escuela de Artes y Oficios y que consta en actas de la universidad. Bajo esta óptica, Picarte había perdido su tiempo tratando de equipararse con los matemáticos franceses y debía ubicarse en el papel que esta visión colonial le reservaba. Afortunadamente, no se dejó menospreciar, él creía genuinamente que había conseguido algo importante. Quizá su trabajo tampoco había generado entusiasmo en el medio científico de la época. La astronomía, por ejemplo, desde esos años ya tenía actividad en Chile. En efecto, funcionaba el observatorio del Cerro Santa Lucía, presumiblemente el primero en Latinoamérica (además del pequeño observatorio, considerado más bien como de carácter aficionado, ubicado en el Cerro Cordillera de Valparaíso producto de la iniciativa de Juan Muat, relojero escocés asentado en el puerto chileno, apasionado de la astronomía y cuya historia merecería varias páginas). Hubiese sido natural que la actividad astronómica en Chile propiciara condiciones suficientes para que el trabajo de Picarte fuera reconocido y, por supuesto, utilizado. Después de todo, las tablas usadas hasta entonces eran las del astrónomo Lalande. Pero no fue así, nadie le dio importancia a la mejora de las tablas y todo mundo se conformaba con seguir usando las mismas herramientas conocidas. Los profesionales que observaban astros tan lejanos en el universo poseían una visión mas bien corta, y no fueron capaces de tomar otra decisión que quizá, imposible saberlo, habría propiciado un avance cualitativo en la ciencia chilena.
La miopía de las autoridades y la visión colonial de la comunidad científica era un hecho, y podríamos decir que desgraciadamente sigue siéndolo en alguna medida. Afortunadamente, Ramón Picarte no cejó y decidió emprender esta loca aventura. Después de vender su reloj llega a la capital francesa, su destino final. En Paris, ayudado por conocidos, logra entrevistarse con matemáticos de la Academia de Ciencias, con quienes acuerda los siguientes pasos a realizar: debe redactar un completo informe y pasar en limpio sus tablas, lo que lleva a cabo durante unos cinco meses de constante trabajo. Finalmente, en 1858 presenta sus tablas antes la Academia de Ciencias de Paris y éstas son sometidas a un minucioso examen. Le solicitan una segunda exposición junto con informes con más detalles. Claro, los matemáticos franceses no iban a aprobar tan a la ligera las tablas que pretendían mejorar el trabajo de Lalande. Pero Picarte consigue sortear todos los exámenes: en sesión de febrero de 1859, la Academia evalúa positivamente el trabajo y aprueba la publicación de las tablas con título La división reducida a una suma. Picarte tiene razón y su obstinación rinde frutos.
El logro de Ramón Picarte es una gran noticia, diarios de Francia, España y Chile consignan su proeza. Ahora sí, todos en su país natal reconocen que es un gran matemático, todo mundo lo reconoce y nadie parece recordar los sinsabores y el desprecio que Picarte sufrió por falta de apoyo. En mayo de 1859 el gobierno del país lo nombra adjunto a la Legación de Chile en Francia y en junio el Consejo de la Universidad de Chile lo nombra miembro corresponsal de la Facultad de Ciencias Físicas y Matemáticas. Se encarga a la Academia de Ciencias de París la impresión de trescientos ejemplares de las tablas. Llegan los tiempos de calma y satisfacción para Ramón Picarte, que extiende su estadía en Paris para estudiar directamente de los matemáticos franceses. Al parecer, en esa época se produce un punto de inflexión en sus intereses y motivaciones, pues además de matemáticas y agrimensura, se aboca a otra obsesión: el uso de la ciencia para lograr el bienestar de la sociedad.
En Chile se crea gran expectación, al menos en el medio académico, por tenerlo de regreso, lo cual sucede en 1862. Su primera actividad consiste en dar un discurso ante el Consejo de la universidad, en la sesión en que asume su nombramiento académico. Los académicos esperan ansiosos el mensaje que Picarte les dirigirá, después de haber llegado a la Academia de Ciencias de Paris, donde su trabajo había sido reconocido y publicado. Quizá suponen que les contará noticias sobre los temas científicos de vanguardia que se estudian en Francia en ese momento o sobre proyectos que tiene en mente para los siguientes años. Puede ser que algún antiguo detractor de Picarte tema alguna represalia por parte del ahora académico de la universidad. Pues bien, probablemente el discurso que escuchan extraña a varios de ellos, que no se esperan que la principal preocupación que Ramón Picarte transmite en su discurso sea la del bienestar de los trabajadores.
Como podemos leer en los Anales de la universidad de Chile, disponibles en línea, en su discurso de inauguración Picarte expuso con todo detalle sobre algunas propuestas para asegurar el bienestar de un trabajador, con cálculos precisos incluidos. En particular le preocupaba la ocurrencia de accidentes o enfermedades invalidantes, pues quienes sufrían algo así eran dejados a su suerte. Haciendo uso de las probabilidades, Picarte calculó lo que podía significar que cada trabajador ahorre pequeñas cantidades para usufructo común. Sostiene Picarte que era posible prever y ahorrar recursos para el futuro, organizarse y establecer un sistema de pensiones que permitieran vivir dignamente a quienes debieran dejar de trabajar. Probablemente en Francia se vio atraído por el socialismo utópico de Charles Fourier y otras corrientes de pensamiento similares; también conoció el funcionamiento de compañías de seguro que operaban en Europa. Menciona en su discurso que, para un buen desempeño del sistema de ahorro que propone, se debían evitar las altas cuotas que las compañías de seguros europeas cobraban a sus suscriptores y menciona el ejemplo de compañías británicas, que se estaban haciendo ricas con los altos comisiones cobradas por su servicio. Es inevitable preguntarse qué pensaría Ramón Picarte de los sistemas de capitalización individual para el retiro que rigen en tantos países en nuestros días, como como las AFP chilenas, que actualmente son objeto de importantes discusiones, aunque no es difícil imaginarlo.
Durante los años posteriores a su regreso a Chile, Picarte destinó su tiempo y energía a proyectos sociales, siembre con el objetivo de garantizar el bienestar de los trabajadores por medio del uso racional y equitativo de los recursos generados por el trabajo. Para ello solicitaba ayuda en muchas partes con variados resultados, incluso llegó a instalarse en un puesto permanente en una plaza pública para sumar adeptos a sus proyectos. En 1863 fundó en Santiago una sociedad de zapateros y otra de sastres y en 1864 formó la organización cooperativa “Sociedad trabajo para todos”, proyectos que al parecer tuvieron un modesto alcance y una corta vida. En 1866 se instaló en San Carlos, al sur de Chile, donde intentó crear un falansterio -o comuna-, agrupación de familias cuyo trabajo conjunto la hace autosustentable. Este ambicioso e inédito proyecto en estas latitudes tuvo un buen comienzo según fue comentado en la prensa de la época, pero no se tienen mayores registros sobre su desarrollo. Se casó en 1869 con Clorinda Pardo y se instalaron a vivir en el vecino poblado de Chillán.
Los proyectos sociales absorbieron entonces la energía de Picarte desde su retorno a Chile. De hecho, me parece que es más común encontrar su nombre en fuentes bibliográficas relacionadas con el origen del cooperativismo o del socialismo en Chile que en textos sobre los primeros científicos del país, por lo que su nombre resulta aún muy poco conocido. Una muy valiosa excepción la constituyen los trabajos de Claudio Gutierrez y Flavio Gutierrez, que han rescatado el papel de Ramón Picarte como pionero en la ciencia en Chile.
Sorprendentemente, no conocemos el final de esta historia, ni el de la vida de Ramón Picarte. Se sabe que publicó varias patentes de artefactos tecnológicos diversos y que eventualmente volvió a dedicar tiempo a confeccionar nuevas tablas de cálculo. Consiguió financiamiento para desarrollar y publicar unas “tablas de logaritmos de doce decimales” y emprendió un viaje a Francia en 1884, quizá para quedarse definitivamente allí, pues no se sabe con certeza qué pasó después de tal fecha y tampoco si las tablas fueron publicadas. Un diccionario biográfico en su reedición de 1897 se refiere escuetamente a Picarte con el texto “permanece en París consagrado a estudios científicos” sin proporcionar mayor detalle, y no hay referencias posteriores. Durante el 2019, pude dedicar algunos días de una estadía en Francia a buscar en archivos de Paris alguna pista de las actividades de Picarte. Desgraciadamente, al desconocer la dirección aproximada donde pudo haber fallecido, es difícil encontrar un registro de defunción. Encontré solamente dos pistas certeras: un par de registros de patentes de los años 1884 y 1888. Los artefactos descritos coinciden con actividades anteriores de Picarte, lo que significa una comprobación de su actividad en Paris posterior a su última salida de Chile. Desgraciadamente, la dirección en Paris registrada en la patente no me ayudó a encontrar información adicional.
¿Qué fue de Ramón Picarte? ¿Falleció en Francia? ¿Publicó sus tablas de doce decimales? ¿Se interesó por otros problemas? No lo sabemos aún y sólo podemos imaginar que durante los últimos años del siglo XIX, o quizá incluso durante los primeros del siglo XX, Ramón Picarte estuvo entusiasmado por otros proyectos, siempre con pasión y encarnando la frase del autor italiano Terencio: soy un hombre, nada humano me es ajeno.
Principales referencias
- Gutiérrez Claudio y Gutierrez, Flavio, «Ramón Picarte: la proeza de hacer matemáticas en Chile», Quipu, Revista Latinoamericana de Historia de las Ciencias y la Tecnología, Vol. 13, Num. 3, 2000.
- Gutiérrez Claudio y Gutierrez, Flavio, «Forjadores de la ciencia en Chile», RIL editores, 2008.
- Jaime Massardo, «La formación del imaginario político de Luis Emilio Recabarren», Santiago de Chile, Lom ediciones, 2008.
- Anales de la Universidad de Chile: https://anales.uchile.cl/
- Les procès-verbaux du Bureau des longitudes. http://bdl.ahp-numerique.fr/
- Gallica, Biblothèque Nationale de France https://gallica.bnf.fr/
Sobre el autor: Alberto Mercado Saucedo es profesor de matemáticas en la Universidad Técnica Federico Santa María (Valparaíso, Chile)
Sobre la ilustradora: Constanza Rojas Molina es profesora del departamento de matemáticas de la CY Cergy Paris Université (Cergy-Pontoise, Francia)
El artículo Ramón Picarte, una aproximación a la utopía se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Fraude científico (I). Una primera aproximación
- José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos
- Roberto Frucht, matemático en tránsito
Así es el nuevo mercado matrimonial en España: si quieres pareja, ocúpate de cuidar
Teresa Martín García y Teresa Castro Martín

España se sitúa desde hace tiempo entre los países con una fecundidad más baja, tanto en el contexto europeo como en el mundial: la media de hijos por mujer fue de 1,23 en 2019. Una de las condiciones demográficas que más afectan a la (in)fecundidad es la situación del denominado “mercado matrimonial”.
Según datos de la Encuesta Continua de Hogares, el 39 % de las mujeres en edades centrales para la maternidad en nuestro país (30-34 años) no está casada ni convive con pareja (51 % de los hombres). Para los economistas, todo se reduce a un problema de escasez en el sentido más estricto del número. De hecho, un artículo de divulgación publicado con el título La curiosa razón por la que medio millón de españoles no podrá encontrar pareja señala el “desequilibrio” numérico entre hombres y mujeres más jóvenes como causa de la dificultad de formación de pareja en nuestro país.
La demografía condiciona, pero no determina. Este desequilibrio numérico puede ser efectivamente un problema allí donde el descenso de la natalidad no ha sido voluntario sino más bien consecuencia de la imposición del hijo único durante décadas, como en China, un país donde las mujeres valían menos que los hombres (lo que conducía al aborto selectivo en función del sexo). En el caso de España y Europa, más que de un supuesto desequilibrio numérico de cohortes consecutivas achacado al descenso de la natalidad, tenemos que hablar de otros factores que repercuten en la composición del mercado matrimonial.
Sin duda, uno de los más importantes es el hecho de que las diferencias de género en el logro educativo se han invertido en las últimas décadas a favor de las mujeres. En 2019, el porcentaje de mujeres de 30 a 34 años con estudios universitarios fue del 39,1 %, superando a los hombres en más de 14 puntos porcentuales.
¿Dónde están aquellas jóvenes casaderas? Estudiando
Tradicionalmente, los hombres solían emparejarse (y casarse) con mujeres con un nivel educativo y estatus socioeconómico menor que ellos (hipergamia educativa). Este patrón de emparejamiento respondía normalmente al hecho de que las mujeres no trabajaban fuera del ámbito doméstico y, si lo hacían, sus ingresos eran menores. Además, dicho patrón se basaba en preferencias y normas socialmente compartidas acordes con la hipergamia educativa (por ejemplo, que las mujeres fueran ligeramente más jóvenes).
Pues bien, la rápida expansión educativa y el sorpasso educativo de las mujeres han dificultado la continuidad de este patrón tradicional de emparejamiento. En concreto, ahora los hombres “no encuentran” mujeres más jóvenes con igual o menor nivel educativo, simplemente porque las generaciones recientes de mujeres, de media, tienen un mayor nivel educativo que los hombres.
La evidencia empírica sobre este tema nos muestra, sin embargo, que hombres y mujeres se han adaptado sorprendentemente rápido a las realidades cambiantes del mercado matrimonial. De hecho, en la mayoría de los países occidentales han aumentado considerablemente las parejas en las que las mujeres tienen un nivel educativo superior al de los hombres.
Constatamos también que ha disminuido la proporción de hombres que rechazan emparejarse con mujeres con ingresos superiores a los suyos, y viceversa en el caso de las mujeres. Ahora bien, todavía encontramos una cierta aversión de los hombres a emparejarse con mujeres altamente cualificadas y con éxito profesional.
En realidad, no es tanto el desequilibrio numérico causado por el descenso de la natalidad —una tendencia universal y difícil de revertir— sino el desajuste entre las expectativas individuales y la persistente desigualdad de género lo que impide que la adaptación a la nueva composición del mercado matrimonial sea completa. En este sentido, hay que decir que el cambio en los roles y relaciones de género ha sido asimétrico, ya que la vida de la mujer se ha transformado mucho más que la del hombre a lo largo de las últimas décadas. Además, los cambios han sido mucho más rápidos en algunas esferas, como la educación y el empleo, que en otras, como las relaciones intrafamiliares.
Emparejarse es hoy una opción, no un modo de subsistir
Históricamente, el matrimonio era concebido como una estrategia de supervivencia para la mayoría de las mujeres por la escasez de recursos propios, la dificultad de mantener un trabajo remunerado y el fuerte estigma social de no casarse. Hoy en día, en unas condiciones más flexibles, el matrimonio o el emparejamiento es una opción, no una obligación. Cuando el coste se percibe elevado, no solo en términos de tiempo y recursos, sino también de penalizaciones en la carrera laboral —sobre todo por parte de las mujeres con un nivel educativo más alto— las decisiones familiares tienden a aplazarse de forma temporal o definitiva.
En la década de los 80, se consolidó en España la disociación entre sexualidad y reproducción, gracias al uso generalizado de anticonceptivos modernos.
En la década de los 90, la expansión de la cohabitación fue el gran catalizador del cambio familiar, implicando la disociación entre matrimonio y reproducción.
Más recientemente, estamos asistiendo a una nueva disociación, esta vez entre conyugalidad y reproducción, a través de la maternidad sin pareja y la maternidad sin sexo, con el recurso de las técnicas de reproducción asistida. De hecho, en la actualidad casi la mitad de las mujeres que son madres en solitario lo son después de los 30 años, son laboralmente activas y tienen un nivel educativo medio o alto, por lo que muchas de ellas encajarían en el perfil de “madres solas por elección”. Es decir, ni el sexo ni los hijos son ya razones para que las mujeres formen pareja a cualquier coste.
Solo hay una posible “solución”, siguiendo la lógica del mercado matrimonial: que los hombres compensen su menor nivel educativo (aunque todavía conserven un mayor estatus socioeconómico) con actitudes igualitarias e implicándose más en los cuidados y el trabajo doméstico.
Parejas más estables con hombres que cuidan
La principal conclusión que se extrae de los análisis empíricos recientes es que el nivel de estudios o la participación laboral de la mujer no tienen por qué llevar necesariamente al abandono de su proyecto familiar.
En los países donde más se ha promovido la igualdad de género en el ámbito público y en el ámbito familiar, mediante una fuerte protección laboral de las madres trabajadoras, así como a través de medidas que incentivan la corresponsabilidad de padres y madres en los cuidados —por ejemplo, en los países nórdicos—, observamos que el gradiente de educación parece haberse invertido en las cohortes más jóvenes y es positivo: los hombres se ponen el delantal y cuidan de los hijos, lo que propicia parejas más estables y, por lo tanto, las mujeres con niveles educativos altos no rechazan convivir y tener descendencia.
En resumen, no hay un problema de escasez de mujeres más jóvenes, sino una falta de correspondencia entre las expectativas de hombres y mujeres en un mercado matrimonial cambiante, que no es único —no hay un solo mercado matrimonial sino muchos “mercados” dependiendo del nivel educativo, lugar de residencia, estilo de vida, etc.— y que ya no es solo matrimonial porque la cohabitación está progresivamente desplazando al matrimonio como vía de formación familiar.
Es necesaria una visión interdisciplinar que incorpore también a la sociología, la demografía, la psicología social y los estudios de género para explicar una realidad mucho más compleja de la contemplada en los modelos económicos basados estrictamente en la premisa de la escasez y los conceptos de demanda y oferta en el mercado matrimonial.
Además, este supuesto déficit de mujeres de cohortes más jóvenes no es necesariamente una mala noticia, ya que podría aumentar el poder de negociación de las mujeres a la hora de forjar relaciones de pareja más igualitarias.
En este asunto, bien vale atenerse a lo de “menos es más”. Cuanto menos igualitarios sean los hombres y menos se adentren en la esfera doméstica, más dificultades seguirán teniendo para encontrar pareja (heterosexual) en un contexto social como el español, en el que la brecha educativa se ha revertido claramente y funciona ya como una línea roja de no retorno respecto a la igualdad de género.
Sobre las autoras: Teresa Martín García es científica titular y Teresa Castro Martín profesora de investigación en el grupo de investigación sobre dinámicas demográficas del Departamento de Población del CSIC.
Este artículo fue publicado originalmente en SINC. Artículo original.
El artículo Así es el nuevo mercado matrimonial en España: si quieres pareja, ocúpate de cuidar se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La violencia psicológica en las relaciones de pareja no entiende de fronteras
- Ciencia y democracia, una pareja bien avenida
- Por qué España es un modelo para el estudio de la economía
Adela Torres – Naukas Bilbao 2019: ¿Dónde está la mosca?

La genética del desarrollo es uno de los campos científicos en los que aun queda mucho por explorar, como ilustra estupendamente la divulgadora Adela Torres en esta charla.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Adela Torres – Naukas Bilbao 2019: ¿Dónde está la mosca? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Francisco Villatoro – Naukas Bilbao 2019: El abrazo de la plata
- José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos
- Naukas Bilbao 2017 – María José Calderón y Belén Valenzuela: Esta física es la leche
¿Es imprescindible comer la fruta con piel para ingerir suficiente cantidad de fibra?
Saioa Gómez Zorita, Helen Carr-Ugarte, Jesús Salmerón y Maria Puy Portillo

La respuesta es no. Debemos comer más fruta, con o sin piel, como más nos guste, pero comer más. Tal vez la pregunta correcta debería ser: ¿debemos comer más fruta para ingerir suficiente cantidad de fibra? En este caso la respuesta sería claramente afirmativa.
Empecemos por ver qué es la fibra. Esta es la fracción comestible de alimentos de origen vegetal que no puede ser digerida por los enzimas digestivos y que, por tanto, no puede absorberse en el intestino. Sin embargo, algunos tipos de fibra sí pueden ser fermentados por la microbiota, lo que da lugar a compuestos beneficiosos para la salud como los ácidos grasos de cadena corta.
A pesar de que la fibra no se absorbe, sí debemos ingerirla en cantidad suficiente, porque tiene múltiples efectos beneficiosos. Por ejemplo, la prevención del estreñimiento y la disminución de las concentraciones de colesterol en sangre. De hecho, numerosos estudios epidemiológicos han puesto de manifiesto que aquellas personas con un bajo consumo de fibra tienen una mayor predisposición a padecer ciertas patologías como diabetes y enfermedades cardiovasculares.
En lo que respecta a las fuentes de fibra, algunos alimentos como los cereales integrales (trigo, avena…), las legumbres, las frutas, las verduras y los frutos secos son ricos en ella. Por el contrario, los de origen animal, como la carne, el pescado y los huevos, carecen de la misma.
¿Cuánta fibra debo ingerir?
Las recomendaciones de ingesta de fibra en adultos difieren según el organismo que las establezca. Según la Autoridad Europea de Seguridad Alimentaria (EFSA), la recomendación actual en adultos es de al menos 25 g/día. Sin embargo, el consumo actual de fibra en Europa se sitúa en torno a 14-23 g/día, por debajo de las recomendaciones. En concreto, el estudio ANIBES, indicó que en España el consumo medio de fibra era de 13 g/día en hombres y de 14 g/día en mujeres con edades comprendidas entre 18 y 64 años.
Para llegar a este consumo mínimo de fibra se deberían consumir al menos 5 raciones de fruta y verdura al día (unos 400 g) y 2 o 3 raciones de legumbre a la semana. Así mismo, se deberían consumir cereales integrales como el arroz integral.
No obstante muchos, en vez de preocuparnos por la baja ingesta de estos alimentos, lo hacemos por consumir la fruta con piel para aumentar la ingesta de fibra. Es cierto que la piel de la fruta tiene mayor cantidad que el resto de la fracción comestible, pero debido al bajo peso que supone en comparación con el peso total, la diferencia entre comerla con o sin piel es pequeña.
En la siguiente tabla se muestran los gramos de fibra en la pulpa y en la piel de la manzana y de la pera. Imaginemos que ingerimos 150 gramos de pera sin piel: en este caso, el contenido total de fibra ingerida sería 3,2 g. En cambio, si también ingerimos la parte correspondiente de piel, unos 5 g, estaríamos añadiendo únicamente 0,1 gramos extra de fibra.

A todo esto cabe añadir que, en numerosas ocasiones, hay más diferencia en el contenido en fibra entre distintas frutas e incluso entre clases o variedades de una misma fruta. Si este caso no supone ningún problema desde el punto de vista del consumo de fibra, ¿por qué se le da tanta importancia a cómo comer la fruta o la verdura?
En definitiva, a pesar de que el consumo de fruta y verdura con piel pueda suponer un ligero incremento en la ingesta de fibra, este es muy pequeño. Si para alguien puede suponer una reducción de la ingesta de fruta o verdura es preferible que le quite la piel. En este caso, lo principal es incrementar el consumo de frutas y verduras, no importa cómo las ingiramos.
Sobre los autores: Saioa Gómez Zorita es profesora en la UPV/EHU e investigadora del Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (CiberObn) y del Instituto de Investigación Sanitaria Bioaraba; Helen Carr-Ugarte y Jesús Salmerón investigan en la UPV/EHU , donde Maria Puy Portillo es catedrática de nutrición.
Este artículo fue publicado originalmente en The Conversation. Artículo Original.
El artículo ¿Es imprescindible comer la fruta con piel para ingerir suficiente cantidad de fibra? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Puedes presumir de tener la mejor piel del mundo.
- Hidrógeno a partir de composites de fibra de carbono
- Una fibra óptica de plástico actúa como concentrador solar luminiscence
Música, guerra y paz
¿Qué es la música?
Preguntas mientras clavas en mi pupila tu pupila azul.

Como las preguntas más interesantes, esta resulta fácil de contestar de manera cotidiana (todos reconocemos la música en nuestro entorno cotidiano) y, sin embargo, es muy difícil concretarla con palabras. Pero si amordazamos a los teóricos musicales y a los compositores de vanguardia, e intentamos encontrar una respuesta mediante una suerte de inferencia estadística, descubriremos que uno de los ingredientes más comunes de la música (aquello que la distingue de otras señales sonoras, como el habla o el ruido) es el ritmo.
El ritmo es una forma de repetición, al fin y al cabo; un patrón de duraciones sonoras que dividen el tiempo de manera recurrente. Esa recurrencia es lo que da sentido al pulso, la cuadrícula periódica de fondo que nos permite anticiparnos a lo que viene. El pulso es el instante en el que todos juntos, de manera instintiva, damos la misma palmada. Y puede que esa sea la clave de todo, el motivo por el que los humanos, al contrario que las máquinas y que otros tipos de monos, compartimos esa extraña capacidad de sincronizarnos con una señal sonora periódica. Puede que la razón de ser de la música, no sea su sonido, ni siquiera su ritmo, sino nuestra capacidad de movernos juntos cuando suena.
Música y movimiento van de la mano en todas las culturas que conocemos. Eso que hacemos en Occidente de sentarnos una butaca sin mover ni un pelo, para no molestar al de al lado durante los conciertos de música clásica, es una anomalía cultural (y, desde mi punto de vista, uno de los motivos por los que estos eventos no son demasiado populares). Fuera de los auditorios refinados, allí donde suena la música, hay gente que se mueve. Es más, en algunas culturas, ni siquiera existen palabras diferentes para distinguir la música y la danza: resulta que la música es lo que suena mientras la gente baila y baile es eso que hace la gente cuando suena la música.
Para que esa combinación sea posible, el ritmo es un ingrediente imprescindible. Los periodos regulares de tiempo de la música son uno de sus pocos rasgos universales. Los instrumentos de percusión son también los más comunes a lo largo y ancho del planeta (por encima de los instrumentos de viento o de cuerda). Lo que hace la música es el ritmo. Y el ritmo es eso que nos permite movernos todos juntos a la vez.
Incluso a nivel neurológico, música y movimiento se encuentran unidos. Cuando escuchamos música, incluso si estamos perfectamente quietos, se activan regiones motoras en nuestro encéfalo. Da igual que estés en la oficina, en una camilla o en un entierro: si escuchas música que te gusta, te costará dejar los pies quietos, ¡es lo que te pide el cuerpo! Como dice Oliver Sacks1: “El ritmo convierte a los oyentes en participantes, hace que la escucha sea activa y motora, y sincroniza el cerebro y la mente (y, ya que la emoción es siempre parte de la música, los «corazones») de todos los que la escuchan. Es muy difícil permanecer indiferente, resistirse a dejarse llevar por el ritmo del canto o el baile”.
La música nos mueve en todos los posibles sentidos de la palabra. Así, el ritmo podría dar también respuesta a una de las preguntas que intrigó al mismísimo Darwin: ¿qué sentido tiene la música desde un punto de vista evolutivo?, ¿a qué viene esta devoción que demostramos los humanos por ciertas ondas de presión ordenadas en el aire?
De acuerdo con varios estudios psicológicos, la sincronía, el hecho de movernos junto a otros, facilita nuestra cooperación con ellos y refuerza nuestros vínculos con el grupo2. También en palabras de Sacks: “la música es una experiencia comunitaria, y parece haber, en cierto sentido, una unión o «unión» real de los sistemas nerviosos, una «neurogamia» (para usar una palabra que favorecían los primeros mesmeristas). La unión se logra mediante el ritmo, no solo escuchado sino internalizado, de manera idéntica, en todos los presentes”. Encontramos música en todos los eventos sociales, en todos los ritos de paso, en todos los contextos destinados a unirnos con los demás (y, siendo monos sociales, como somos, eso son muchos contextos). Incluso en la guerra: allí donde hay armas, siempre hay también un señor con un tamborilete. Su ritmo facilita la unión de las tropas, las convierte en un todo cohesionado.
Sin embargo, hubo una vez durante la guerra en que la música sirvió para hacer la paz. Fue en 1914 durante la Primera Guerra Mundial. Un día de Navidad, hubo un montón de soldados que, en lugar de matarse entre sí, empezaron a colaborar y a intercambiar regalos. Nadie sabe cómo sucedió exactamente, pero la hipótesis más probable es que unos soldados alemanes empezaron a cantar villancicos, y los ingleses al otro lado de la trinchera, les respondieron uniéndose a ellos.
Me pregunto qué cantarían al día siguiente para volver a iniciar la guerra.
Referencias:
1Sacks, Oliver. Musicofilia. Editorial Anagrama, 2009.
2Mithen, Steven. The Singing Neanderthals: The Origins of Music, Language, Mind, and Body. Harvard University Press, 2009.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Música, guerra y paz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Almudena M. Castro – Naukas P4K 2019: Música, guerra y paz
- ¿Es la música un lenguaje universal?
- La emoción de las escalas musicales
El jugador: una lección de teoría de la probabilidad
El jugador de Fiódor Dostoievski es la historia de una adicción al juego de la ruleta.

La teoría de la probabilidad está muy presente en la novela, en particular en el siguiente extracto del capítulo 10 en el que el azar convierte a una anciana en la admiración del casino…
Ella escuchaba atentamente, hacía nuevas preguntas y se instruía sobre el azar. De cada sistema de posturas se podía poner en seguida ejemplos, así es que muchas cosas las pudo aprender pronto y fácilmente. La abuela estaba encantada.
– ¿Y qué es eso del «cero»? Mira ese croupier de pelo rizado, el principal, que acaba de gritar «cero». ¿Por qué se ha llevado todo lo que había encima de la mesa? ¡Una cantidad tan enorme! ¿Qué significa eso?
– El «cero», abuela, queda a beneficio de la banca. Si la bola cae en el «cero» todo lo que está sobre la mesa, todo, sin distinción, pertenece a la banca. Cierto que se concede otra postura por pura fórmula, pero en caso de perder la banca no paga nada.
– ¡Toma! ¿Entonces si pongo al «cero» y gano no cobro nada?
– No, abuela. Si usted hubiese puesto previamente al «cero» y hubiese salido, cobraría treinta y cinco veces la puesta.
– ¡Cómo! ¡Treinta y cinco veces! ¿Y sale a menudo? ¿Por qué entonces esos imbéciles no juegan al «cero»?
– Hay treinta y cinco probabilidades en contra, abuela.
– ¡Qué negocio! ¡Potapytch, Potapytch! Espera, llevo dinero encima… ¡Aquí está! -sacó del bolsillo un portamonedas repleto y tomó un federico-. Toma, ponlo en el «cero».
– Pero, abuela, el «cero» acaba de salir -objeté-. No saldrá, por lo tanto, en mucho tiempo. Usted se arriesga demasiado, espere al menos un poco -insistí.
– ¡Ponlo y calla!
– Sea, pero quizá no saldrá ya más en todo el día.
– ¡No importa! Quien teme al lobo no va al bosque. Bien, ¿hemos perdido? ¡Pues vuelve a jugar!
Perdimos el segundo federico. Siguió un tercero. La abuela apenas si podía estarse quieta. Clavaba los ojos ardientes en la bola que zigzagueaba a través de las casillas del platillo móvil. Perdimos el tercer federico. La abuela estaba fuera de sí, se estremecía. Dio un golpe con el puño sobre la mesa cuando el croupier anunció el 36, en lugar del esperado «cero».
– ¡Ah! ¡El maldito! ¿Saldrá pronto? -decía irritada la abuela-.¡Dejaré mi piel, pero permaneceré aquí hasta que salga! ¡Tiene la culpa ese maldito croupier de pelo ondulado! Alexei Ivanovitch, pon dos federicos a la vez. Pones tan poco que no valdrá la pena cuando el «cero» salga.
– ¡Abuela!
– ¡Ponlos! ¡Ponlos! ¡El dinero es mío!
Puse los dos federicos. La bolita rodó largo tiempo sobre el platillo y comenzó a zigzaguearse a través de las casillas. La abuela, conteniendo la respiración, me agarró por el brazo. Y, de pronto, ¡crac!
– ¡»Cero«! -gritó el croupier.
– ¿Lo ves? ¿Lo ves? -exclamó la abuela, volviéndose hacia mí con aire de triunfo-. ¡Ya te lo decía yo! ¡Es el mismo Dios que me ha sugerido que pusiese dos monedas de oro! ¿Cuánto voy a cobrar? ¿Por qué no pagan? Potapytch, Marta, ¿dónde están? ¿Dónde se han ido los nuestros? ¡Potapytch, Potapytch!…
– En seguida, abuela -murmuré-. Potapytch se ha quedado a la puerta, no le dejarán entrar aquí. ¡Mire, ahora pagan!
Entregaron a la abuela un pesado cartucho de papel blanco que contenía cincuenta federicos. Le contaron además otros veinticinco federicos. Recogí todo aquello con la raqueta.
– ¡Hagan juego, señores! ¡Hagan juego! ¡No va más! -decía el croupier, dispuesto a hacer girar la ruleta.
– ¡Dios mío! ¡Es demasiado tarde! ¡Ya van a tirar!… ¡Juega, juega, pues! -decía, inquieta, la abuela-. ¡No te entretengas, atolondrado!
Estaba nerviosa y me daba con el codo con todas sus fuerzas.
– ¿A qué número juego, abuelita?
-Al «cero». ¡Otra vez al «cero»! ¡Pon lo más posible! ¿Cuántos tenemos? ¿Setecientos federicos? Pon veinte de una sola vez.
– ¡Reflexione, abuela! A veces está doscientas veces sin salir. Corre usted el riesgo de perder todo su dinero.
-No digas tonterías. ¡Juega! Oye cómo golpean con la raqueta. Sé lo que hago -dijo, presa de una agitación febril.
– El reglamento no permite poner en el «cero» más de doce federicos a la vez, abuela, y ya os he puesto.
– ¿Cómo no se permite? ¿Es esto cierto…? «¡Moussieé, moussieé!»
Tiró de la manga al croupier sentado a su lado, que se disponía a hacer girar la ruleta.
– «Combien zéro? Douze? Douze?»
Me apresuré a explicar al croupier la pregunta en francés.
– «Oui, madame» -confirmó, cortésmente, el croupier-; tampoco ninguna postura individual puede pasar de cuatro mil florines. Es el reglamento.
– Entonces, tanto peor. Pon doce.
– Hecho el juego -anunció el croupier.
El disco giró y salió el 30. ¡Habíamos perdido!
– ¡Sigue poniendo! -dijo la abuela.
Me encogí de hombros y sin replicar puse doce federicos. El platillo giró largo tiempo. La abuela observaba temblando. «¿Se imagina que el «cero» y va a ganar de nuevo?», pensé, contemplándola con sorpresa. La certeza absoluta de ganar se reflejaba en su rostro, la espera infatigable de que se iba a gritar: ¡»Cero»! La bola paró dentro de una casilla.
– ¡»Cero«! -cantó el croupier.
– ¡Lo ves! -gritó triunfalmente la abuela.
Comprendí en aquel momento que yo también era un jugador. Mis manos y mis piernas temblaban. Era realmente extraordinario que en un intervalo de diez jugadas el «cero» hubiese salido tres veces, pero sin embargo había sucedido así. Yo mismo había visto, la víspera, que el «cero» había salido tres veces seguidas y un jugador, que anotaba cuidadosamente en un cuadernito todas las jugadas, me hizo notar que la víspera, el mismo «cero» no se había dado más que una vez en veinticuatro horas.
Después de aquella jugada afortunada la abuela fue objeto de general admiración.
Cobró exactamente unos cuatrocientos veinte federicos, o sea, cuatro mil florines y veinte federicos, que le fueron pagados parte en oro y parte en billetes de banco.
Pero aquella vez la abuela no llamó a Potapytch. Tenía otra idea en la cabeza. No manifestó siquiera emoción.
Pensativa, me interpeló:
– ¡Alexei Ivanovitch! ¿Has dicho que se podían poner solamente cuatro florines a la vez?… ¡Toma, pon esos cuatro billetes al «rojo»! ¿Para qué intentar disuadirla? El platillo comenzó a girar.
– ¡»Rojo«! -cantó el croupier.
Nueva ganancia de cuatro mil florines, o sea, ocho mil en total.
– «Dame la mitad y pon la otra, de nuevo, al «rojo» – ordenó la abuela.
Puse los cuatro mil florines.
– ¡»Rojo«! -anunció el croupier.
– ¡Total, doce mil! Dámelo todo. Pon el oro en el bolso y guarda los billetes.

En la ruleta se puede apostar a los números del 0 al 36, con la misma probabilidad de salir cada uno de ellos: 1/37 (aproximadamente, 0,027). Además, con respecto a los comentarios de los protagonistas de esta escena:
-
La probabilidad de que el cero no salga en una jugada es de 36/37 (aproximadamente, 0,97).
-
La probabilidad de que el 0 no salga en 200 jugadas es de (36/37)200 (aproximadamente, 0,0042).
-
La probabilidad de que el 0 salga no salga en 10 jugadas es de (36/37)10 (aproximadamente, 0,76).
-
La probabilidad de que el 0 salga n veces en 10 jugadas es de C(10,n)(1/37)n(36/37)10-n, donde C(10,n) denota las combinaciones de 10 elementos tomados de n en n (formas de escoger n elementos en un conjunto de 10).
-
La probabilidad de que el 0 salga 3 veces seguidas es de (1/37)3 (aproximadamente, 0.00002).
A pesar de todo, recordemos que el azar no obedece ninguna regla…
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo El jugador: una lección de teoría de la probabilidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cuando la probabilidad te avisa de que no juegues
- La artista Anni Albers, The Walking Dead y la teoría de nudos
- La lección… de aritmética
Control de la reacción nuclear en cadena (1): tamaño crítico

Hemos visto que los neutrones liberados en la fisión nuclear del uranio pueden, a su vez, causar la fisión en átomos de uranio vecinos y que, por lo tanto, en una muestra de uranio puede desarrollarse un proceso conocido como reacción en cadena, con una liberación de energía enorme. ¿Cómo puede controlarse algo así para convertirlo en algo útil?
Si se escapan demasiados neutrones o se absorben por la estructura que contiene a la muestra o el conjunto del equipo (a lo que llamaremos reactor), no habrá suficientes para mantener la reacción en cadena. Si se escapan o se absorben muy pocos neutrones, la reacción continuará creciendo exponencialmente hasta hacerse portencialmente explosiva. El diseño de reactores nucleares como fuentes de energía implica encontrar tamaños, formas y materiales adecuados para mantener y controlar el equilibrio entre la producción de neutrones y la pérdida de neutrones.
Lo primero que se ha de conseguir es que la reacción en cadena no se detenga. Para que una reacción en cadena en una muestra de uranio continúe a un ritmo uniforme, debe alcanzarse un equilibrio entre la producción neta de neutrones resultantes de fisiones y la pérdida de neutrones debido a tres procesos:
· captura de neutrones por átomos de uranio sin que se produzca fisión;
· captura de neutrones por otros materiales (impurezas) en la propia muestra (boro o cadmio, por ejemplo) o en la estructura que contiene a la muestra;
· neutrones que escapan sin interactuar.
Dado que el núcleo ocupa solo una pequeña fracción del volumen de un átomo, la posibilidad de que un neutrón choque con un núcleo de uranio es pequeña y un neutrón puede pasar de largo miles de millones de núcleos de átomos de uranio (o de otros elementos presentes) mientras se mueve unos centímetros [1]. Si el reactor es pequeño, un porcentaje significativo de los neutrones resultantes de una fisión pueden escapar del reactor sin causar más fisiones. La «fuga» de neutrones puede ser tan grande que no se pueda sostener una reacción en cadena.
Ahora bien, el número de neutrones producidos es proporcional al volumen de la muestra, pero el número de neutrones que escapan es proporcional a la superficie. A medida que aumenta el tamaño lineal L de la muestra [2], el volumen y el área aumentan en proporción a L3 y L2, respectivamente, de modo que la producción de neutrones aumenta con el tamaño más rápidamente que la fuga de neutrones.
Por tanto, para una determinada combinación de materiales (uranio y otros materiales estructurales que puedan ser necesarios), existe un tamaño del reactor, llamado tamaño crítico, para el cual la producción neta de neutrones por fisión es igual a la pérdida de neutrones por captura sin fisión y por fuga. Si el tamaño del conjunto del reactor es menor que este tamaño crítico, no se puede sostener una reacción en cadena. El diseño de reactores de dimensiones razonables, con unos materiales dados, que corresponderán al tamaño crítico, es una parte importante de la investigación en el campo de la ingeniería nuclear.
Otra consideración importante en el diseño de reactores nucleares es el hecho de que la fisión es mucho más probable cuando se bombardea uranio-235 con neutrones lentos que cuando se bombardea con neutrones rápidos. Los neutrones liberados en la fisión generalmente tienen velocidades muy altas, con energías cinéticas en el rango de 0,01 MeV a casi 20 MeV, con una energía cinética promedio de aproximadamente 2 MeV.
Los neutrones rápidos pueden ralentizarse en el reactor mediante la adición de un material (llamado moderador) en el que los neutrones pueden perder energía por colisiones. El material del moderador debe tener una masa atómica relativamente baja, de forma que los neutrones transfieran una fracción significativa de su energía en las colisiones, pero que no corran el riesgo de ser capturados y absorbidos en un porcentaje significativo, sacándolos así de la reacción.
El carbono puro en forma de grafito y también el agua y el berilio cumplen estos requisitos. Como moderadores, ralentizan los neutrones recién producidos hasta llevarlos a velocidades más bajas a las que la probabilidad de causar fisiones adicionales es alta. Aunque se pueden construir reactores nucleares en los que las fisiones son inducidas por neutrones rápidos, ha sido más fácil hasta ahora construir reactores con materiales en los que las fisiones son inducidas por neutrones lentos.
Notas:
[1] Unos centímetros en términos nucleares es una distancia enormemente grande.
[2] Si la muestra es esférica el parámetro L es el radio.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Control de la reacción nuclear en cadena (1): tamaño crítico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Fisión nuclear (3): más neutrones
- Fisión nuclear (2): el núcleo se parte en dos
- Fisión nuclear (1): los elementos transuránidos
Marte y el enigma de la vida: el gran desembarco robótico de 2021
Juan Ángel Vaquerizo Gallego

Ha llegado el momento. Después de siete meses y medio de viaje, el planeta rojo aparece inmenso a través de la escotilla de la nave. Los tripulantes lo ven tan cercano que sienten que pueden tocarlo con sus manos.
Ese es el objetivo. A una velocidad de más de 20 000 km/h, la nave debe iniciar una serie de maniobras de frenado que permitirán su aterrizaje en Marte. Son los siete minutos de terror que desde la Tierra se vivirán en diferido. Sin embargo, los tripulantes los vivirán, por vez primera en la historia, en directo.
Primero, la entrada en la atmósfera marciana y el frenado producido por la fricción con el escudo térmico hasta velocidades supersónicas. Después, el despliegue de los grandes paracaídas. Estos frenarán todavía más la nave hasta que, finalmente, el encendido de retrocohetes permitirá el aterrizaje suave en la superficie marciana.
En ese instante, una vez apagados los motores y con el polvo todavía depositándose alrededor de la nave, se habrá producido el hito histórico de la llegada del ser humano a otro mundo. La humanidad estará en Marte.
Este breve relato, que parece de ciencia ficción, está próximo a hacerse realidad. Los miembros de la primera tripulación que viajará a otro planeta ya han nacido. Los preparativos para la exploración humana de Marte ya han comenzado. De hecho, se prevé que los seres humanos pongan pie en su superficie en un par de décadas.

¿Para qué?
¿Por qué ir a Marte es tan importante? ¿Qué sentido tiene la exploración humana del planeta rojo?
La respuesta es clara. En la actualidad se considera que Marte es el más habitable de los planetas a nuestro alcance. Esto lo convierte en el mejor escenario para confirmar la existencia de vida fuera de la Tierra. En pocas palabras, en Marte podría hallarse la respuesta al enigma de la vida.
Su exploración, primero a través del telescopio y después por medio de naves en órbita y robots en la superficie, ha mostrado un planeta fascinante. A pesar de tener la mitad del tamaño de la Tierra, este hermano menor de nuestro planeta cuenta con accidentes geográficos colosales, los mayores del Sistema Solar.
Tiene el volcán más grande, Olimpus Mons, con una altitud de 23 kilómetros. También el mayor sistema de cañones, Valles Marineris, con una profundidad máxima de 7 kilómetros y una longitud que recorre un cuarto del ecuador marciano. Además, cuenta con la mayor cuenca de impacto conocida, Vastitas Borealis, que ocupa el 40% de su superficie.
Es precisamente esta cuenca, que ocupa las zonas más septentrionales del planeta, la que establece una clara diferencia entre ambos hemisferios. Por un lado, las denominadas tierras bajas del norte; por otro, las tierras altas del sur.
Es lo que se conoce como dicotomía marciana, una distinción claramente visible entre el hemisferio norte, deprimido respecto al nivel cero marciano (o datum) y prácticamente sin cráteres; y el hemisferio sur, más elevado y plagado de cráteres.
Aún se desconoce el motivo por el que Marte es un planeta con dos caras. Ahora bien, la ausencia de cráteres en las tierras bajas podría deberse a la presencia en el pasado de un gran océano que protegió la superficie de los impactos.
La presencia de agua líquida en el Marte primitivo se deduce también de los cauces secos observados in situ o desde órbita. También la confirmación de la existencia de lagos que rellenaron cráteres, como el caso del cráter Gale, lugar de estudio del rover Curiosity de NASA.
Hasta la fecha, este ha sido, sin duda, el hallazgo más importante de la exploración robótica marciana. Confirma que Marte y la Tierra fueron bastante parecidos, contando ambos con abundante agua líquida en su superficie. La aparición de la vida en la Tierra en ese entonces nos lleva a plantear la posibilidad de que también pudiera haberse iniciado en Marte.
Metano en la atmósfera del planeta rojo
Otro de los grandes hallazgos en Marte, aunque todavía debe ser confirmado, ha sido la detección de metano en su atmósfera.
En la terrestre, prácticamente la totalidad del metano es de origen biológico. Procede de organismos metanógenos, aunque también de procesos geológicos, como la serpentinización.
La presencia de metano en Marte, por tanto, se podría interpretar como resultado de la existencia de vida, pasada o presente.
Actualmente, el estudio del origen del metano marciano es uno de los grandes retos de la astrobiología. Por el momento, la detección se ha producido solo en la superficie. Concretamente con los instrumentos a bordo del rover Curiosity. Aun así, no se ha detectado en la alta atmósfera, lo que es extraño.
Lo esperable sería que el metano detectado al nivel del suelo se acumulara en la atmósfera. Que fuera captado por los sensibles instrumentos a bordo de las naves en órbita antes de que la radiación solar lo destruyera por fotodegradación en un proceso que tarda varios siglos.
Debe de haber un mecanismo, aún por descubrir, que destruye rápidamente el metano en la superficie y no le permite acumularse en la atmósfera en la cantidad suficiente como para ser detectado desde la órbita.
El hallazgo más reciente relativo a Marte ha sido la confirmación de que todavía mantiene cierta actividad sísmica. Los más de 480 terremotos detectados hasta el momento por el sismógrafo a bordo de la plataforma InSight son la prueba inequívoca de que el planeta rojo aún conserva un corazón palpitante. También se ha constatado que el campo magnético global del planeta es mayor de lo esperado. Esto refuerza la idea de esa mayor actividad.
Tales descubrimientos están ayudando a dilucidar el proceso que sufrió Marte en el pasado. Aquel que hizo que pasara de ser un planeta con una atmósfera presumiblemente más densa que la actual, unas temperaturas más templadas y abundante agua líquida en su superficie, a ser el planeta frío, seco y árido que es en la actualidad.
El gran desembarco robótico de 2021
Todos estos hallazgos hacen de Marte el principal objetivo astrobiológico en la actualidad. Todavía más si contamos con las tres misiones que llegarán al planeta rojo a lo largo del mes de febrero de 2021. Cada una de ellas constituye un hito para las agencias espaciales y los países que las envían.
- La misión Emirates Mars Mission (EMM), también conocida como Hope (Esperanza, en inglés), es la primera misión interplanetaria de una nación árabe. Se trata de un orbitador cuyo principal objetivo será el estudio de la atmósfera marciana.
- La misión Tianwen-1 (búsqueda de la verdad celestial, en chino) es la primera misión china. Consta de un orbitador y un rover, denominado HX-1. El primero realizará estudios del campo magnético y gravitatorio. El segundo, analizará rocas y suelo y registrará valores ambientales.
- La misión estadounidense Mars 2020 consiste en un rover, el quinto que envía la NASA a Marte. Bautizado como Perseverance, es prácticamente un gemelo del rover Curiosity. Su aterrizaje, previsto para el 18 de febrero, tendrá lugar en el cráter Jezero.La zona de aterrizaje es un antiguo delta fluvial. Se trata de un lugar ideal para buscar evidencias de vida pasada en Marte, el objetivo principal de la misión. Además, se recolectarán por vez primera muestras de suelo que quedarán selladas y serán traídas a la Tierra en una misión futura.También se probarán diferentes tecnologías para preparar la futura exploración humana del planeta rojo. Es el caso de la obtención de oxígeno a partir del dióxido de carbono atmosférico. También la prueba de un ingenio volador, un pequeño helicóptero bautizado como Ingenuity.
No cabe duda de que Marte, aunque guarda celosamente sus secretos, ha proporcionado respuestas a algunos de los grandes enigmas de la ciencia. De hecho, ha provocado un profundo impacto en la cultura e impulsando de modo decisivo el avance de la ciencia en los últimos siglos. Las próximas décadas serán cruciales para su exploración.
Observado, imaginado y explorado, se acerca, finalmente, el momento en el que sea visitado por la humanidad en busca de vida.
Con el polvo ya depositado y el rumor apagado de los motores, habrá llegado el momento de poner el pie en Marte. Tras hollar su superficie, nos convertiremos en una especie planetaria. Habremos dado el paso definitivo para desentrañar el enigma de la vida.
Seguro que el planeta rojo no nos defraudará.
Sobre el autor: Juan Ángel Vaquerizo Gallego, es coordinador de la Unidad de Cultura Científica del Centro de Astrobiología (INTA-CSIC)
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Marte y el enigma de la vida: el gran desembarco robótico de 2021 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La senescencia celular: el gran desafío para entender y tratar el cáncer
- Los ojos que explorarán la superficie de Marte (Mars2020)
- En Marte el viento crea montañas
Ocho horas para trabajar, ocho para descansar y ocho para lo que nos parezca

La expresión que da título a estas líneas es una traducción muy libre del inglés de una reivindicación obrera de finales del XIX. Ocho horas diarias, ese es el tiempo que debemos dedicar al sueño según la prescripción popular. Sin embargo, en las sociedades occidentales la mayoría dicen dormir menos, entre 7 y 7,5 horas (en adelante, h) cada noche, y una tercera parte dicen que duermen menos, incluso.
En realidad, cuando se monitoriza a la gente con dispositivos electrónicos, el tiempo de sueño diario de los adultos occidentales es de alrededor de 6,5 h en los meses cálidos y 7,5 en los fríos y más oscuros. Por lo tanto, europeos y norteamericanos venimos a dormir 7 h por noche. Hay quienes creen que la diferencia entre el tiempo real y el que reza el eslogan obrero se debe a que perdemos una hora de sueño debido a la sobreexposición a estímulos lumínicos y sonoros; la culpa la tendría el uso masivo de luz artificial, pantallas, y demás artilugios electrónicos. Por no hablar de los estímulos callejeros.
Pero resulta que en los grupos humanos que viven de la caza y la recolección, y que no usan esos artilugios, duermen menos que nosotros: dedican al sueño entre 5,7 y 6,5 h diarias en los meses cálidos, y entre 6,6 y 7,1 h en los más frescos; en raras ocasiones hacen siesta. Los Amish, que carecen de cualquier clase de aparato eléctrico, duermen entre 6,5 y 7 h, lo mismo que agricultores de subsistencia de diferentes localidades del mundo. Tampoco hay evidencia de que durante las últimas décadas se haya reducido el tiempo de sueño en las sociedades occidentales, como sería de esperar si, efectivamente, dormimos menos horas debido al efecto del aparataje electrónico de que nos rodeamos.
En añadidura, no parece que sea necesario dormir todas esas horas para tener buena salud. En un estudio con un millón de norteamericanos, publicado en 2002, se halló que quienes dormían 8 h tenían una tasa de mortalidad un 12% más alta que quienes dormían entre 6,5 y 7 h. Además, los que dormían más de 8,5 o menos de 4 h, tenían tasas de mortalidad un 15% superiores. Estudios posteriores, a partir de mejores datos y en los que se utilizaron mejores métodos, llegaron a similares conclusiones: el tiempo de sueño que daba resultados óptimos en términos de supervivencia era de 7 h diarias.
Al igual que con el tiempo ocurre con los patrones de sueño: no hay normas universales. Hay quienes van muy tarde a la cama; mientras que otros nos retiramos pronto. Los más jóvenes tienden a trasnochar y los mayores a madrugar, y en general hay una gran variabilidad en los patrones individuales de sueño. Es posible, además que esa variabilidad fuera valiosa en los poblados amenazados por depredadores nocturnos, ya que así se podía mantener una vigilancia continua durante la noche. También hay quienes despiertan a mitad de la noche y pueden permanecer hasta una hora haciendo algo antes de volver a la cama y seguir durmiendo. Al parecer, en el pasado, no era nada extraño permanecer despierto durante un buen rato, y, en ese periodo, hablaban, trabajaban, tenían sexo o rezaban.
En definitiva, no parece que haya tiempos y pautas de sueño de obligado cumplimiento, si bien es cierto que los comportamientos extremos suelen ir acompañados de malas condiciones de salud y que la privación severa de sueño es causa de accidentes, por falta de atención, y de un buen número de afecciones.
Fuente: Daniel Lieberman (2020): Exercised. The Science of Physical Activity, Rest and Health. Allen Lane (Penguin).
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Ocho horas para trabajar, ocho para descansar y ocho para lo que nos parezca se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- No duermas, hay leones
- En busca del día de 27 horas
- El ácido hialurónico no sirve para todo, aunque lo parezca
Amanda Sierra – Naukas Pro 2019: Carroñeros del cerebro

Las neuronas están tan especializadas que son tontas. Para todo lo demás necesitan a las células glía. Amanda Sierra nos habla en esta charla de un tipo de glías, las microglías, los carroñeros del cerebro.
Amanda Sierra es doctora en neurociencias (UCM, 2003) y lidera el laboratorio de biología de las células glía del Achucarro Basque Center for Neuroscience.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Amanda Sierra – Naukas Pro 2019: Carroñeros del cerebro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Más allá de las neuronas
- Nuevas tecnologías para el estudio del cerebro: Desde Cajal a nuestros días
- Javier Armentia – Naukas P4K 2019: La vie en rose (ciencia y sociedad de un color muy suyo)
La diversidad de los bosques no basta ante la sequía
Los árboles de especies diferentes suelen competir menos entre sí en la utilización de recursos en los bosques. Por eso, la diversidad en los bosques puede generar un efecto beneficioso en la estabilidad de su productividad ante cambios en el clima. Sin embargo, ¿esa solución funciona siempre? Un equipo de investigación ha corroborado ese efecto beneficioso en la productividad, aunque ante eventos meteorológicos extremos, como grandes sequías, no se observa esa mejoría.

Aumentar la diversidad de árboles en los bosques mejora la productividad ante variaciones en el clima, aunque en el caso de eventos extremos, como las sequías severas, no aumentan la resiliencia, según una investigación de la Universidad Complutense de Madrid, la Universidad del País Vasco/Euskal Herriko Unibertsitatea, la Universidad Autónoma de Madrid y la Universidad de Alcalá.
Los resultados advierten que, en un contexto de aumento de la aridez y de la frecuencia de eventos extremos, las medidas de adaptación como el aumento de la diversidad podrían no ser suficientes para paliar las consecuencias del cambio climático.
Los individuos de especies arbóreas diferentes suelen usar los recursos de forma distinta, por lo que compiten menos entre sí que si fuesen todos de la misma especie. Por eso, aumentar la diversidad en los bosques mejoraría su productividad gracias a un crecimiento más estable a las fluctuaciones ambientales. Sin embargo, se desconocía si la mezcla de distintas especies también era tan beneficiosa en bosques con limitaciones hídricas, como los mediterráneos, y en respuesta a eventos extremos.
“Nuestro estudio demuestra que la relación biodiversidad-productividad en ecosistemas forestales mediterráneos está relacionada con un aumento de la estabilidad del crecimiento, pero en respuesta a eventos extremos el efecto positivo de la diversidad parece quedar diluido por la propia sensibilidad de las especies al estrés hídrico y a la competencia”, explica Enrique Andivia, investigador del Departamento de Biodiversidad, Ecología y Evolución de la Universidad Complutense de Madrid.
Para llevar a cabo el estudio, los investigadores han analizado individuos de pinos y robles, tanto en masas mixtas de ambas especies como en masas sin mezclar, en la Sierra de Guadarrama (Madrid). “Esta sierra es un excelente caso, ya que las áreas montañosas mediterráneas son puntos calientes para el estudio de las consecuencias del cambio climático sobre la dinámica de las comunidades vegetales”, explica Andivia.
Aplicando técnicas dendrocronológicas – el estudio de los anillos de los árboles- se ha reconstruido el crecimiento de 120 árboles a lo largo de su vida, centrándose sobre todo en los últimos 60 años, donde cuantificaron la respuesta del crecimiento a diferentes eventos de sequía extrema.
De esa forma se ha demostrado la complejidad de las relaciones positivas y de competencia entre especies, que pueden variar según las fluctuaciones del clima. “Estos resultados tienen importantes implicaciones para la gestión forestal, en concreto para la adaptación de nuestros bosques al cambio climático”, concluye el investigador Asier Herrero, del Departamento de Biología Vegetal y Ecología de la Universidad del País Vasco.
Referencia:
Francisco J. Muñoz-Gálvez, Asier Herrero, M. Esther Pérez-Corona y Enrique Andivia (2021) Are pine-oak mixed stands in Mediterranean mountains more resilient to drought than their monospecific counterparts? Forest Ecology and Management doi: 10.1016/j.foreco.2021.118955
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La diversidad de los bosques no basta ante la sequía se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Diversidad religiosa y el estrés de las enfermedades infecciosas
- La degradación de los bosques caducifolios y el murciélago de Bechstein
- La humanidad ante su propia extinción
La historia de June Almeida
cita en el microscopio
muestra su halo.»
Laura Morrón Ruiz de Gordejuela, A hombros de Gigantas

La rusa Julia Lermontova (1847-1919), quien acabaría siendo la primera doctora en química de la historia, hubo de salir de Rusia para poder estudiar una carrera científica. Recaló en Berlín donde, a pesar de haber sido reconocida como una científica brillante, no se le permitió asistir a clase ni trabajar en los laboratorios por ser mujer. Estudió de forma privada y finalmente pudo defender su tesis doctoral.
A la palentina Trinidad Arroyo Villaverde (1872-1959) el rector de Valladolid no le permitió matricularse para estudiar medicina, a pesar de estar permitido por ley. Tras recurrir su padre a los tribunales lo consiguió, y acabó doctorándose en Madrid.
La letona Lina Stern (1878-1953) hubo de emigrar a Suiza para cursar estudios universitarios por su condición de judía. En 1939 entró en la Academia de Ciencias de la URSS; fue la primera mujer que lo consiguió. Gracias a su trabajo se salvaron miles de vidas de combatientes soviéticos en la II Guerra Mundial. Su origen judío no dejó de representar un gran obstáculo para ella; fue encarcelada durante tres años y torturada en varias ocasiones. No obstante, consiguió sobrevivir y tras ser desterrada a Siberia y, más adelante, volver a Moscú, prosiguió su actividad científica.
La rumana Elisa Leonida Zamfirescu (1887-1973) tuvo que salir de su país y desplazarse a Alemania para estudiar ingeniería. Consiguió, no sin dificultad, ser aceptada en la Universidad Técnica de Berlín. En 1912 se graduó con honores, siendo denominada por el decano como “la más diligente de los diligentes”. Ella fue una de las primeras mujeres ingenieras reconocidas de la historia.
June Almeida (1930-2007), la científica que protagoniza la historia plasmada en el vídeo que publicamos hoy, acabó haciendo contribuciones significativas al conocimiento científico, a pesar de las dificultades que hubo de superar. Hemos escogido la biografía de June Almeida por razones que resultarán evidentes tras conocerla, pero ella, junto con Lermontova, Arroyo Villaverde, Stern, o Zamfirescu, son solo algunas de las mujeres que han destacado como científicas a pesar de los obstáculos a los que se enfrentaron y superaron.
Nos sumamos hoy, como cada año, a la celebración del Día Internacional de la Mujer y la Niña en la Ciencia con la producción del vídeo “La historia de June Almeida” que sigue a estas líneas. Las mujeres citadas aquí y otras muchas -de cuyas vidas se puede tener conocimiento en Vidas científicas (en castellano) y en Emakumeak Zientzian (en euskara)- han realizado contribuciones muy significativas al conocimiento científico de la Humanidad. Son, por esa razón figuras inspiradoras para quienes consideran la posibilidad de dedicarse profesionalmente a la ciencia o, incluso, ya han iniciado ese camino.
Entre nosotros, el acceso de las mujeres a una carrera científica es cada vez más equiparable al de los hombres (no así a las ingenierías), aunque todavía en muchos países las mujeres lo tienen más difícil. Pero aunque hay cada vez menos obstáculos para que las mujeres hagan una carrera profesional en ciencia, su progresión hasta los más altos niveles del escalafón sigue estando limitada, como muestra la proporción entre hombres y mujeres en las posiciones de mayor responsabilidad y relevancia.
Las trayectorias vitales reseñadas más arriba son ejemplos de especial desempeño y superación. Pero por muy ejemplares que sean los logros de esas mujeres, de lo que se trata, precisamente, es de que una carrera científica no exija superar obstáculos de especial dificultad, sino que hombres y mujeres se encuentren con las mismas facilidades o dificultades en sus carreras profesionales. En otras palabras, se trata de que hombres y mujeres cuenten con los mismos derechos y oportunidades, de manera que ni unos ni otras deban experimentar su profesión como si de una travesía heroica se tratase.
La Cátedra de Cultura Científica de la UPV/EHU se suma, con la producción de “La historia de June Almeida”, a una celebración necesaria, porque estamos comprometidos con el objetivo de que todas las personas tengan las mismas posibilidades de disfrutar del derecho a la ciencia, incluyendo el pleno acceso a su desempeño profesional en todos sus niveles. Y por esa razón, además de la celebración anual del 11 de febrero, publicamos, desde mayo de 2014, Mujeres con Ciencia, porque cada uno de los 365 días del año son para la Cátedra días de la mujer y la niña en la ciencia.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
Más sobre el 11 de febrero- Juan Ignacio Pérez, Hoy es el día de la mujer y la niña en la ciencia, todos lo son, 11 febrero 2017.
- Juan Ignacio Pérez, No es una percepción, 11 febrero 2018.
- Juan Ignacio Pérez, Mi hija quiere ser ingeniera, 11 febrero 2019.
- Juan Ignacio Pérez, Motivos para un día internacional, 11 de febrero 2020.
El artículo La historia de June Almeida se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Motivos para un día internacional
- Hoy es el día de la mujer y la niña en la ciencia, todos lo son
- Historia del daltonismo
La teoría de grupos en el arte contemporáneo: John Ernest
Una de mis pasiones, como ha quedado reflejado en muchas de mis entradas del Cuaderno de Cultura Científica, es el arte contemporáneo y, en particular, su relación con las matemáticas.
Durante todos estos años, he escrito sobre el teorema de Pitágoras en la obra de muchos artistas contemporáneos (véase la entrada El teorema de Pitágoras en el arte), sobre cómo algunos artistas han utilizado los números primos para generar piezas artísticas (véanse las entradas El poema de los números primos y El poema de los números primos (2) sobre la obra de la artista donostiarra Esther Ferrer, o Los ritmos primos de Anthony Hill, sobre una obra del artista británico Anthony Hill), de la inspiración artística de un rompecabezas geométrico como el tangram (véase El arte contemporáneo mira al tangram), sobre la utilización de la superficie de una sola cara conocida como banda de Moebius (véase Arte Moebius (I) y Arte Moebius (II)), de la normalidad del número pi en la obra Pi (2009-2010), de la artista Esther Ferrer (véase ¿Es normal el número pi?), entre otros conceptos, objetos y resultados matemáticos.
En esta entrada estamos interesados en cómo algunos conceptos matemáticos abstractos, como es el concepto de grupo abstracto y, relacionado con el mismo, el concepto de cuadrado latino, son una interesante herramienta de creación artística en el arte contemporáneo. Esto ya lo pusimos de manifiesto en la entrada Cuadrados latinos, matemáticas y arte abstracto, en la que hablamos de uno de los artistas cuyo arte se enmarca dentro del constructivismo y el arte concreto, el pintor y artista gráfico suizo Richard Paul Lohse (1902-1988).

Un bonito ejemplo es la obra del artista constructivista estadounidense John Ernest (1922-1994), titulada Iconic Group Table, de alrededor de 1978, que vamos a explicar a lo largo de esta entrada.
Vayamos por partes. Primero recordemos los conceptos matemáticos relacionados con esta obra, en particular, el concepto de grupo abstracto.
Un grupo es un conjunto, llamémosle G, con una operación *, de modo que a partir de dos elementos a y b del conjunto G, nos da un nuevo elemento, a * b, del conjunto G, y tal que dicha operación verifica una serie de axiomas:
i) propiedad asociativa, a * (b * c) = (a * b) * c, para todos los elementos a, b y c de G;
ii) elemento identidad, existe un elemento e de G tal que a * e = a = e * a;
iii) elemento inverso, para cada elemento a de G, existe un elemento b (llamado inverso, y que suele denotarse como a–1) tal que a * b = e = b * a. Los grupos son abelianos si se cumple la propiedad conmutativa, es decir, si para cualesquiera elementos a y b de G, a * b = b * a, pero no todos los grupos son abelianos.
Dos ejemplos cotidianos de grupos, en el sentido de que los manejamos en nuestro día a día, son los números enteros Z con la operación suma +, o los números reales R con la operación producto x.
El matemático inglés Arthur Cayley (1821-1895), del que se puede leer en el libro Cayley, el origen del álgebra moderna (RBA, 2017), describía la estructura de los grupos finitos (es decir, con un número finito de elementos) mediante la tabla de los productos de los elementos del grupo, la llamada tabla de Cayley, en la que se colocan a la izquierda y arriba de la tabla los elementos del grupo y en las casillas correspondientes (como en el juego de los barcos) se sitúa el producto de los mismos.

Veamos, por ejemplo, la tabla de Cayley de un grupo finito de seis elementos.

La tabla de Cayley de un grupo de n elementos realmente sería la tabla de tamaño n x n con todos los productos posibles entre los elementos del grupo, sin tener en cuenta ni la primera fila (por arriba), ni la primera columna (por la izquierda), que ya aparecen en la tabla interior en la fila y columna correspondientes al elemento identidad (en el ejemplo anterior tenemos una tabla 6 x 6, donde la primera fila y columna se corresponden efectivamente con el elemento identidad 1).
Aunque el ejemplo de grupo abstracto que genera la obra Iconic Group Table es muy interesante e ilustrativo, como puede verse más abajo.
A continuación, recordemos el concepto de cuadrado latino. Un cuadrado latino de orden n es un retículo cuadrado de tamaño n x n en el que cada entrada es un número del 1 al n (aunque bien podrían considerarse n símbolos cualesquiera, por ejemplo, las letras del alfabeto latino que utilizó el matemático suizo Leonhard Euler o los colores utilizados por Lohse), de tal forma que cada número de {1,…, n} aparece una vez, y sólo una vez, en cada fila y cada columna.

Las propiedades del grupo abstracto hacen que la tabla de Cayley de los grupos finitos sean cuadrados latinos de orden igual al número de elementos del grupo. La explicación matemática es esta: si G = {g1, g2,…,gn} y si en una fila, por ejemplo, la del producto del elemento gk apareciese un mismo elemento en dos entradas (que es lo que ocurriría si no fuese un cuadrado latino), entonces existirían dos elementos distintos del grupo, gi y gj, tal que gk * gi = gk *gj (los valores de las dos entradas), y multiplicando por la izquierda por el inverso de gk, tendríamos que gi = gj, lo cual no es posible ya que los elementos gi y gj son distintos. Y lo mismo para las columnas.
Por ejemplo, el cuadrado latino de la imagen anterior es el que se corresponde con el grupo de seis elementos que habíamos mostrado más arriba, donde el 1 es la unidad (1) del grupo, el 2 es el elemento α, el 3 es el elemento β, el 4 es el γ, el 5 es el elemento δ y el 6 es el elemento ε. De esta forma la tabla de Cayley del grupo de seis elementos es exactamente el cuadrado latino mostrado, como puede observarse.
Pero vayamos ya con la parte artística de esta entrada del Cuaderno de Cultura Científica, la obra titulada Iconic Group Table, de John Ernest, y su relación con la teoría de grupos.

John Ernest (1922-1994) fue un artista estadounidense afincado en Inglaterra desde 1951. Se convirtió en miembro del grupo de los constructivistas británicos (también conocidos como construccionistas) junto a artistas como Victor Pasmore, Kenneth Martin, Mary Martin, Anthony Hill, Stephen Gilbert y Gilliam Wise, y posteriormente, estuvo relacionado con el Grupo Sistemas –Systems group–, interesado en formas de arte sistemáticas y matemáticas.
En un artículo de 1961 para la revista Structure, John Ernest escribió algo así:
“Supongo que estoy tratando de conseguir parte de la belleza de un sistema matemático formal en una experiencia visual, porque es este tipo de belleza en las matemáticas –donde la hermosa maquinaria abstracta entra en acción– lo que me conmueve más profundamente”.

O también, en el catálogo de la exposición Four Artists Reliefs, Constructions and Drawings, que tuvo lugar en el Victoria and Albert Museum de Londres, en 1968, escribió:
“Me gusta hacer cosas en las cuales los elementos sean distintos y en las que cada decisión sea segura e inequívoca. Mis elementos son cuadrados, triángulos, líneas y otras formas simples. Sus propiedades de color y distintas cualidades de superficies, junto con otras cuestiones como los niveles de relieve, la distancia entre los elementos, etc. constituyen mi paleta. Principalmente trabajo combinando estos elementos – tanto de forma material o en mi mente. Yo organizo y reorganizo mis elementos básicos hasta que haber configurado un montaje que me complazca o que satisfaga mis condiciones previas de trabajo.
Dos intereses principales subyacen en mi trabajo. Uno es el medio físico del relieve mismo y el otro es mi interés por las estructuras matemáticas. Pueden ser fundamentalmente diferentes, pero no son incompatibles. Me parece a mí que la separabilidad de las partes del relieve proporciona una contraparte física a los conjuntos de elementos de un sistema matemático. Sin embargo, los dos intereses rara vez se equilibran en una sola obra. Los relieves que tengo en esta exposición muestran un sesgo hacia la explotación de propiedades físicas (la excepción es el “relieve lineal 1” que intenta ser ingenioso sobre la reflexión bilateral). Los dibujos están estructurados de manera más rigurosa y originalmente se diseñaron como análogos visuales de tablas de grupos particulares.”
Como decíamos al principio de esta entrada, la obra de John Ernest que nos interesa es Iconic Group Table, de alrededor de 1978, que es un ejemplo contundente del uso del concepto de grupo abstracto como herramienta de creación artística.

La parte elevada y destacada de la pieza, que es de un tamaño importante, recuerda a un tablero de ajedrez de tamaño 8 x 8. Y es precisamente ese tablero central el que ilustra una tabla de Cayley de un cierto grupo abstracto con ocho elementos, que mostraremos a continuación, con una operación de grupo que es la “diferencia simétrica” de la teoría de conjuntos.
Para empezar, mostremos los ocho elementos que componen este grupo, que son ocho elementos geométricos, los ocho cuadrados siguientes, de base blanca con un trazado geométrico negro dentro. En realidad, John Ernest utilizó trazos curvos, mientras que yo he considerado trazos rectos en esta reproducción de sus elementos.

La operación es la diferencia simétrica de la teoría de conjuntos. La diferencia simétrica de dos conjuntos es la unión de los conjuntos menos su intersección. Es decir, dados dos conjuntos A y B, su diferencia simétrica es A ∪ B – A ∩ B. Si tenemos en cuenta que la zona negra de cada diseño es “nuestro conjunto” en cada elemento, veamos cómo se realiza la diferencia simétrica en dos casos distintos.
Por lo tanto, la tabla de Cayley para el grupo formado por los anteriores ocho elementos (a, b, c, d, e, f, g, h), con la operación diferencia simétrica es la siguiente.

El elemento d es la identidad del grupo (a x d = a, b x d = b, …) y todos los elementos del grupo son de orden 2, es decir, multiplicados por sí mismos da la identidad (a x a = d, b x b = d, …).
La parte que representa el artista John Ernest en esta obra es la tabla de Cayley, es decir, la 8 x 8 correspondiente a las operaciones del grupo. Aunque ha cambiado el orden de las filas como aparece indicado en la siguiente imagen.
Podéis comprobar que la obra Iconic Group Table se corresponde con la tabla de Cayley de la estructura de grupo abstracto que hemos definido arriba, pero con el cambio en el orden de las filas que acabamos de indicar.
Para terminar con esta estructura, podríamos dar el cuadrado latino asociado a la tabla de Cayley de este grupo abstracto. Para empezar, quedémonos con la parte correspondiente a los resultados de los productos entre los elementos del grupo, es decir, la tabla 8 x 8, y pintemos las casillas de colores en función del elemento que está en la misma.
Y, por último, sustituyamos las letras por números: a es 1 (amarillo), b es 2 (naranja), c es 3 (rojo), d es 4 (violeta), e es 5 (azul), f es 6 (verde oscuro), g es 7 (verde claro) y h es 8 (rosa). Es un cuadrado latino de orden 8.
Otra obra de John Ernest con una construcción similar es Borromean rings (1971).

Cerramos esta entrada del Cuaderno de Cultura Científica con un par de obras más del artista John Ernest.


Bibliografía
1.- Raúl Ibáñez, Cayley, el origen del algebra moderna, RBA, 2017.
2.- Paul Ernest, John Ernest, A Mathematical Artist, Philosophy of Mathematical Education Journal, Number 24, 2009.
3.- Alan Fowler, A Rational Aesthetic, Philosophy of Mathematical Education Journal, Number 24, 2009.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La teoría de grupos en el arte contemporáneo: John Ernest se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El arte contemporáneo que mira al Tangram
- John Rainwater no existe
- Pál Turán: teoría de grafos y fábricas de ladrillos
Fisión nuclear (3): más neutrones

Poco después de que Lise Meitner y Otto R. Frisch sugiriesen que el neutrón incidente provoca una desintegración del núcleo de uranio en «dos núcleos de aproximadamente el mismo tamaño», se descubrió que los elementos transuránidos también pueden formarse cuando el uranio se bombardea con neutrones. En otras palabras, la captura de un neutrón por el uranio a veces conduce a la fisión y otras veces a la desintegración beta. La desintegración beta da como resultado la formación de isótopos de los elementos de número atómico 93 y 94, posteriormente denominados neptunio y plutonio [1]. La presencia de ambos tipos de reacción, fisión y captura de neutrones seguidos de desintegración beta, había sido la responsable de la anterior dificultad y confusión en el análisis de los efectos de los neutrones sobre la diana de uranio.
La interpretación de los experimentos abrió dos nuevos campos de actividad científica: la física y la química de los elementos transuránidos y el estudio de la fisión nuclear en sí. El descubrimiento de la fisión nuclear llevó a que se investigase sobre ella en todo el mundo, y se obtuvo mucha información nueva en poco tiempo.
Se descubrió que el núcleo de uranio, después de capturar un neutrón, puede dividirse en uno cualquiera de más de 40 pares de fragmentos diferentes. El análisis radioquímico mostró que los nucleidos resultantes de la fisión tienen números atómicos entre 30 y 63 y números de masa entre 72 y 158. Sin embargo, los nucleidos de masa media no son los únicos productos de la fisión. En un hallazgo que resultó tener una importancia extraordinaria, también se descubrió que en la fisión también se producen neutrones; el número medio de neutrones emitidos suele estar entre dos y tres por núcleo fisionado. La siguiente reacción indica solo una de las muchas formas en que se puede dividir un núcleo de uranio.
El bario-141 y el kripton-92 no son nucleidos «naturales» y no son estables; son radiactivos y se desintegran por emisión beta. Por ejemplo, el bario-141 puede descomponerse en praseodimio-141 por la emisión sucesiva de tres partículas beta, como se muestra en el siguiente esquema (los números entre paréntesis son los periodos de semidesintegración):

De manera similar, el kripton-92 se transforma en circonio-92 mediante cuatro desintegraciones beta sucesivas.
Se descubrió también que solo ciertos nucleidos son fisionables. Para estos, la probabilidad de que un núcleo se rompa cuando se bombardea con neutrones depende de la energía de los neutrones utilizados. Los nucleidos uranio-235 y plutonio-239 pueden fisionarse cuando se bombardean con neutrones de cualquier energía, incluso de 0,01 eV o incluso menos. Por otro lado, el uranio-238 y el torio-232 se fisionan solo cuando se emplean neutrones con energías cinéticas de 1 MeV o más.
La energía liberada en la fisión de un núcleo pesado es de unos 200 MeV. Este valor se puede calcular comparando masas atómicas en reposo de reactivos y productos [2]. La liberación de energía en la fisión por átomo es más de un millón de veces mayor que en las reacciones químicas, y más de 20 veces mayor que en las reacciones nucleares más comunes, donde suele ser inferior a 10 MeV.
Hubo un resultado mucho más importante y trascendente para todas las personas que tuvieron conocimiento del mismo: en condiciones apropiadas, los neutrones liberados en la fisión pueden, a su vez, causar la fisión en átomos de uranio vecinos y, por lo tanto, en una muestra de uranio puede desarrollarse un proceso conocido como reacción en cadena. La combinación de una gran liberación de energía y la posibilidad de una reacción en cadena en los procesos de fisión es la base del uso civil y militar de la energía nuclear.
Notas:
[1] En honor a los dos planetas del sistema solar más allá de Urano.
[2] O de la curva de la energía de enlace nuclear por nucleón que vimos aquí.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Fisión nuclear (3): más neutrones se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Fisión nuclear (2): el núcleo se parte en dos
- Fisión nuclear (1): los elementos transuránidos
- Energía de enlace nuclear y estabilidad
Bioplásticos, no todos son biodegradables
Jon Kepa Izaguirre Campoverde

Según la Asociación Europea de Bioplásticos (European Bioplastics e.V.), bioplástico es un término genérico que describe tanto los plásticos de origen renovable, es decir de base biológica, como los que tienen la propiedad de ser biodegradables (incluidos los derivados del petróleo).
La biodegradabilidad no depende del tipo de materia prima utilizada para su fabricación, sino que está vinculada a la estructura química del compuesto, además llevar la etiqueta de bioplástico no siempre implica ser biodegradable. De hecho, no todos los plásticos procedentes de fuentes renovables son biodegradables, así como no todos los plásticos derivados de fuentes no renovables son persistentes. En este sentido, los bioplásticos son una familia de materiales poliméricos que tienen base biológica, son biodegradables o cumplen ambas características (Pathak et al., 2017), (Figura 2).

La mayor ventaja de los bioplásticos biodegradables es que tras su utilización (fin de vida) se descomponen en un tiempo relativamente corto, lo cual reduce enormemente su impacto ambiental. Otra gran ventaja es que, si se fabrican a partir de recursos naturales renovables, como por ejemplo residuos orgánicos, es posible transformar ese residuo en un recurso y al mismo tiempo evitar su acumulación en vertederos o directamente en la naturaleza (Matsakas et al., 2017).
Por otra parte, los bioplásticos no biodegradables como el polietileno, el polipropileno y el cloruro de polivinilo se fabrican a partir de fuentes renovables como el bio-etanol o el bio-isobutanol. Estos materiales, no biodegradables y de base biológica, son iguales que los fabricados a partir de fuentes no renovables y por esa razón la gestión de los residuos generados al final de su vida útil es idéntica (Sidek et al., 2019). Sin embargo, hay dos diferencias fundamentales entre los bioplásticos no biodegradables y los plásticos convencionales. La primera de ellas es que la fabricación de los plásticos convencionales es mucho más barata porque la industria del plástico lleva décadas produciendo estos materiales, tiene un mercado más amplio y su capacidad de producción es mayor. La segunda está relacionada con el impacto ambiental, y es que el impacto ocasionado durante la fabricación de los bioplásticos es menor, ya que o su origen es renovable o son biodegradables (Ross et al., 2017).
Es evidente que los bioplásticos aportan beneficios a la economía y al medio ambiente. Su fabricación a partir de recursos renovables promueve la sostenibilidad, reduciendo la acumulación de residuos, limitando la huella de carbono y disminuyendo la dependencia de combustibles fósiles (Kaur et al., 2018). Lo cual se alinea con los fundamentos de la economía circular y la iniciativa de Objetivos de Desarrollo Sostenible (ODS) impulsada por la Organización de las Naciones Unidas (ONU) (Karan et al., 2019). La conciencia creada con los bioplásticos junto con las nuevas normativas está impulsando el crecimiento de esta industria, y se espera que en los próximos años la producción mundial de estos materiales crezca considerablemente (“European Bioplastics,” 2019).
Referencias:
European Bioplastics [WWW Document], 2019.
Karan, H., Funk, C., Grabert, M., Oey, M., Hankamer, B., 2019. Green Bioplastics as Part of a Circular Bioeconomy. Trends Plant Sci. 24, 237–249.
Kaur, G., Uisan, K., Ong, K.L., Ki Lin, C.S., 2018. Recent Trends in Green and Sustainable Chemistry & Waste Valorisation: Rethinking Plastics in a circular economy. Curr. Opin. Green Sustain. Chem. 9, 30–39.
Matsakas, L., Gao, Q., Jansson, S., Rova, U., Christakopoulos, P., 2017. Green conversion of municipal solid wastes into fuels and chemicals. Electron. J. Biotechnol. 26, 69–83.
Pathak, S., Sneha, C., Mathew, B. B., 2014. Bioplastics: Its Timeline Based Scenario and challenges. Journal of Polymer and Biopolymer Physics Chemistry. Vol. 2, no. 4: 84-90.
Ross, G., Ross, S., Tighe, B.J., 2017. Bioplastics: New Routes, New Products, Brydson’s Plastics Materials: Eighth Edition. Elsevier Ltd.
Sidek, I.S., Draman, S.F.S., Abdullah, S.R.S., Anuar, N., 2019. Current Development on Bioplastics and Its Future Prospects: an Introductory Review. INWASCON Technol. Mag. 1, 03–08.
Sobre el autor: Jon Kepa Izaguirre Campoverde es doctor en química por la UPV/EHU
El artículo Bioplásticos, no todos son biodegradables se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Y si convertimos a las plantas en fábricas de plásticos?
- Todos los rojos son chillones
- Activo, sostenible y biodegradable: El envase del futuro ya está aquí.
El misterioso caso del chuletón de mamut
El 13 de enero de 1951, el Club de Exploradores de Nueva York celebró su 47ª Cena Anual en el Hotel Roosevelt de esa ciudad. Esta organización reúne a investigadores de campo, a exploradores a la antigua, de los que buscan, recorren y estudian los lugares más desconocidos e inhóspitos del planeta. Si quieren conocer más sobre este Club vayan a su página web, merece la pena.
En esa 47ª Cena de 1951, el menú incluía, entre otras delicatesen gastronómicas, carne de mamut. Por cierto, no he conseguido averiguar la receta y, por eso, me he imaginado que sería un chuletón. Deseos personales, más que nada. En fin, según recuerdan Jessica Glass y su grupo, de la Universidad de Yale, la carne prehistórica se dijo que venía de un mamut encontrado en la isla Akutan, en Alaska, y lo habían descubierto dos miembros del Club: el padre Bernard de Rosencras Hubbard, conocido como el “Padre Glaciar”, jesuita y profesor de la Universidad de Santa Clara que, por cierto, está en Silicon Valley, California; y el capitán George Francis Kosco, de la Armada de Estados Unidos.
Varios periódicos difundieron el extraordinario menú y esa carne, miles de años congelada, capturó la imaginación del público y se convirtió en una leyenda que, todavía hoy, llena de orgullo al Club de Exploradores.

Toda esta historia podía haber quedado en una anécdota más bien chistosa y poco creíble pero Jessica Glass descubrió que una muestra de aquella carne, después de muchas vueltas, acabó depositada en el Museo Peabody de Historia Natural de la Universidad de Yale, su propia universidad. La guardó el empresario y comandante Wendell Phillips Dodge y se la entregó a Paul Griswold Howes, Conservador del Museo Bruce, de Greenwich, en Connecticut, que tenía que haber participado en la cena y no pudo por otros compromisos. Quizá Dodge pensaba que Howes quería probar la carne pero lo que hizo el Conservador del Museo fue ponerla en líquido fijador y depositarla en el Museo.
Y ahora encontramos otra de las incógnitas de la famosa cena. Howes escribió en la etiqueta que la carne era de Megatherium, el perezoso gigante de Sudamérica que se extinguió hace unos 10000 años, más o menos a la vez que los mamuts. La carne podía haber sido de mamut, aunque luego volveré sobre ello, pues se decía que procedía de Alaska y en Norteamérica hay restos del mamut Mammuthus primigenius; al Megatherium solo se le conoce de Sudamérica. Sería una sorpresa para los paleontólogos que apareciera en Alaska, en la isla Akutan, según aseguran las crónicas de aquella controvertida cena. No hay que olvidar que un magnífico ejemplar de megaterio se exhibe en el Museo Nacional de Historia Natural de Madrid, recibido directamente de Argentina a finales del siglo XVIII.
Pero fue el comandante Dodge el que, en la revista del Club de Exploradores, aclaró que todo había sido una broma. Aseguraba que había descubierto una “poción milagrosa” que transformaba una tortuga marina del género Chelonia, procedente del Océano Índico, en un perezoso gigante de las Aleutianas, en Alaska. Era la especie de tortuga marina Chelonia mydas, especie en peligro de extinción e ingrediente principal de la sopa de tortuga que, por cierto, también se incluía en aquel menú de 1951.
Cuando, entre otros medios de comunicación, el The Christian Science Monitor dio la noticia de la cena transformó el perezoso gigante en un mamut, lo que cautivó a los lectores, se extendió la noticia y así ha llegado hasta nosotros. Muchos años más tarde, en 2016, el periódico rectificó la noticia publicada en 1951.

Pero aquel trozo de carne, supuestamente de perezoso gigante, que guardó el comandante Dodge y entregó al Conservador Howes que, a su vez, lo depositó en el Museo Bruce, acabó en el Museo Peabody de la Universidad de Yale donde Jessica Glass y su grupo lo localizaron en 2014. Decidieron hacer una análisis de ADN para ver si era posible aclarar de qué animal procedía. El resultado apoya el escrito del comandante Dodge cuando confesó que la carne pertenecía a la tortuga marina Chelonia mydas. Y tortuga fue lo que cenaron aquella noche los miembros del Club de Exploradores de Nueva York.
Volvamos a los mamuts y su extinción. Son animales míticos que, desaparecidos hace unos 10000 años, es la especie más mencionada en una nueva línea de investigación que propone, con las técnicas que ahora conocemos de clonación y análisis de ADN, recuperar especies extinguidas. Por cierto, hay expertos que han calculado que unos 150 millones de mamuts pueden estar congelados y enterrados en la tundra de Siberia. Suponen una gran cantidad de material para obtener datos y facilitar la recuperación de la especie. Es lo que se llama des-extinción, en traducción directa y sencilla del térmico en inglés “de-extinction”. Se define como “el proceso para resucitar especies extinguidas”, tal como proponen Douglas McCauley y su grupo, de la Universidad de California en Santa Barbara.
No falta mucho para que esta des-extinción sea posible técnicamente, y así pasar de la ciencia ficción a la ciencia, pero los expertos se preguntan cómo elegir las especies a recuperar. Cuando McCauley revisa lo publicado hasta ahora, encuentra que las propuestas son, en general, referidas a animales, con solo el 3% proponiendo plantas. Entre las especies animales las propuestas son para animales grandes, con el 6% para mariposas y moluscos y, claro está, el 48% mencionan al mamut. No es un objetivo prioritario de la des-extinción recuperar el mamut para degustar su, seguramente, enorme y exquisito chuletón, pero, por favor, no me lo discutan, es una idea demasiado atractiva como para ignorarla. Idea “sexy”, afirmaría Philip Seddon, de la Universidad de Otago, en Nueva Zelanda, en su escrito sobre la ecología de la des-extinción.
En una revisión más reciente sobre des-extinciones, publicada en 2018 por Ben Novak, de la Universidad Monash de Clayton, en Australia, se enumeran los proyectos que ahora están en marcha, aunque no hay muchas noticias sobre los resultados que se han obtenido hasta este momento. Los proyectos son siete y las técnicas más utilizadas son la clonación o los cruces controlados de variedades actuales para obtener características de las especies originales. Las especies que se busca des-extinguir son la cebra quagga, el uro, la tortuga gigante de la isla Floreana de las Galápagos, la paloma viajera de Norteamérica, el mamut lanudo, el gallo grande las praderas de Norteamérica y el moa de Nueva Zelanda.
El grupo de McCauley plantea la importancia de las consecuencia ecológicas de volver a colocar en el entorno especies que ya no están. Deben ser especies extinguidas, pero no desde hace mucho tiempo, para que el ambiente no haya cambiado demasiado, y, también, especies que puedan recuperar con rapidez los niveles de población que tenían antes de la extinción para que sus funciones en la ecología de la zona sea lo más parecidas a las originales.
Es evidente, como dice Philip Seddon, que pueden adaptarse mal a los entornos actuales que, es seguro, han cambiado de lo que eran en su época. No hay que olvidar la Hipótesis de la Reina Roja (Alicia a través del espejo, Lewis Carroll): hay que cambiar constantemente para permanecer en el mismo sitio pues este, en la historia de nuestro planeta, ya ha cambiado. Una especie extinguida es como si hubiera quedado detenida en su tiempo y, si se la des-extingue, llegará a un entorno diferente al que, quizá, no consiga adaptarse.
De todas maneras, algo se está haciendo para recuperar al mamut. El grupo de Hiromi Kato, de la Universidad Kinki, de Japón, ha hecho un primer intento utilizando la misma técnica que permitió la clonación de la oveja Dolly. Recuperaron núcleos de células de la piel y musculares de un mamut que había permanecido congelado unos 15000 años. Inyectan esos núcleos en óvulos de ratón de laboratorio a los que han retirado su núcleo y observan si los óvulos inician el desarrollo de estructuras que lleven a la división y a la formación de un embrión que, en su caso, será de mamut. Entre el 55% y el 67% de los óvulos trasplantados sobreviven pero ninguno inicia el proceso de formación del embrión. Un resultado negativo que ayuda a proponer hipótesis para solucionar este primer paso, aunque es un resultado muy interesante que se hayan conservado núcleos congelados durante 15000 años.

Nuevos datos llegan desde la Universidad Kindai, en el Japón, y del grupo liderado por Kazuo Yamagata. Han utilizado tejido de un mamut congelado hace 28000 años en Siberia, al que han nombrado Yuka. Es músculo del que aíslan núcleos celulares con su genoma y los trasplantan a ovocitos de ratón. Detectan, por microscopía, como los ovocitos con núcleos de mamut se activan y comienzan los procesos habituales para dividirse. Sin embargo, los autores no confirman la formación de nuevas células. Es un método nuevo para evaluar la actividad biológica de núcleos celulares en especies extinguidas.
También empezamos a conocer el genoma del mamut. Webb Miller y sus colegas, de la Universidad del Estado de Pennsylvania, han secuenciado el ADN de dos mamuts que llevaban 18500 años congelados. Los primeros datos son prometedores y muestran, como se suponía, un origen cercano entre el mamut y el elefante africano lo que ha llevado a proponer que la técnica de trasplante de núcleos que utilizó Kato se debería aplicar sobre óvulos de elefante, no de ratón de laboratorio.
Hace unos años, en 2015, Beth Shapiro, de la Universidad de California en Santa Cruz, comunicó que el grupo de George Church, de la Universidad de Harvard, había conseguido insertar fragmentos de ADN de mamut en el genoma del elefante asiático, su pariente evolutivo vivo más cercano. Este resultado abre una nueva vía para la des-extinción de especies. Solo hay que recordar que en la película Jurassic Park se completaba el genoma de dinosaurios con el de rana y, así, conseguían la clonación de la especie extinguida. Church afirma que su objetivo es clonar elefantes con los genes del mamut que los adaptan a climas más fríos. Nunca se han publicado los resultados de Church.
Es curioso que hace unos años los debates sobre la clonación del mamut eran entre los entusiastas de la ciencia ficción y los medios de comunicación, y a menudo, en los más sensacionalistas. Ahora, en estos debates también intervienen los expertos en biología del desarrollo. Y, para ver cómo iba este debate, Pasqualino Loi y sus colegas, de la Universidad de Teramo, en Italia, revisaron las bases de datos con lo publicado hasta 2013. Fue sencillo pues, hasta esa fecha, solo un trabajo, el de Hiromi Kato que hemos comentado antes, se había publicado en 2009.
Pero, quien sabe, quizá en un futuro cercano no veamos al mamut por los campos pero, en cambio, encontremos su chuletón, o por lo menos su hamburguesa, en la estantería de los supermercados. Ya se produce carne en el laboratorio a partir de células musculares, según publican, en una revisión, Derrick Risner y sus colegas, de la Universidad de California en Davis. Sin embargo, sale muy cara, poco económica, quizá es más bien, por la poca y cantidad y el alto precio, una delicatesen de gourmet más que un producto popular. El futuro con chuletón de mamut sale muy caro, carísimo. Por ahora.
Referencias:
Church, G. M. 2013. Please reanimate reviving mammoths and other extinct creatures is a good idea. Scientific American 309: 12.
Glass, J.R. et al. 2016. Was frozen mammoth or giant ground sloth served for dinner at The Explorers Club? PLOS One 11: e146825
Kato, H. et al. 2009. Recovery of cell nuclei from 15000 years old mammoth tissues and its injection into mouse enucleated matured oocytes. Proceedings of the Japan Academy B 85: 240-247.
Loi, P. et al. 2014. Cloning the mammoth: A complicated task or just a dream? En “Reproductive Sciences in Animal Conservation”, p. 489-502. Ed. por W.V. Holt et al. Springer Science – Business Media. New York.
McCauley, D.J. et al. 2017. A mammoth undertaking: harnessing insight from functional ecology to shape de-extinction priority setting. Functional Ecology 31: 1003-1011.
Miller, W. Et al. 2008. Sequencing the nuclear genome of the extinct woolly mammoth. Nature 456: 387-390.
Novak, B.J. 2018. De-extinction. Genes doi: 10.3390/genes9110548
O’Carroll, E. 2016. Menu miscue: Yale study prompts mammoth newspaper correction. The Christian Science Monitor February 4.
Richmond, D.J. et al. 2016. The potential and pitfalls of de-extinction. Zoologica Scripta 45: 22-36.
Risner, D. et al. 2021. Preliminary techno-economic assessment of animal cell-based meat. Foods doi: 10.3390/foods10010003
Seddon, P.J. 2017. The ecology of de-extinction. Functional Ecology 31: 992-995.
Shapiro, B. 2015. Mammoth 2.0: will genome engineering resurrect extinct species? Genome Biology 16: 228.
Wikipedia. 2017. Mammoth. 25 November.
Wikipedia. 2021. Mammuthus. 19 enero.
Yamagata, K. et al. 2019. Signs of biological activities of 28.000-year-old mammoth nuclei in mouse oocytes visualized by live-cell imaging. Scientific Reports 9: 4050.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo El misterioso caso del chuletón de mamut se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ana María Zubiaga – Naukas Pro 2019: La difícil búsqueda de terapias contra el cáncer

El cáncer se está convirtiendo en la primera causa de muerte en el mundo desarrollado. Al tratarse de un fenómeno muy heterogéneo, al final es el resultado de una acumulación de mutaciones aleatorias, su investigación básica y las terapias para combatir sus distintas manifestaciones no es tarea fácil.
Ana María Zubiaga Elordieta es catedrática en el Departamento de Genética, Antropología Física y Fisiología Animal de la UPV/EHU. Licenciada en Ciencias Biológicas en la Facultad de Ciencias de la UPV/EHU en 1981 y doctorada por la misma universidad en 1986, realizó estancias postdoctorales en las universidades de Tufts y de Harvard (1986-1994), donde se especializó en el estudio de la regulación de los genes implicados en el desarrollo del cáncer. En 1995 se incorporó como profesora a la UPV/EHU. Su ámbito de investigación se encuentra en la confluencia de la biología y la genética del cáncer, liderando en la actualidad el grupo de investigación Biología molecular del cáncer.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Ana María Zubiaga – Naukas Pro 2019: La difícil búsqueda de terapias contra el cáncer se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Virginia Arechavala – Naukas Pro 2019: Buscando terapias para enfermedades poco frecuentes
- Inmunoterapia contra el cáncer
- La batalla contra el cáncer: la importancia de la alimentación