Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 4 mins 45 segs

El sistema duodecimal, o si los humanos hubiésemos tenido seis dedos en las manos

Mié, 2022/01/26 - 11:59

 

Vivimos en una sociedad donde impera lo decimal. Nuestra forma de representar los números es un sistema de numeración posicional en base diez y tenemos sistemas de medidas decimales, como la longitud (con el metro), el peso (con el kilogramo) o el volumen (con el metro cúbico, o también con el litro, que es la milésima parte del metro cúbico). Sin embargo, todavía mantenemos algunos sistemas de medidas relacionados con el número doce, como la docena, las horas del día (dos mitades de doce horas), o los segundos y minutos (basados en el sesenta, que es cinco veces doce).

A lo largo de la historia la definición de metro ha ido cambiando para ser cada vez más precisa, desde la primera definición de 1792 “como la diezmillonésima parte de la distancia que separa el polo norte de la línea del ecuador terrestre, a través del meridiano que pasa por París”, hasta la actual “distancia que recorre la luz en el vacío en un intervalo de 1/299 792 458 segundos”, pasando por el prototipo definido por la distancia entre dos líneas en una barra de aleación de platino-iridio medida en el punto de fusión del hielo, al que corresponde esta imagen.

 

El origen del sistema decimal es evidente y está basado en que tenemos diez dedos en nuestras manos, que fueron nuestra primera herramienta para representar los números y contar. Lo que no es tan claro es cual fue el origen del sistema duodecimal, es decir, en base 12, o del sistema en base 60, relacionado con el anterior, que utilizaron los sumerios o los babilonios. Se cree que la base duodecimal (12) se utilizó, previamente al sistema en base 60, en zonas de la antigua Mesopotamia, derivado de contar las falanges de los dedos meñique, anular, corazón e índice, con el pulgar de la misma mano, esto es, 4 dedos por 3 falanges son 12 falanges. La otra mano se utilizaría para los múltiplos de 12. De ahí derivaría posteriormente al sistema de numeración en base sesenta (60), que es una mezcla de las bases decimal y duodecimal. Las primeras evidencias del uso de un sistema en base 60 señalan su uso por parte de los sumerios, alrededor del 3.500 a.n.e., mientras que los babilonios, alrededor del 2.000 a.n.e., desarrollaron, también en base 60, el primer sistema de numeración posicional. Para más información pueden consultarse los libros: Los secretos de la multiplicación o Historia universal de las cifras).

El 71 representado en la base duodecimal que consiste en contar las falanges con de los dedos meñique, anular, corazón e índice, con el pulgar de la misma mano, la derecha desde 1 a 12 –marcado el 11- y la izquierda para los múltiplos de 12 –marcado el 5, luego 5 x 12 = 60.

De estos sistemas sexagesimales de Mesopotamia es de donde derivan las medidas temporales relacionadas con los números 12 y 60. Los babilonios dividieron cada hora en 60 minutos y cada minuto en 60 segundos, como seguimos utilizándolo hoy en día. Nuestros relojes analógicos tienen 12 marcas de 5 minutos, ya que cada una de nuestras horas tiene 60 minutos (5 x 12 = 60).

El despertador (1914), del artista mexicano Diego Rivera. Obra perteneciente al Museo Frida Kahlo

Los babilonios también dividieron la circunferencia en 360 partes iguales, los grados, aunque el motivo sigue siendo desconocido. Algunos estudiosos del tema piensan que el motivo se encuentra en su calendario. Tanto sumerios como babilonios desarrollaron calendarios lunares, en los cuales el año estaba formado por 12 meses de unos 30 días, en total, 360 días, que tarda –aproximadamente- la tierra en dar una vuelta alrededor del sol. Aunque ya conocían la cantidad exacta de días que tiene un año, 365,25 días.

Según otra teoría, los babilonios estaban familiarizados con la división de la circunferencia en seis cuerdas iguales, al inscribir seis triángulos equiláteros, de lado igual la radio, en el círculo. Luego, la circunferencia se dividía en 6 partes iguales y cada una de ellas en 60 partes, como consecuencia del sistema sexagesimal que poseían, luego toda la circunferencia se dividía en 6 x 60 = 360 partes iguales (grados).

El matemático y astrónomo austriaco-estadounidense Otto Neugebauer (1899-1990), experto en matemáticas y astronomía babilónicas propuso una explicación alternativa e interesante. En aquellos tiempos existía una medida de longitud, algo así como una “milla babilónica”, que era aproximadamente igual a siete veces la milla actual del sistema anglosajón, siendo esta última de una longitud de 1.609,344 metros. Esta medida empezó a ser utilizada también para medir tiempo, en concreto una milla de tiempo era lo que se tardaba en recorrer una milla babilónica (pensemos que los “años luz” que se utilizan en la actualidad tienen una filosofía similar, pero al revés, una unidad de tiempo utilizada para medir longitud). Hacia el primer milenio a.n.e. los astrónomos empezaron a utilizarla para medir períodos de tiempo y encontraron que un día completo eran 12 millas de tiempo, una “vuelta del sol alrededor de la tierra” en el cielo. Pero los babilonios, por conveniencia, habían subdividido la milla babilónica en 30 partes iguales, de donde la circunferencia solar eran 12 x 30 = 360 partes iguales (grados).

Aunque la división de la circunferencia en 360 grados también se produjo en la antigua India, como está recogido en los himnos del Rigveda, que es el texto védico más antiguo, que podría haber sido escrito entre el 1.700 y el 1.100 a.n.e. Por ejemplo, en el que dice “La rueda del Orden (rta), con sus doce rayos, da vueltas en el cielo sin desgastarse. Oh Agni, en ella se encuentran setecientos veinte hijos [colocados] por pares”. Es decir, el año se representa como una rueda con 12 rayos, los doce meses, con 360 días y noches, es decir, 360 x 2 = 720. Y en otro dice algo así como “Doce rayos, una rueda, tres ombligos. ¿Quién puede entender esto? En ella se colocan juntas trescientos sesenta como varillas. No tiemblan en lo más mínimo”.

Transportador de grados de plástico transparente

 

Además de que la circunferencia tenga 360 grados, tenemos que cada grado está formado por 60 minutos y cada minuto por 60 segundos.

Por otra parte, el origen de que el día tenga 24 horas parece, según las fuentes existentes, que se lo debemos a los antiguos egipcios, hacia el tercer milenio a.n.e., que dividieron la noche en 12 partes (existió una división anterior en 10 horas, más 2 horas para el crepúsculo) y el día en otras 12. Por lo tanto, las horas de la noche y del día eran distintas, además de que variaban a lo largo del año. Las horas del día se medían con relojes solares y las de la noche mediante la observación de constelaciones que se elevaban en el firmamento, más adelante se utilizarían relojes de agua. Los babilonios también dividieron el día y la noche en periodos de 12 horas, aunque no sabemos desde cuándo. De hecho, el historiador y geógrafo griego Heródoto (484-425 a.n.e.) escribe que los griegos recibieron de los babilonios la división del día en 12 horas. Más aún, se conoce como “hora babilónica” al sistema horario que divide el día en 24 horas, pero empezando al amanecer.

Reloj calendario solar de Balmaseda (Bizkaia)

Siendo nuestro mundo profundamente decimal es comprensible que en algún momento se intentara crear una medida de tiempo ajustada a este sistema. Tras la Revolución Francesa de 1789 se intentaron establecer sistemas de medidas universales que fueran decimales, como el metro y el kilogramo. También se intentó trasladar este empeño al tiempo. El encargado del diseño del calendario republicano francés fue el político y matemático Gilbert Romme (1750-1795), con la ayuda del astrónomo Joseph Jerôme de Lalande (1732-1807) y los matemáticos y astrónomos Jean-Baptiste Joseph Delambre (1749-1822) y Pierre-Simon Laplace (1749-1827), junto con el poeta Fabre d’Églantine, que fue quien se encargó de buscar los nuevos nombres.

El año se mantuvo dividido en doce meses, pero cada uno de ellos de exactamente 30 días. Además, cada mes se dividió en tres semanas de diez días. Los nombres de los nuevos meses estaban relacionados con fenómenos naturales y la agricultura, derivados de términos en francés, latín o griego. En concreto, para los tres meses de otoño: vendimiario (de vendimia), brumario (de bruma), frimario (de escarcha); para los tres meses de invierno: nivoso (de nieve), pluvioso (de lluvia), ventoso (de viento); para los tres meses de primavera: germinal (de semilla), floreal (de flor), pradial (de pradera); y para los tres meses de verano: mesidor (de cosecha), termidor (de calor), fructidor (de fruta). Además, existían cinco días complementarios, o seis los años bisiestos, que se añadían como fiestas nacionales, entre el último mes, fructidor, y el primero, vendimiario. Los nombres de los días de la nueva semana eran una invención basada en la enumeración: primidi, duodi, tridi, quartidi, quintidi, sextidi, septidi, octidi, nonidi, décadi. El último, décadi, era el día de descanso semanal.

Así mismo, los días se dividían en 10 horas, cada una de 100 minutos, cada uno de 100 segundos. Lo cual hacía que los nuevos segundos durasen menos que los antiguos (que son los que seguimos utilizando), ya que si ahora en un día hay 24 x 60 x 60 = 86.400 segundos, en esa nueva división del día había 10 x 100 x 100 = 100.000 segundos.

Este calendario duró paradójicamente doce años, desde 1793 hasta 1805, aunque realmente en la práctica nunca se utilizó, más allá de un cierto entrono político de París. Y se volvió a intentar su uso durante 18 días de la comuna de París de 1871.

La toma de la Bastilla (entre 1789 y 1791), del pintor inglés Henry Singleton (1766-1839)

 

Hablando del sistema duodecimal no podíamos dejar de hablar de la docena, una unidad de medida muy presente en nuestro día a día, por ejemplo, para comprar huevos, que se adquieren en docenas o medias docenas. Una docena es un grupo de doce (12) objetos. Pero, además de los huevos, existen más objetos que se venden por docenas, como los churros, pasteles u otros productos de repostería. Y también hay productos que vienen empaquetados por docenas o medias docenas, como las cervezas. También, los platos, vasos, cucharas, tenedores o cuchillos se venden en la actualidad, por docenas, medias docenas o cuartos de docena.

Por otra parte, doce docenas, es decir, 12 x 12 = 144 objetos, se denomina “una gruesa”. Y se utiliza la expresión “gran gruesa” para doce gruesas, es decir, 12 x 144 = 1.728 objetos. Estas se utilizaban para comprar objetos de ferreterías y mercerías, como los botones.

Una curiosidad numérica relacionada con este número. Tenemos que 122 = 144, pero si cambiamos el orden a los dígitos de 12 a 21, el resultado al elevarlo al cuadrado, es el mismo, pero con los dígitos cambiados de orden, 212 = 441. Esta misma propiedad la tiene el número 13, ya que 132 = 169 y 312 = 961.

En relación a la docena, existe una curiosa expresión que es “la docena del fraile” que se refiere a 13 objetos y que tiene su origen en cierto cuento popular picaresco, que dice así:

Cierto fraile mendicante entró en una huevería para comprar una docena de huevos. Pero como eran para distintas personas, le dijo así a la huevera: “Como son para distintas personas, póngamelos separados de la siguiente manera: media docena [6], para el padre prior; un tercio de docena [4], para el padre guardián, y para mí que soy más pobre, un cuarto de docena [3].

Es decir, el fraile se llevó 13 huevos, pero pagó solamente una docena. Claramente, media docena, un tercio de docena y un cuarto de docena no suman una docena, como vemos sino trece.

En el mundo anglosajón existe la expresión “la docena del panadero”, que tiene su origen en el siglo XIII en Inglaterra, que también se refiere a 13 objetos. Por aquel tiempo los panaderos y cerveceros que dieran menos producto que el estipulado podían ser duramente castigados. Los panaderos, para prevenir el posible error y evitar ser tomados por tramposos, empezaron a dar 13 panes por el precio de 12.

Y existen algunos ejemplos más de unidades de medida que utilizan el 12. Por ejemplo, un “pie” son 12 “pulgadas” en el sistema de medida anglosajón, o una “libra troy” equivale a 12 “onzas troy”, donde el peso troy es un sistema de medida de masa para metales preciosos, piedras preciosas y pólvora. Más aún en sistemas de medida antiguos, como las medidas castellanas de longitud en las cuales 1 línea = 12 puntos, 1 pulgada = 12 líneas, 1 pie = 12 pulgadas = 16 dedos, 1 palmo = 12 dedos, siendo 3 pies = 4 palmos. Pero también en medidas de volumen, donde 1 fanega = 12 celemines y 1 cahíz = 12 fanegas.

Fotografía de una cuartilla, 1/4 de fanega, que equivale a 3 celemines. Imagen de Tamorlan para Wikimedia Commons

El uso del 12 y el 60 para sistemas de medida tiene la ventaja de que estos números tienen más divisores que el 10 del sistema decimal. Mientras que el 10 se puede dividir solo por 2 y por 5, el 12 se puede dividir por 2, 3, 4 y 6, lo que nos lleva a que, por ejemplo, las docenas de huevos –o de cubiertos u otros productos- se puedan dividir en grupos de 6 huevos (media docena), de 4 huevos, 3 huevos o de 2 huevos, mientras que una decena solo en grupos de 5 y de 2.

Más aún, el 60 es divisible por los primeros números 2, 3, 4, 5, 6, más los números 10, 12, 15, 20 y 30; así, una hora, que son 60 minutos, puede dividirse en medias horas (30 minutos), en cuartos de hora (15 minutos), pero también podría dividirse en “tercios de hora” (de 20 minutos), aunque no lo utilicemos normalmente, así como también puede dividirse en grupos de 12, 10, 6, 5, 4, 3 o 2 minutos. De hecho, como decíamos al principio, nuestro reloj analógico divide la esfera en 12 marcas, que se corresponden con 5 minutos, ya que una hora (60 minutos) son 12 grupos de 5 minutos.

En la actualidad existen dos sociedades de promoción del sistema de numeración duodecimal y el uso de la base duodecimal para los sistemas de medidas, The Dozenal Society of America (cuya página web es www.dozenal.org) y The Dozenal Society of Great Britain.

El escritor y consultor de fundaciones estadounidense Frank Emerson Andrews (1902-1978) dedicó parte de su vida al estudio del sistema de numeración duodecimal, publicando varios libros y artículos sobre el tema. En 1934 publicó, en la revista The Athlantic Monthly, un artículo titulado An Excursion on Numbers (que puedes leer aquí: An Excursion on Numbers), en el que elogiaba el sistema duodecimal y animaba a otras personas a unirse a su causa de estudiar este sistema y promover su uso. Andrews continuó publicando artículos, hasta que en 1937 publica su libro New Numbers: How Acceptance of a Duodecimal Base Would Simplify Mathematics. Finalmente, en 1944 junto con otros apasionados del número doce fundaron The Duodecimal Society (La sociedad duodecimal) con el propósito de “dirigir investigación y educación pública en ciencia matemática, con especial dedicación al uso de la base doce de numeración, en matemáticas, pesos y medidas, y otras ramas de la ciencia pura y aplicada”, siendo Andrews su primer presidente. Además, editaron una revista, The Duodecimal Bulletin, con el objetivo de difundir artículos sobre el sistema duodecimal. Esta sociedad cambiaría de nombre a The Dozenal Society of America (cambiaron el nombre de “duodecimal” a “dozenal” para que no se incluyese el término “decimal” en su nombre). Y en 1959 surgiría la sociedad hermana, The Dozenal Society of Great Britain.

La imagen duodécima de esta entrada del Cuaderno de Cultura Científica no podía ser otra que el logo de la sociedad a favor del sistema duodecimal The Dozenal Society of America, con sus doce cifras básicas

 

Antes de terminar con otras cuestiones relacionadas con la presencia cultural del número 12 mostremos algunas propiedades matemáticas de este número. Como ya se ha comentado, los divisores propios del 12 son 1, 2, 3, 4 y 6, que sumados dan 1 + 2 + 3 + 4 + 6 = 16, mayor que 12, luego es un número abundante (véase la entrada Los números enamorados o el libro La gran familia de los números), de hecho, el más pequeño que existe.

Aunque no es un número perfecto, ya que la suma de los divisores propios no es él mismo, sí es un número semi-perfecto ya que existe un subconjunto de divisores propios {1, 2, 3, 6} que suman 12. Además, el un número sublime ya que la cantidad de divisores es un número perfecto, 6 divisores, y la suma de sus divisores, 1 + 2 + 3 + 4 + 6 + 12 = 28, también es perfecto.

El número 12 es un número de Harshad (véase la entrada Los números que proporcionan alegría) ya que 12 es divisible por la suma de sus dígitos (1 + 2 = 3).

Si pensamos en los números figurados encontramos que el 12 es el tercer número pentagonal, así como un número trapezoidal, puesto que es la suma de tres números consecutivos, distintos de 1, en concreto 12 = 3 + 4 + 5.

Los primeros números pentagonales son 1, 5, 12 y 22

 

Existen 12 pentominós distintos (véase la entrada Embaldosando con L-triominós (un ejemplo de demostración por inducción)), el dodecágono es el polígono que tiene 12 lados, mientras que, entre los poliedros regulares convexos, los llamados sólidos platónicos, el dodecaedro tiene 12 caras pentagonales, el cubo y el octaedro tienen 12 lados, mientras que el icosaedro tiene 12 vértices. Además, 12 es la cantidad de esferas que se pueden colocar alrededor de una central y en contacto con ella, siendo todas del mismo tamaño, por eso se dice que este número es el “número de besos” en dimensión 3 (que en dimensión 2, con circunferencias, es igual a 6).

Se pueden colocar 12 esferas alrededor de una esfera central, todas del mismo tamaño, en contacto con ella. Imagen de Johan A.C. Kolk

 

El número 12 aparece frecuentemente en la cultura, como vamos a mostrar para terminar esta entrada del Cuaderno de Cultura Científica.

Relacionado con las religiones tenemos, por ejemplo, que en el Libro de los Números del Antiguo Testamento se sacrifican durante 12 días, sacrificios dedicados al primer tabernáculo, 36 bueyes, 144 carneros y corderos y 72 machos cabríos y corderos de un año, todos ellos múltiplos de 12; que fueron también 12 las tribus de Israel, ya que 12 fueron los hijos de Jacob, hijo de Isaac, hijo de Abraham, que fundaron las 12 tribus, los llamados hijos de Israel o israelitas; que hubo 12 apóstoles cristianos según el Nuevo Testamento; que la festividad de las navidades está formada por doce días, del 25 de diciembre al 5 de enero; o que son 12 son las grandes fiestas de la iglesia ortodoxa. En el hinduismo hay 12 yiotir linga, templos donde el dios Shivá es adorado; 12 son los nombres de Surya, el dios sol, y Hanuman, el dios mono; o que el anahata, cuarto chakra primario, tiene 12 pétalos, relacionados con 12 vórtices o cualidades divinas (dicha, paz, armonía, amor, comprensión, empatía, claridad, pureza, unidad, compasión, amabilidad, perdón). En el chiismo imamí, o duodecimano, la mayor rama del islamismo chií, hay 12 imanes, considerados sucesores del profeta Mahoma.

En la mitología griega 12 fueron los dioses del olimpo (Zeus, Hera, Poseidón, Afrodita, Ares, Atenea, Hermes, Apolo, Artemisa, Hefesto, Deméter y Hestia); los trabajos de Hércules –también conocido como Heracles- también fueron 12 (matar al león de Nemea; matar a la hidra de Lerna; capturar vivo al jabalí de Erimanto; capturar a la cierva de Cerinea; matar a las aves del Estínfalo; Domar al toro de Creta; limpiar los establos de Augías; robar las yeguas de Diomedes; robar el cinturón de Hipólita; robar el ganado de Gerión; robar las manzanas doradas del jardín de las Hespérides; raptar al perro de Hades Cerbero); así como los hijos del dios Odin de la mitología escandinava.

Mosaico con los 12 trabajos de Hércules, de entre el año 201 y el año 300, perteneciente al Museo Arqueológico Nacional de Madrid. Fotografía de Gonzalo Cases Ortega

 

Podemos seguir con algunas curiosidades culturales más: según algunas versiones 12 son los caballeros de la mesa redonda del Rey Arturo, es decir, la tabla redonda del Rey Arturo tenía doce asientos para otros tantos caballeros, más el del propio Arturo; en Estados Unidos el jurado popular está formado por 12 personas, de ahí el título de la película Doce hombres sin piedad, interpretada por Henry Fonda en 1957; la escala de Beaufort de la fuerza de los vientos tiene 12 grados, que van desde calma hasta temporal huracanado; o la asociación internacional Alcohólicos Anónimos se rige por los 12 pasos (que son los principios que sustentan la recuperación del alcohólico, que llevan a la sobriedad), las 12 tradiciones (que son principios que permiten una buena relación entre los miembros de Alcohólicos Anónimos y la comunidad exterior) y 12 conceptos para el servicio mundial (son los principios que permiten que la estructura de la asociación en cada país cumpla con el objetivo de difundir el mensaje de Alcohólicos Anónimos).

Para terminar nuestro duodeno recibe su nombre del doce, ya que viene de la expresión en latín “intestinum duodenum” y se entiende que termina en “digitorum”, es decir, “intestinum duodenum digitorum”, que podemos traducir como “intestino de doce dedos”. Luego su nombre, duodeno, viene de su longitud medida en dedos.

Pan árbol (1954), del pintor, escultor, escritor, músico, astrólogo, esoterista, inventor y lingüista argentino Xul Solar (1887-1963)

 

Bibliografía

1.- Claudi Alsina, Vitaminas matemáticas, Cien claves sorprendentes para introducirse en el fascinante mundo de los números, Ariel, 2008.

2.- Claudi Alsina, Todo está en los números, Ariel, 2017.

3.- Raúl Ibáñez, Los secretos de la multiplicación, Colección Miradas Matemáticas, Catarata, 2019.

4.- Georges Ifrah, Historia universal de las cifras, Ensayo y pensamiento, Espasa, 2002 (quinta edición).

5.- Luis Gonzalez Reimann, Tiempo cíclico y eras del mundo en la India, El colegio de México, 1988.

6.- Leofranc Holford-Strevens, History of the Time, A Very Short Introduction, Oxford University Press, 2005.

7.- José Martínez de Sousa, La docena del fraile, Centro Virtual Cervantes, 1998.

8.- Raúl Ibáñez, La gran familia de los números, Colección Miradas Matemáticas, Catarata, 2021.

 

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El sistema duodecimal, o si los humanos hubiésemos tenido seis dedos en las manos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Mala neurociencia

Mar, 2022/01/25 - 11:59

La neurociencia genera titulares casi todos los días. Cada vez que se publica un nuevo estudio aparece alguna correlación interesante que tiene que ver con cómo pensamos, cómo recordamos, cómo percibimos o cómo nos deterioramos. Hemos de ser conscientes de que el famoso paso de los resultados de investigación al titular conlleva en buena parte de los casos una simplificación extrema y una elevación al absoluto que no se corresponde con lo afirmado en el artículo técnico, cuando no una manifiesta deformación torticera. Pero no todos los problemas son atribuibles a la prensa: buena parte de la investigación en neurociencia podría ser considerada «mala ciencia».

Foto: Priyanka Singh / Unsplash

Veamos un ejemplo para ilustrar lo que queremos decir. Imaginemos que queremos comprobar que una determinada variable externa se corresponde con la actividad de determinada área cerebral. Por ejemplo, que la visión de fotos de rostros conocidos provoca la activación de determinadas áreas cerebrales. Diseñamos el experimento cuidadosamente: corregimos por belleza de los rostros, sexo, edad, etnia, relación con el sujeto y cualquier parámetro que se nos ocurra. Al final nos decantamos por una colección de fotos seleccionadas de 24 actores de Hollywood y 67 personas anónimas no relacionadas con ningún sujeto. En paralelo, hemos solicitado voluntarios entre los estudiantes de nuestra universidad y hemos solicitado tiempo en el aparato de resonancia magnética del hospital universitario. Dados todos los condicionantes, haremos el experimento finalmente con 9 chicos y 12 chicas.

Hecho nuestro experimento, publicamos un artículo que afirma que “en el 55% de los varones y el 42% de las mujeres se aprecia una activación del área XYZ del orden del 7% mayor cuando se ven rostros conocidos”. Posteriormente aparece un titular en la nota de prensa de la universidad que dice: “Ver a Scarlett Johansson activa el área XYZ en los chicos pero no en las chicas” que se traduce en Ciencia Muy Guay por “Hallada el área del cerebro de la atracción sexual”.

De acuerdo que exageremos algo (tampoco mucho), pero el hecho cierto es que no se puede sacar ninguna conclusión de un experimento así. Por eso hay que insistir cuando se informa sobre un estudio que los resultados son preliminares y deben ser reproducidos. Pero, la cuestión es que esta falta de relevancia estadística, la pequeñez de las muestras, hace que muchos resultados en neurociencia estén en cuestión permanente. Lo único que nos hacía falta es que alguien midiese hasta qué punto esto es así, que alguien empezase a medir la gravedad del problema. Esto es lo que hizo Katherine Button, de la Universidad de Bristol (Reino Unido), encabezando a un equipo de colaboradores que han publicado sus resultados en Nature Reviews Neuroscience.

Button y sus colegas revisaron 48 artículos con meta-análisis (estudios que extraen conclusiones a partir de varios estudios similares sobre un mismo asunto, en este caso cada uno de los 48 analizaba entre 24, el que menos, y 71 estudios, el que más) en neurociencia publicados en 2011 y concluyeron que la mayoría tenían una potencia estadística de alrededor del 20%. Y esto, ¿qué significa? Pues, ni más ni menos, que el estudio promedio tenía una probabilidad de descubrir el efecto objeto de investigación de 0,2 (siendo 1 la certeza absoluta de que lo va a detectar).

Y, ¿qué es lo que causa esta potencia estadística tan baja? Pues lo que era esperable: muestras muy pequeñas y efectos investigados muy pequeños. Hay estudios neurocientíficos que informan de mecanismos muy complejos con muy pocos sujetos y efectos estudiados que suponen variaciones porcentualmente muy pequeñas en las variables medidas, variables que pueden recoger fácilmente ruidos estadísticos varios que den lugar a confusiones. Nuestro ejemplo anterior recoge ambos problemas.

Una consecuencia de todo ello es que cuando se anuncia que se ha hecho un descubrimiento en neurociencia basado en un solo estudio lo más probable es que no haya base real para sustentar esa afirmación.

Button et al. afirman que existen pruebas suficientes como para aseverar que:

  • los estudios pequeños y de baja potencia estadística son “endémicos” en neurociencia
  • una proporción grande de la investigación publicada en las revistas científicas podría ser poco fiable;
  • el número de hallazgos es exagerado, ya que los estudios pequeños dan más resultados positivos que los grandes de forma consistente (lo que es especialmente cierto en los estudios que usan herramientas genéticas, técnicas de imagen o animales)

Y, ¿qué se puede hacer para remediar esta situación? Lo primero sería facilitar la reproducibilidad de los resultados, lo que implica transparencia metodológica por parte de los investigadores, y aumentar los tamaños de muestra de forma significativa, lo que hoy día implica colaboración. Los investigadores proponen cinco acciones:

a) Antes de realizar un experimento es conveniente calcular de la potencia estadística del mismo: se puede usar la literatura existente para estimar qué tamaño de muestra es necesario para investigar un determinado efecto.

b) Transparencia en la exposición de métodos y resultados: sobre todo si no se encuentra nada hay que decirlo así. Los resultados negativos no publicados distorsionan los datos.

c) Pre-registro del protocolo de estudio y el plan de análisis: así se alientan los dos puntos anteriores y se evita la tentación de la elaboración creativa de datos o de informar sólo de algunos resultados. Un medio para hacerlo es Open Science Framework.

d) Disponibilidad de los materiales de estudio y de los datos sin elaborar: facilita la replicación y la extensión de los estudios.

e) Trabajar colaborativamente para incrementar la potencia y la replicabilidad de los estudios: la combinación de datos incrementa el tamaño de muestra, minimizando el trabajo.

Estas son propuestas. Mientras no vayan calando habrá que tomarse con dosis habitual de escepticismo los resultados publicados.

Referencia:

Button K.S., Ioannidis J.P.A., Mokrysz C., Nosek B.A., Flint J., Robinson E.S.J. & Munafò M.R. (2013). Power failure: why small sample size undermines the reliability of neuroscience Nature Reviews Neuroscience, DOI:

Nota: La proliferación en los últimos tiempos de afirmaciones espurias en la prensa en temas de neurociencia nos ha llevado a rescatar y actualizar este artículo cuya versión original se publicó en Experientia Docet el 11 de abril de 2013

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Mala neurociencia se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Arquitectura, música y matemáticas: el caso Xenakis

Lun, 2022/01/24 - 11:59

José Manuel González Gamarro

Expo 1958. Pabellón Philips. Foto: Wouter Hagens /wikimedia Commons

En este año 2022 se cumplen 100 años del nacimiento de una persona multidisciplinar, un ingeniero y artista singular: Iannis Xenakis. Esta feliz efeméride bien puede valer para recordar cómo las matemáticas necesarias para la arquitectura, también lo fueron para la creación de una nueva música. Una misma concepción en cuanto a la arquitectura y a la música hizo de las matemáticas el perfecto nexo de unión, llevando a Xenakis a nuevas directrices para (re)definir las características fundamentales de su creación artística.

Desde una perspectiva histórica, el siglo XX supone un apogeo de la colaboración entre arquitectura y música, donde se puede encontrar el fruto del trabajo conjunto entre arquitectos y compositores, pero no como una mera inspiración bidireccional, sino como un concepto más amplio de obra artística. En este nuevo concepto, tanto el edificio como la música son partes integrantes del todo. En este todo existe un control de los estímulos sensoriales, ya sea a nivel auditivo o visual. Una de estas colaboraciones es la que surge entre Le Corbusier y Xenakis, que dará como resultado un caso paradigmático que se convertirá en un punto de inflexión para el compositor, donde se da una simbiosis léxica y conceptual. En esta simbiosis, conceptos puramente espaciales pasan a ser musicales y viceversa. Algunos de estos conceptos son altura, verticalidad, horizontalidad, ritmo o armonía.

La personalidad compositiva de Xenakis está influenciada por sus estudios de ingeniería y su alto conocimiento matemático. El pensamiento matemático es la base de sus composiciones, trabajando en una búsqueda estética desde un enfoque más próximo a la filosofía de la ciencia que a uno netamente artístico.1 Para el compositor griego, la música tiene dos dimensiones básicas, el espacio y el tiempo, al igual que la arquitectura. Su idea de la creación se basa en la proporción y en los números, haciendo del espacio un espacio acústico. Este neo-pitagorismo creciente en su concepto de arte, debido a su visión de los fundamentos numéricos del universo, lo lleva a definir la composición como la creación de ambientes envolventes.

El rol de la naturaleza en la música de Xenakis es significativo, puesto que existen, por un lado, paralelismos en algunos conceptos como la variación continua o la transformación. Por otro lado, la naturaleza tiene un orden complejo que puede explicarse por la probabilidad que tiende a una estabilidad. Este funcionamiento del mundo natural es el que intenta aplicar en sus composiciones, huyendo de teorías que limiten el proceso. Se puede afirmar que la observación de cómo funciona el mundo natural junto con la concepción del número como entidad es la base filosófica del universo creativo del compositor.

La colaboración de Xenakis y el arquitecto Le Corbusier convergen en el conocido pabellón Philips, creado para la Exposición Universal de Bruselas en 1958. El arquitecto tiene en mente la idea de un «Poema electrónico» donde el edificio es parte de la síntesis: color, música, imagen, palabra y ritmo. Desde el principio del proyecto, Le Corbusier piensa en el compositor Edgar Varèse para crear la música que albergará el espectáculo, por lo que la colaboración de Xenakis se circunscribe más al ámbito arquitectónico que al propiamente musical. De hecho, lo único que estrenó Xenakis en el pabellón fue su obra Concret PH, destinada a hacer de interludio entre las sucesivas presentaciones del espectáculo, cuando el público entraba o salía. La música de Varèse fue totalmente ajena al proyecto arquitectónico, 8 minutos de música compuesta a partir de sonidos generados electrónicamente y sonidos reales, y concebida como abstracción y yuxtaposición, sin ninguna relación con el resto del proyecto.2 Sin embargo, para Xenakis, la creación del pabellón, así como el resto de experiencias arquitectónicas, recogían sus preocupaciones en lo referente a lo musical. Su investigación en el plano arquitectónico le lleva a componer la obra Metastaseis.

Existen dos conceptos determinantes en la búsqueda de Xenakis, la proporción y sobre todo la continuidad. Su idea arquitectónica para el pabellón, como también para la música, proviene de la observación de la naturaleza. En la decisión de la cubierta del pabellón se fija en modelos naturales tales como conchas marinas, cáscaras de huevo, etc. relegando el salto de la naturaleza a la arquitectura a la proporción, es decir, es un salto únicamente cuantitativo. La idea de proporción y la influencia del conocido Modulor (aparato de medida que se basa en la estatura humana y en la matemática) de Le Corbusier, le brindan a Xenakis una gama de medidas armónicas que aplica directamente en patrones musicales como la densidad instrumental o las proporciones de las duraciones.

El otro concepto que se usa como hilo conductor del proyecto, y que acaba convirtiéndose en el hilo conductor de su obra Metastaseis, es la continuidad. La transición entre diferentes estados sonoros no debe romper la continuidad. Esta idea proviene de la búsqueda arquitectónica, en donde esta continuidad se busca también en la transición de dos puntos en el espacio. Se hace un paralelismo del espacio sonoro con el espacio acústico. De hecho, en el pabellón se mezclan estos dos espacios, puesto que la música salía por los diferentes altavoces dispuestos por todo el pabellón para crear la sensación de una música que se mueve por este espacio. Este paralelismo también se da en las herramientas de las que se sirve para poder alcanzar la continuidad, ya que, como el propio Xenakis resalta,3 en la arquitectura se sirve de los paraboloides hiperbólicos y en la música de los glissandos. En la geometría analítica, un paraboloide es una superficie tridimensional descrita mediante ecuaciones, que en el caso del hiperbólico es esta:

La superficie se puede obtener mediante rectas puesto que es una superficie doblemente reglada, lo cual nos lleva a una forma muy parecida a esas patatas fritas que habitualmente nos comemos en los aperitivos.

Paraboloide hiperbólico. Fuente: Wikimedia Commons

 

Esta manera de conseguir las formas para el edificio es exactamente la misma para conseguir la música, tal y como se puede comprobar al comparar la partitura y los dibujos para el proyecto del pabellón:

Partitura de Metastaseis

 

Bocetos del pabellón Philips

 

La obra está concebida para 12 instrumentos de viento, 7 de percusión y 46 instrumentos de cuerda. Cada instrumentista tiene una parte individual distinta a la de los demás. Aunque la partitura empieza con la nota sol natural al unísono en las 46 cuerdas, ya en el compás 2 empieza el divisi y el crescendo masivo, ilustrando así su idea de transformación y continuidad. Su concepción del sonido en masa es equiparable a la concepción de arquitectura volumétrica que intenta llevar a cabo en el pabellón Philips.

Su visión de unión de la arquitectura y la música a través de la observación de la naturaleza, junto con la idea de la transformación de la densidad sonora sin romper la unidad, hace que detrás de la música de Xenakis haya una fuerte carga filosófica. El trabajo que realiza junto a Le Corbusier, o incluso a pesar de este debido a ciertas discrepancias, acentúa aún más la idea musical del espacio acústico, el orden y la proporción que dan los números frente al caos, asumiendo la naturaleza como fuente de inspiración para sus procesos de transformación sonora dentro de una unidad determinada.

Todo el trabajo llevado a cabo para el pabellón Philips tiene una repercusión directa en las posteriores composiciones. La idea de Le Corbusier de hacer el edificio parte de la obra y no solo el continente de un espectáculo, llevando a cabo una síntesis entre diferentes disciplinas, lleva a Xenakis a la creación de proyectos multiartísticos. Estos proyectos, como por ejemplo son los Polytopes, se llevan a cabo mediante música electrónica unida a diseños lumínicos. Otra de las influencias a partir del trabajo para el pabellón es la idea de que la música pueda moverse en el espacio geométrico de la sala, pasando de un altavoz a otro.4 Es lo que ocurre con la obra Hibiki Hanna Ma.

Todas estas ideas de unión de arquitectura, música y matemáticas que ya provenían de su trabajo en el pabellón Philips desembocó en la creación de UPIC, donde Xenakis lleva a un nivel superior esta fusión, creando un hardware en una mesa de arquitecto, donde utiliza el dibujo a mano alzada para controlar los eventos sonoros. Esto supone un gran avance para todas las composiciones electrónicas que se alumbrarán en los siguientes años y, lo que es más significativo, es el paso definitivo en la fusión de arquitectura y música, puesto que no solo se funden las ideas compositivas sino también las herramientas de trabajo para llegar a ellas.

Referencias:

1 Capanna, Alessandra. «Iannis Xenakis: Architect of Light and Sound.» Nexus Network Journal 3.1 (2001): 19-26.

2 Palacios, María Dolores. «El pabellón Philips de Le Corbusier.» AXA. Una revista de Arte y Arquitectura 6 (2014): 11.

3 Xenakis, Iannis. Música de la Arquitectura. Ediciones AKAL, 2009.

4 Xenakis, Iannis. Formalized music: thought and mathematics in composition. No. 6. Pendragon Press, 1992.

&nbsp
Sobre el autor: José Manuel González Gamarro es profesor de guitarra e investigador para la Asociación para el Estudio de la Guitarra del Real Conservatorio Superior de Música “Victoria Eugenia” de Granada.

El artículo Arquitectura, música y matemáticas: el caso Xenakis se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Emociones al alza, racionalidad a la baja

Dom, 2022/01/23 - 11:59
Foto:  Bermix Studio / Unsplash

Posverdad es un neologismo que se refiere a situaciones o circunstancias en que las emociones ejercen sobre la opinión del público mayor influencia que los hechos objetivos. Normalmente obedecen al propósito deliberado de distorsionar la realidad para influir en las actitudes sociales y modelar la opinión pública apelando, precisamente, al yo emocional y prescindiendo de los hechos.

El término, aunque con un significado algo diferente, la acuñó el dramaturgo Steve Tesich, para referirse a las mentiras que se dijeron sobre la guerra del Golfo en la década de los 90 del siglo pasado. El pensador británico A. C. Grayling sostiene que experimentó un gran auge en la segunda década de nuestro siglo. Dos fenómenos habrían sido los responsables de ese auge. Por un lado, el enfado del público con banqueros y gobernantes a causa de la crisis de 2008 y años subsiguientes, enfado que habría conducido a una exaltación de las emociones. Y, por el otro, el uso e incidencia creciente de las redes sociales también habrían contribuido a su extensión. Pero hasta los años 2015 y 2016, durante los meses anteriores a la campaña del referéndum sobre el Brexit en el Reino Unido y la de Donald Trump a la presidencia de los EEUU, respectivamente, la posverdad no tuvo consecuencias políticas de gran calado.

En un estudio publicado hace unas semanas en Proceedings of the National Academy of Sciences han examinado las frecuencias de uso de palabras en millones de libros publicados desde 1850 hasta 2019, y han detectado dos tendencias claras. La primera es un cambio motivado por el abandono de términos hoy anticuados y su sustitución por palabras nuevas; esa tendencia obedece al normal proceso de cambio lingüístico a lo largo del tiempo. La otra consiste en un cambio en las frecuencias de palabras relacionadas con la vertiente emocional del comportamiento (como sentir o creer, por ejemplo) y de las relacionadas con los aspectos racionales (como determinar o concluir).

La frecuencia de palabras de connotación racional experimentó un aumento constante entre 1850 y 1980, aproximadamente. De forma paralela, disminuyó la frecuencia de las ligadas a la esfera emocional. Durante las últimas décadas, sin embargo, esas tendencias revirtieron. Lo más sorprendente es que estos cambios se han producido tanto en obras literarias de ficción como en libros de ensayo o, en general, de lo que se denomina no-ficción.

Por otro lado, también se han registrado cambios de la misma naturaleza en los artículos de prensa, como han concluido a partir del análisis del periódico The New York Times a lo largo del mismo periodo de tiempo. Y por si lo anterior no fuera suficiente, las mismas conclusiones cabe extraer de un análisis equivalente hecho con obras en español. Por último, la búsqueda de palabras en Google durante las últimas décadas también refleja esa misma tendencia, lo que avala la idea de que las variaciones en el tipo de palabras utilizadas en los libros reflejan, en el fondo, un cambio en los intereses de la gente.

La conclusión que extraen los autores del estudio es que la emergencia y expansión de la posverdad quizás refleja un cambio de más largo alcance en los intereses y preferencias de la gente, así como en sus valores y modos de pensar, que habrían transitado de lo racional a lo emocional. Lo cierto es que esa transición coincide con la percepción de quien suscribe, y la importancia creciente que en el mundo educativo se concede a la esfera emocional. Los autores de la investigación desconocen a qué pueden obedecer las tendencias observadas, pero se muestran preocupados por sus consecuencias, pues la ciencia, la democracia y otras instituciones que basan su buena salud en la racionalidad, pueden verse perjudicadas.

Fuente:  Marten Scheffer, Ingrid van de Leemput, Els Weinans, Johan Bollen; The rise and fall of rationality in language. Proceedings of the National Academy of Sciences Dec 2021, 118 (51) e2107848118

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Emociones al alza, racionalidad a la baja se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: José Manuel López Nicolás – Dos gusanos y un destino

Sáb, 2022/01/22 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

Los murcianos, encabezados por este murciano del año 2021, creen que el resveratrol ayuda a ralentizar el envejecimiento celular. Y no solo lo creen, sino que lo han demostrado con la ayuda de dos gusanos. Una charla del inconmensurable José Manuel López Nicolás.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: José Manuel López Nicolás – Dos gusanos y un destino se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Sirven los probióticos para tratar el síndrome metabólico?

Vie, 2022/01/21 - 11:59

Iñaki Milton Laskibar, Alfredo Martínez Hernández, Laura Isabel Arellano García y Maria Puy Portillo

Shutterstock / T. L. Furrer

 

Nos hemos habituado a que nos receten probióticos ante situaciones de estreñimiento o diarrea, para recuperar la composición saludable de la microbiota intestinal. Lo que casi nadie sabe es que los probióticos también podrían ayudarnos a pararle los pies a la obesidad, la diabetes y otros trastornos relacionados con el llamado “síndrome metabólico”.

Mantener y repoblar la microbiota intestinal saludable

Los probióticos, por definición, son microorganismos vivos/viables que al ingerirlos en cantidades adecuadas (normalmente en alimentos/suplementos) buscan producir efectos beneficiosos en el hospedador (persona que los ingiere). De hecho, el uso de probióticos como Lactobacillus o Bifidobacterium para el tratamiento de diferentes afectaciones gastrointestinales es una práctica común.

En este sentido, existen evidencias científicas solidas que respaldan el uso de estas cepas bacterianas para el tratamiento de la diarrea o el estreñimiento, así como complemento de tratamientos antibióticos. De esta manera, los probióticos ayudarían al mantenimiento y la recuperación de la composición de la microbiota intestinal saludable (eubiosis), la cual se ve afectada en las mencionadas situaciones.

El “órgano olvidado”

La microbiota intestinal hace referencia a la compleja comunidad de microorganismos (principalmente bacterias) que vive en nuestro intestino. De hecho, se le ha llegado a considerar el “órgano olvidado” dada la cantidad de microorganismos que la conforman (se cree que puede llegar a los 2 kg).

La importancia de la microbiota intestinal se debe a que, en situaciones fisiológicas, participa de forma relevante en la digestión y aprovechamiento de alimentos, síntesis de ciertas vitaminas, la regulación del sistema/respuesta inmune o en la producción de metabolitos bioactivos. Para ello, es necesario que su composición (riqueza y variedad de microorganismos) sea la adecuada.

De hecho, diversos factores como patrones dietéticos inadecuados (ricos en grasas y/o azúcares), estilos de vida sedentarios o el estrés afectan negativamente a dicho equilibrio, produciendo la disbiosis. En determinadas circunstancias, la riqueza y variedad de la microbiota se altera, mientras que la abundancia de microorganismos concretos cambia (principalmente aumentan los microrganismos que en exceso pueden resultar nocivos).

Microbiota intestinal y síndrome metabólico

Diferentes estudios han demostrado que la disbiosis está presente (bien como causa o como consecuencia) en las alteraciones que conforman el síndrome metabólico. Por ejemplo, habitualmente la microbiota de individuos obesos se caracteriza por tener una menor diversidad en comparación a la de individuos delgados. Además, la microbiota de personas obesas obtiene una mayor cantidad de energía de componentes de alimentos no digeribles, además de producir intermediarios proinflamatorios que afectan a diferentes órganos y tejidos (tejido adiposo e hígado, entre otros) produciendo alteraciones metabólicas.

Del mismo modo, se ha descrito que la microbiota de pacientes con enfermedades cardiovasculares presenta un mayor ratio de Firmicutes/Bacteroidetes y una menor abundancia de bacterias productoras de butirato (ácido graso de cadena corta con efecto antinflamatorio).

En el caso de la diabetes, la inflamación y alteración de la integridad intestinal propias de la disbiosis estarían relacionadas con el desarrollo tanto de la diabetes de tipo 1 (alterando la inmunidad adaptativa y la permeabilidad intestinal y favoreciendo la autoinmunidad contra las células β del páncreas) como de la diabetes de tipo 2 (el aumento de mediadores proinflamatorios alteraría el metabolismo de la glucosa, produciendo resistencia a la insulina).

También se han visto cambios de la composición de la microbiota en individuos con enfermedad del hígado graso, considerada la manifestación hepática propia del síndrome metabólico. En este caso, la microbiota se caracterizaría por tener menor diversidad microbial y abundancia de Bacteroidetes, así como una presencia mayor de bacterias productoras de etanol.

Utilidad de probióticos en alteraciones del síndrome metabólico

Considerando la relación existente entre la disbisosis y las alteraciones propias del síndrome metabólico, modular la composición de la microbiota intestinal mediante el uso de probióticos podría ser una estrategia terapéutica a tener en cuenta.

Por ejemplo, se ha visto que la administración de una mezcla de probióticos (Lactobacillus acidophilus La5 y Bifidobacterium lactis Bb12) reduce el peso corporal, así como los niveles de transaminasas y de colesterol total y LDL en pacientes con enfermedad de hígado graso no alcohólico.

Del mismo modo, la administración de probióticos de una sola cepa (Bifidobacterium breve B-3) ha mostrado reducir el tejido adiposo blanco y los niveles plasmáticos de hemoglobina glicosilada (marcador que se utiliza para el diagnóstico de diabetes/prediabetes) en pacientes con sobrepeso.

Se han descrito efectos similares en otro estudio donde pacientes obesos fueron sometidos a una dieta hipocalórica suplementada con queso enriquecido en un probiótico (Lactobacillus plantarum TENSIA). En este caso, la reducción producida por la dieta hipocalórica en el índice de masa corporal y la presión arterial fueron todavía mayores en los sujetos que recibieron el probiótico. Estos resultados sugieren que los probióticos podrían servir tanto en la prevención como en el tratamiento (como intervención complementaria) de las alteraciones relacionadas con el síndrome metabólico.

En cuanto a los mecanismos de acción implicados en los efectos anteriormente mencionados, se ha descrito que los probióticos pueden aumentar la riqueza/variedad microbial saludable, reducen el crecimiento de bacterias patógenas, regulan el control del apetito (a través del eje intestino-cerebro), mejoran la integridad/función de barrera intestinal (reduciendo la inflamación) y regulan el metabolismo de la glucosa y los lípidos.

En resumen, la evidencia disponible indica que el uso de probióticos puede ser de interés para algo más que el tratamiento del estreñimiento o la diarrea. En este sentido, investigar posibles combinaciones de bacterias probióticas podría resultar en tratamientos más efectivos. Para ello, la bioinformática y la metagenómica podrían ser herramientas útiles.

Del mismo modo, también podría resultar de interés investigar sobre los posibles beneficios de los parabióticos (probióticos no-viables) y los postbióticos (metabolitos producidos por bacterias probióticas) en la prevención y/o tratamiento de las alteraciones previamente mencionadas. De hecho, la utilización de estos tratamientos solventaría una de las limitaciones del uso de los probióticos, que es la de administrar microorganismos vivos.

Finalmente, cabe destacar que los estudios/resultados mencionados anteriormente sugieren que el consumo habitual de alimentos que contienen probióticos (tales como yogur, chucrut, kimchi o kombucha) podría ser recomendable para la prevención de las alteraciones relacionadas con el síndrome metabólico.The Conversation

Sobre los autores: Iñaki Milton Laskibar es investigador postdoctoral en el Cardiometabolic Nutrition Group, IMDEA Alimentación, e investigador en el Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (CiberObn),UPV/EHU; Alfredo Martínez Hernández es director de Precision Nutrition and Cardiometabolic Health Research Program y Cardiometabolic Nutrition Group, IMDEA; Laura Isabel Arellano García es estudiante Nutrición y Salud, UPV/EHU y Maria Puy Portillo es catedrática de nutrición, Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (CIBERobn), UPV/EHU

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Sirven los probióticos para tratar el síndrome metabólico? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Monedas de piedra

Jue, 2022/01/20 - 11:59
Fuente: Wikimedia Commons

A comienzos del siglo I d.C. el geógrafo e historiador griego Estrabón escribió el Tomo XVII de su obra magna Geografía, donde dedica una gran parte a su periplo por Egipto. Pero este texto incluye un párrafo bastante curioso:

Al pie de las pirámides se encuentran, amontonados, trozos de las piedras que saltaban de los bloques al cortarlas. Estos pedazos de piedras contienen otras más pequeñas que tienen la forma y el tamaño de lentejas. Algunas se distinguen porque tienen la forma de los granos de cebada a los que se les ha quitado la mitad de la corteza. Dicen que lo que quedaba de la comida de los obreros ha petrificado y esto no es improbable. De hecho, en mi país de origen, en una llanura, hay una larga colina que está llena de piedras en forma de lenteja, de piedra porosa.

Estrabón dejó por escrito la extrañeza que le produjeron las marcas redondeas que presentan algunos de los bloques con los que construyeron las pirámides y que le recordaban a lo que había visto en su tierra natal, lo que actualmente es el norte de Turquía. Buscando una explicación, se hizo eco de una popular historia que contaban los campesinos egipcios que vivían en los alrededores. Estos decían que se trataba de las lentejas que comían los obreros que construyeron las pirámides, ya que, cuando se les caían encima de los bloques con los que estaban trabajando, el sol abrasador las resecaba hasta el punto de llegar a fundirlas con las rocas.

Aspecto externo del caparazón fósil de un Nummulites de Punta Galea, Bizkaia. Barra de escala = 2,5 cm. Foto: Blanca María Martínez

Sin duda es una bonita leyenda, pero hay una explicación científica para estas estructuras redondeadas que aparecen en las rocas con las que se construyeron las pirámides de Egipto. Y en este caso se trata de restos fósiles de unos organismos muy particulares, los foraminíferos.

Los foraminíferos son unos microorganismos unicelulares que viven exclusivamente en agua marina y han colonizado todos los medios oceánicos, desde los estuarios hasta las zonas marinas profundas. Actualmente, son uno de los principales componentes del plancton, pero también hay muchas especies que presentan una forma de vida bentónica, es decir, que habitan tanto dentro como sobre el sedimento del fondo marino.

Secciones ecuatoriales (cámaras con formas subrectangulares) y sección axial (cámaras con formas subtriangulares) de varios fósiles de Nummulites preservados en la roca ornamental “caliza de Sant Vicenç”, Barcelona. Barra de escala = 0,5 cm. Foto: Blanca María Martínez

Una de las principales particularidades de los foraminíferos es que segregan un caparazón generalmente carbonatado para proteger el núcleo de su célula. Este caparazón va aumentando de tamaño según crece el organismo y lo hace de una forma particular, añadiendo nuevas cámaras. Y no me refiero a que se compren un nuevo aparato fotográfico, sino a que cada vez que el ejemplar crece, desarrolla un espacio vacío más grande para poder cubrir su núcleo. Este espacio se denomina cámara de habitación y está separada de la anterior por un tabique cada vez más grueso, pero ambas permanecen conectadas por un pequeño poro o agujero denominado foramen y que da nombre a todo el grupo faunístico. Para explicarlo más fácil, voy a utilizar un símil. Sería como si nosotros, al nacer, viviésemos en una única habitación adaptada a nuestro tamaño. Cuando crecemos construimos una nueva habitación con un tamaño mayor y con paredes cada vez más gruesas, pero conectada con la habitación anterior por una pequeña ventana siempre abierta. Además, debido a este crecimiento por agregación de cámaras, los caparazones de los foraminíferos adquieren formas muy variadas, desde circulares a alargadas. Y cuando el organismo muere, este caparazón mineralizado acaba acumulándose en el sedimento del fondo marino, enterrándose poco a poco. Así, pasado el tiempo, podría llegar a convertirse en un fósil.

Foto de detalle de una sección ecuatorial (cámaras con formas subrectangulares) de un fósil de Nummulites presente en la roca ornamental “caliza de Sant Vicenç”, Barcelona. Barra de escala = 0,25 cm. Foto: Blanca María Martínez

Pues en las rocas de las pirámides de Egipto encontramos los fósiles de unos foraminíferos pertenecientes a un género ya extinguido llamado Nummulites. Los ejemplares de este género fueron muy comunes en los mares cálidos y poco profundos que se desarrollaron en toda el área Mediterránea desde finales del Paleoceno hasta comienzos del Oligoceno, hace entre unos 59 y 30 millones de años. Y una de sus principales características es que desarrollaron un caparazón con forma discoidal cuyo tamaño oscilaba entre apenas unos milímetros y varios centímetros de diámetro. Por tanto, no es extraño que los antiguos egipcios confundieran estos fósiles con lentejas petrificadas. En cuanto a la alusión de Estrabón a los granos de cebada, es debida a que, dependiendo del corte que se le aplique a la roca y, por tanto, al caparazón fósil, se puede observar la morfología de las cámaras: forma subrectangular en sección ecuatorial (perpendicular al eje de enrollamiento de las cámaras) y forma subtriangular en sección axial (paralela el eje de enrollamiento).

Sección axial (cámaras con formas subtriangulares) del fósil de un Nummulites preservado en la roca ornamental “Crema Marfil”, Valencia. Barra de escala = 2 cm.

Y para terminar con las similitudes, el término Nummulites significa pequeña moneda, ya que el nombre del género le fue dado por su forma discoidal. Incluso, los beduinos actuales llaman a estos fósiles los dólares del desierto.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Monedas de piedra se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Los números en la apuesta de Don Juan Tenorio

Mié, 2022/01/19 - 11:59

 

Supongo que prácticamente todo el mundo conoce el drama romántico Don Juan Tenoriopublicado en 1844 por José Zorrilla. Las personas que tenemos cierta edad recordamos que se representaba cada día 1 de noviembre, el día de Todos los Santos, como homenaje a los difuntos que tienen un especial protagonismo en la obra.

Salvador Dalí, Cinco bocetos de vestuario para Don Juan Tenorio (Boceto para la escenografía de «Don Juan Tenorio»), 1950. Fuente: Museo Reina Sofía.

 

La acción transcurre en Sevilla, en 1545. Estamos en la noche de Carnaval. Un año antes, Don Juan Tenorio, el protagonista de la obra, y su rival, Don Luis Mejía, habían realizado una doble apuesta. Con ella se trataba de decidir, en el término de un año, quién de los dos había salido victorioso en más duelos y quién había seducido a más mujeres. Transcurrido ese tiempo los dos personajes se encuentran en la Hostería del Laurel, en Sevilla, donde comparan los resultados de sus “hazañas”. Rescatamos un fragmento de ese encuentro en el que presentan las conclusiones de la apuesta (escena XII del acto primero):

  • Don Luis: Razón tenéis en verdad. Aquí está el mío: mirad, por una línea apartados traigo los nombres sentados para mayor claridad.

  • Don Juan: Del mismo modo arregladas mis cuentas traigo en el mío: en dos líneas separadas los muertos en desafío y las mujeres burladas. Contad.

  • Don Luis: Contad.

  • Don Juan: Veinte y tres.

  • Don Luis: Son los muertos. A ver vos. ¡Por la cruz de San Andrés! Aquí sumo treinta y dos.

  • Don Juan: Son los muertos.

  • Don Luis: Matar es.

  • Don Juan: Nueve os llevo.

  • Don Luis: Me vencéis. Pasemos a las conquistas.

  • Don Juan: Sumo aquí cincuenta y seis.

  • Don Luis: Y yo sumo en vuestras listas setenta y dos.

  • Don Juan: Pues perdéis.

  • Don Luis: ¡Es increíble, don Juan!

  • Don Juan: Si lo dudáis, apuntados los testigos ahí están, que si fueren preguntados os lo testificarán.

  • Don Luis: ¡Oh! y vuestra lista es cabal.

  • Don Juan: Desde una princesa real a la hija de un pescador, ¡oh! ha recorrido mi amor toda la escala social. ¿Tenéis algo que tachar?

  • Don Luis: Sólo una os falta en justicia.

  • Don Juan: ¿Me la podéis señalar?

  • Don Luis: Sí, por cierto, una novicia que esté para profesar.

  • Don Juan: ¡Bah! pues yo os complaceré doblemente, porque os digo que a la novicia uniré la dama de algún amigo que para casarse esté.

  • Don Luis: ¡Pardiez que sois atrevido!

  • Don Juan: Yo os lo apuesto si queréis.

  • Don Luis: Digo que acepto el partido. ¿Para darlo por perdido queréis veinte días?

  • Don Juan: Seis.

  • Don Luis: ¡Por Dios que sois hombre extraño! ¿Cuántos días empleáis en cada mujer que amáis?

  • Don Juan: Partid los días del año entre las que ahí encontráis. Uno para enamorarlas, otro para conseguirlas, otro para abandonarlas, dos para sustituirlas, y una hora para olvidarlas. Pero, la verdad a hablaros, pedir más no se me antoja porque, pues vais a casaros, mañana pienso quitaros a doña Ana de Pantoja.

Vamos a fijarnos en la última frase de Don Juan:

Partid los días del año entre las que ahí encontráis. Uno para enamorarlas, otro para conseguirlas, otro para abandonarlas, dos para sustituirlas, y una hora para olvidarlas.

¿Es razonable lo que dice? Es decir, a pesar de la arrogancia, ¿sus números encajan? Repasemos esas cantidades. El galán invierte 5 días en: “enamorar” (1 día), “conseguir” (1 día), “abandonar” (1 día) y “sustituir” (2 días) a cada mujer 5 días. Como en su lista había 72 mujeres, son en total 72 x 5 = 360 días. Además, emplea una hora para olvidar a cada mujer; es decir, 72 x 1 hora = 72 horas = 3 días.

Es decir, según los datos proporcionados, ha precisado 363 días para “burlar” (así denomina Don Juan su dudosa “hazaña”) a esas 72 mujeres… una cuenta bien precisa, ¡e incluso le quedan un par de días para descansar!

Nota 1

Esta cita me la hizo llegar un amigo, el matemático José Ignacio Royo, hace ya algunos años. El descubridor de esta simpática anécdota fue su abuelo, que se entretuvo en comprobar la supuesta veracidad de los números citados en este diálogo. 

Nota 2

En el video anterior se reproduce la escena de la apuesta. Se trata de la adaptación para televisión (1952) de la obra de José Zorrilla, basada en la representación del texto que se hizo en 1949 en el Teatro Nacional María Guerrero de Madrid. El director del montaje teatral, Luis Escobar, propuso a Salvador Dalí que realizase los decorados y el vestuario de la obra, que más tarde fueron aprovechados para el rodaje de la película. Aunque la calidad no es muy buena, puede verse a unos estupendos actores (Enrique Diosdado, Mari Carmen Díaz de Mendoza, José María Rodero, Carmen Seco, Rafael Alonso, Pablo Álvarez Rubio, Adolfo Marsillach y Gaspar Campos, entre otros) y apreciar el arte de Salvador Dalí.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Los números en la apuesta de Don Juan Tenorio se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La simetría prohibida del arte islámico

Mar, 2022/01/18 - 11:59

Antiguos secretos religiosos celosamente custodiados, mensajes cifrados en santuarios de Oriente Medio misteriosamente conectados con palacios europeos, la proporción áurea, desafío a la autoridad. Exacto, hablamos de cuasicristales.

Detalle de la decoración con azulejos de Darb-i Imam. Fuente: Wikimedia Commons

Estamos en Isfahán (Irán) delante del Santuario de los Imames (Darb-i Imam) y no podemos evitar que su decoración nos recuerde a algo que ya hemos visto en España, en la Alhambra. Ambas obras tienen más de 500 años y, sin embargo, en un déjà vu científico, lo que nos llama la atención se conoce por el nombre del inglés que lo redescubrió en 1973: teselaciones de Penrose. El Islam regaló el álgebra (al jabr) al mundo, un término que se refiere a una ecuación básica. Pero la pauta que tenemos delante requiere de una matemática muy superior.

Nadie sabe como los arquitectos persas y andalusíes llamaban a esta pauta hace 500 años; hoy la describiríamos como la correspondiente a un cristal cuasiperiódico con simetría prohibida. Prohibida no por ninguna razón religiosa, evidentemente, sino porque a primera vista parece imposible de construir. Imagina una pared cubierta con azulejos que son triángulos equiláteros, si la rotamos mentalmente un tercio de vuelta (120º), nos queda exactamente como estaba. Lo mismo ocurre con azulejos cuadrados y un cuarto de vuelta (90º) o con hexágonos y un sexto de vuelta (60º). Esta característica hace que se puedan cubrir las superficies completamente, sin dejar huecos, usando triángulos, cuadrados y hexágonos. Pero con los pentágonos no se puede conseguir, te quedan huecos, y no existe forma de construir una pauta que parezca la misma si la giras un quinto de vuelta (72º) [1].

Cometa y flecha de Penrose. Fuente: Wikimedia Commons

Los artistas islámicos, trabajando como estaban para edificios religiosos (los palacios también lo eran) querían incorporar la simetría pentagonal como reflejo de los cinco pilares del Islam. Lo consiguieron empleando dos formas distintas en una proporción única. Penrose llegó al mismo resultado en 1973 con las formas que llamó la cometa y la flecha y su resultado tenía propiedades matemáticas fascinantes. Cualquier fragmento de la superficie cubierta usando estas formas, esto es, conteniendo un número finito de cometas y flechas, podía ser dividido en pautas que no se repiten nunca de cometas y flechas más pequeñas. Además cuanto mayor sea el fragmento, es decir, cuanto mayor sea el número de azulejos necesarios para cubrirlo, la proporción de cometas a flechas se aproxima a la proporción áurea, un número lo más parecido a sagrado que tienen los matemáticos.

La proporción áurea es un número irracional, ya conocido por Pitágoras y a quien se atribuye su descubrimiento. Irracional implica que no puede expresarse como una fracción de números enteros y tiene, por tanto, un número infinito de cifras decimales: 1, 618 033 989 … (hay números con infinitas cifras decimales pero que sí pueden expresarse como una fracción, como 1/3, por ejemplo, y que son racionales). Está íntimamente vinculado a la serie de Fibonacci y lo citan Kepler y Leonardo da Vinci (y sí, también aparece en el “Código da Vinci” y secuelas e imitaciones). La proporción áurea aparece en la naturaleza en los lugares más insospechados, desde las ramas de los árboles a la resonancia magnética de los espines en los cristales de niobato de cobalto, y su uso en el arte y el diseño industrial es ubicuo [2].

Los investigadores han dado siempre por sentado que cualquier disposición cristalina de átomos tiene una pauta que se repite perfectamente en todas direcciones. Estas disposiciones repetitivas de los átomos son análogas a las pautas de azulejos que cubren perfectamente una superficie. El premio Nobel de Química de 2011, concedido a Daniel Shechtman, reconoció el descubrimiento de una nueva categoría de cristales cuyas pautas no se repiten de la forma tradicional, un descubrimiento que llevó a la redefinición del concepto de cristal en 1991, y que tiene su reflejo en los azulejos islámicos.

En 1982, Shechtman estaba usando experimentos de difracción electrónica para dilucidar la simetría y otros detalles estructurales de muestras metálicas. En ese momento estaba en el entonces llamado National Bureau of Standards (hoy National Institute of Standards and Technology, en Maryland, EE.UU.) cuando descubrió que una aleación de aluminio y manganeso enfriada rápidamente mostraba una simetría prohibida, pentagonal. La simetría extraña aparecía en una dirección, en la que sus datos mostraban los puntos de difracción electrónica dispuestos en anillos concéntricos de 10 puntos cada uno, mientras que en las otras direcciones los anillos contenían 6 puntos, lo que indicaba una geometría hexagonal convencional. En conjunto, la simetría del patrón de difracción era exactamente la de un icosaedro.

Patrón de difracción de electrones de un cuasicristal de Zn-Mg-Ho icosaédrico. Fuente: Wikimedia Commons

Se sabía que podía haber disposiciones icosaédricas de átomos en estructuras metálicas ultracompactas, pero también se sabía que esta simetría, con su eje quíntuple, estaba estrictamente prohibida para un cristal periódico. Se necesitaron dos años antes de que Shechtman pudiese publicar un artículo [3] con su descubrimiento, el tiempo necesario para que él y su equipo pudiesen realizar comprobaciones muy cuidadosas para descartar cualquier otra posibilidad, por ejemplo, que los puntos inesperados viniesen de regiones cristalinas con orientaciones diferentes. Finalmente, demostraron que la simetría icosaédrica se extendía a distancias de micras, o lo que es lo mismo, miles de veces el espaciado atómico.

A las seis semanas de la publicación apareció un artículo escrito por Dov Levine y Paul Steinhardt, por aquel entonces en la Universidad de Pensilvania (EE.UU), al igual que el de Shechtman publicado en Physical Review Letters, en el que resolvían el misterio del cristal con simetría quíntuple e introducían el término cuasicristal [4]. En él afirmaban que la simetría icosaédrica estaba permitida siempre que la estructura fuese solo “cuasiperiódica”. Por ejemplo, si una pauta contiene dos elementos que se repiten con diferentes períodos, y el ratio de estos períodos es irracional, nunca se “sincronizarán”, ni siquiera a largas distancias; dado que no se repiten, estas pautas pueden evitar las prohibiciones usuales sobre ciertas simetrías rotacionales. Pero algo de esto ya nos suena, ¿no?

Exacto, es el tipo de juego geométrico al que se había estado dedicando Penrose la década anterior y los musulmanes hace 500 años. Lo sorprendente fue encontrarlo en un material real, ya que se asumía que la dificultad enorme de construcción de una pauta infinita impedía su aparición. Investigaciones posteriores pusieron de manifiesto que esto no es en absoluto así: un cuasicristal, una estructura cuasiperiódica en general, puede ensamblarse átomo a átomo siguiendo solo reglas locales sencillas como las que gobiernan el crecimiento de cristales estándar.

El arte islámico abrió la mente a una nueva geometría para plasmar un principio teológico; Shechtman abrió nuestras mentes para pensar en la cristalinidad de una forma nueva [5].

Dan Schechtman en una foto en la que se recrea la presentación en sociedad de los cuasicristales. Está tomada en una sala del NIST en 1985. Están presentes de izquierda a derecha Shechtman; Frank Biancaniello, NIST; Denis Gratias, CNRS (Francia); John Cahn, NIST; Leonid Bendersky, Johns Hopkins University; y Robert Schaefer, NIST.

Referencias:

[1] Macho Stadler, M. (2020) Teselando el plano con pentágonos. Cuaderno de Cultura Científica

[2] Ibáñez, R. (2014) ¿Es áureo el Aston Martin de James Bond? Cuaderno de Cultura Científica

[3] Shechtman, D., Blech, I., Gratias, D., & Cahn, J. (1984). Metallic Phase with Long-Range Orientational Order and No Translational Symmetry Physical Review Letters, 53 (20), 1951-1953 DOI: 10.1103/PhysRevLett.53.1951

[4] Levine, D., & Steinhardt, P. (1984). Quasicrystals: A New Class of Ordered Structures Physical Review Letters, 53 (26), 2477-2480 DOI: 10.1103/PhysRevLett.53.2477

[5] Tomé López, C. (2014) El Rey León, la falsabilidad y los cuasicristales Cuaderno de Cultura Científica

 

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este texto se publicó en Experientia Docet el 18 de octubre de 2011.

El artículo La simetría prohibida del arte islámico se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El enigma de los suplementos nutricionales

Lun, 2022/01/17 - 11:59

Foto: Nataliya Vaitkevich / Pexels

No es fácil definir y, por tanto, concretar que son los suplementos nutricionales. Valero Zanuy y León Sanz, del Hospital Universitario 12 de Octubre de Madrid, en una revisión publicada en 2005 afirman que son “preparados nutricionalmente completos en uno o más nutrientes que, sin embargo, suelen contener vitaminas y minerales en cantidades inferiores a las recomendadas en la dieta”. En Wikipedia tampoco los definen con precisión y añaden que también se denominan “suplemento dietético”, “complemento nutricional” o “suplemento alimenticio”. En Estados Unidos se consumen por vía oral, contienen un “ingrediente alimenticio” (vitaminas, minerales, aminoácidos, enzimas, extractos glandulares, hierbas, …), y se dispensan en comprimidos, cápsulas, líquidos o polvos. No se presentan como sustitutos de un alimento o se consideran un componente único de la dieta o de una comida, y siempre se deben identificar como suplemento en la etiqueta.

Más o menos con esta definición, Andrew Geller y sus colegas, del Centro de Control de Enfermedades de Atlanta, han publicado un estudio curioso e interesante, a la vez que preocupante. Han revisado los ingresos, entre 2004 y 2013, en 63 departamentos de urgencias de hospitales de Estados Unidos y encuentran que 3667 pacientes llegan por algún problema con suplementos nutricionales. Calculan que, en todo el país, la media anual de entradas en urgencias por esta causa superaría los 23000 pacientes, con ingreso hospitalario para los enfermos en 2100 casos.

El 28% de los ingresos son jóvenes de 20 a 34 años, y el 21% son niños. Casi el 70% se deben a suplementos con hierbas o con vitaminas y minerales. El 20% son complementos para bajar peso y el 10% para aumentar la energía. En el 72% hay palpitaciones en el corazón, taquicardia y dolor en el pecho. En los mayores de 65 años, el ingreso es, en un 38%, por síntomas de asfixia y por disfagia o problemas para tragar.

En resumen, en los jóvenes aparecen problemas cardiacos, en los mayores hay dificultades para tragar y respirar, y, en los niños, los ingresos se deben a que han tomado dosis excesivas de los suplementos cuando no estaban vigilados.

Y, también en Estados Unidos, los investigadores se preguntan a qué se debe el uso tan generalizado de estos suplementos. David Kaufman y su grupo, de la Universidad de Boston, publicaron en 2002 una encuesta telefónica, con llamadas entre 1998 y 1999, a 2540 voluntarios mayores de 18 años, con una edad media de 34 años y con el 53% de mujeres.

Para los productos con vitaminas y minerales, el 35% declara que los consume porque son buenos para la salud, el 11% como suplemento para la dieta, o el 6% como prevención de la osteoporosis. Incluso hay un 3% que no sabe o no dice la causa por la que los consume.

Los suplementos con hierbas también se utilizan, para un 16%, porque son buenos para la salud. El 7% lo hace por la artritis, el 6% para mejorar la memoria, el 4% para complementar la dieta, el 3% para dormir mejor, y el 2% no sabe o no contesta.

En 2013 se publicaron los datos de otro estudio sobre el consumo en Estados Unidos de los suplementos dietéticos. Lo organizaron Regan Bailey y su equipo, de los Institutos Nacionales de Salud de Bethesda, y da los resultados de una encuesta a 11956 adultos, con el 54% de mujeres y edades de 20 a 60 años.

El 43% consume suplementos para mejorar la salud y el 33% para mantenerla. El 36% toma calcio para la salud de los huesos, y el 18% toma suplementos para el corazón o para bajar el colesterol. Lo que más se consume son los complejos con vitaminas y minerales, con el 32%, seguido del calcio, con el 12%, y los ácidos grasos Omega-3, con el 10%. Y solo el 23% consume suplementos por recomendación de un profesional sanitario.

Es notable el estudio de Joseph Knapik y su grupo, del Instituto de Investigación de Medicina Ambiental del Ejército de Estados Unidos en Natick, sobre el uso de suplementos nutricionales por el personal militar. Entre el personal de la Armada y de los Marines, con el 14% de mujeres y edad media de 33.8 años, el uso llega al 74%. El 45% consume suplementos de vitaminas y minerales, y el 42% suplementos con proteínas. El 31% utiliza cinco o más suplementos dietéticos. Las cifras son más altas que entre los civiles pero similares a las encontradas en otros cuerpos militares.

Otro colectivo muy dado a consumir suplementos son los deportistas o los practicantes habituales de deporte. A veces esos suplementos llevan productos que ayudan al rendimiento físico o el mantenimiento del peso, e incluso pueden dar positivo en los análisis anti-dopaje. Así ocurre con la oxilofrina, también conocida como metilsinefrina. Es un fármaco, desarrollado en Europa en la década de los treinta del siglo pasado, para estimular el corazón, subir la presión sanguínea y mejorar la toma de oxígeno.

Cuentan Pieter Cohen y su grupo, de la Alianza por la Salud de Cambridge, que, aunque en Estados Unidos nunca se aprobó como fármaco, aparece en la composición de suplementos nutricionales que se anuncian para quemar grasas y perder peso. Para conocer su concentración en los suplementos, analizan 27 marcas que lo anuncian en su composición.

El resultado es sorprendente: el 48%, 13 de 27, no llevan la oxilofrina. Y en los 14 que la llevan, el rango de concentraciones va de 0.0003 a 75 miligramos. Seis de los productos con oxilofrina tienen concentraciones iguales a superiores a las utilizadas como fármaco. Desde luego, darían positivo en el análisis anti-dopaje. O no, pues ya digo que la mitad no lleva la oxilofrina. Son suplementos que no producen daño pues no tienen ningún efecto. Por lo menos, en relación con la oxilofrina.

Pero el asunto de los suplementos para deportistas es todavía más desconcertante. En otro estudio el grupo de Pieter Cohen analizó la presencia de estimulantes en nueve suplementos para deportistas durante nueve meses para conocer si las concentraciones variaban con el tiempo. Menos en una de las marcas, en las otras ocho los cambios eran importantes. Solo como ejemplo, la cafeína varía de -7% a +266%. Es evidente que falta control de las composiciones reales de los suplementos, por lo menos en Estados Unidos.

Para Ronald Maughan y sus colegas, de la Universidad St. Andrews en Escocia, después de la revisión de varias encuestas, la elección de utilizar suplementos por los atletas no suele estar bien informada por falta de conocimientos y, a menudo, por la influencia de personas cercanas con parecida falta de criterio científico. Además, es habitual no conocer bien el problema para el que se buscan soluciones.

Algunos suplementos pueden ser beneficiosos para resolver un problema concreto y en un momento concreto. Pero muchos son menos beneficiosos de lo que se afirma, otros pueden ser perjudiciales y, algunos, incluso pueden contener sustancias prohibidas en la regulación antidopaje.

Fuente: Wikimedia Commons

También podemos repasar algún caso en concreto, por ejemplo, los suplementos dietéticos para adelgazar. Igho Onakpoya y sus colegas, de la Universidad de Exeter, en Inglaterra, han publicado un meta análisis sobre la eficacia de estos suplementos.

Revisan las bases de datos hasta 2009 y, después de la selección de artículos por criterios metodológicos, se quedan con nueve. Los suplementos dietéticos que aparecen en esos nueve trabajos son guaran, picolinato de cromo, efedrina, naranja amarga, ácido linoleico conjugado, calcio, glucomanano, quitosano y te verde.

Algunos estudios tienen muestras pequeñas y escasez de controles, pero ninguno de estos suplementos consigue que baje el peso, por lo menos en un 5% que es una cifra clínicamente aceptada. Los autores proponen nuevos estudios para confirmar o negar estas conclusiones.

O también hay un meta análisis de la relación entre el suplemente dietético de ácidos grasos Omega 3 y las enfermedades cardiovasculares. Lo han publicado Evangelos Rizos y su grupo, de la Universidad de Ioannina, en Grecia, después de revisar y encontrar en las bases de datos 20 estudios con un total de 68680 pacientes.

Después de relacionar la causa de la muerte de 7044 de estos pacientes con la toma de suplementos Omega-3, llegan a la conclusión de que no existe asociación con cualquier causa de mortalidad y, más en concreto, con enfermedades cardiovasculares como el paro cardíaco, muerte súbita, infarto de miocardio y derrame cerebral.

También se usan suplementos vitamínicos para disminuir el riesgo de cáncer. En 2009, Marian Neuhouser y sus colegas, del Centro Fred Hutchinson de Investigación del Cáncer en Seattle, publicaron un estudio sobre el uso de los suplementos y la incidencia de cáncer en 161808 mujeres con los resultados de tres encuestas sobre terapia hormonal, dieta y toma de vitamina D y calcio. Los datos se toman entre 1995 y 1998, seguido de ocho años de control de las voluntarias. La incidencia final de enfermedades se tomó en 2005.

El 41.5% de las encuestadas toman suplementos multivitamínicos y, después de los ocho años de seguimiento, hay 9619 casos de cáncer y, en total, 9865 fallecimientos. No hay ninguna evidencia de que la toma de suplementos multivitamínicos tenga alguna influencia en el riesgo de cáncer, enfermedades cardiovasculares o mortalidad general en mujeres post menopaúsicas.

Referencias:

Attipoe, S. et al. 2016. Variability of stimulant levels in nine sports supplements over a 9-month period. International Journal of Sport Nutrition and Exercise Metabolism 26: 413-420.

Bailey, R.I. et al. 2013. Why US adults use dietary supplements. Journal of American Medical Association Internal Medicine 173: 355-361.

Cohen, P.A. et al. 2016. Pharmaceutical doses of the banned stimulant oxilofrine found in dietary supplements sold in the USA. Drug Testing and Analysis DOI: 10.1002/dta.1976

Geller, A.J. et al. 2015. Emergency department visits for adverse events related to dietary supplements. New England Journal of Medicine 573: 1531-1540.

Kaufman, D.W. et al. 2002. Recent patterns of medication use in the ambulatory adult population of the United States. The Slone Survey. Journal of American Medical Association 287: 337-344.

Knapik, J.J. et al. 2021. Prevalence of and factors associated with dietary supplement use in a stratified, random sample of US Military Personnel: The US Military dietary supplement use study. Journal of the Academy of Nutrition and Dietetics 151: 3495-3506.

Maughan, R.J. et al. 2018. Making decisions about supplement use. International Journal of Sport Nutrition and Exercise Metabolism 28: 212-219.

Neuhouser, M.L. et al. 2009. Multivitamin use and risk of cancer and cardiovascular disease in the women’s health initiative cohorts. Archives of Internal Medicine doi: 10.1001/archintermed.2008.540

Onakpoya, I.J. et al. 2011. Food supplements for body weight reduction: A systematic review of systematic reviews. Obesity 19: 239-244.

Rizos, E.C. et al. 2012. Association between omega-3 fatty acid supplementation and risk of major cardiovascular disease events: a systematic review and meta-analysis. Journal of American Medical Association 308: 1024-1033.

Valero Zanuy, M.A. & M. León Sanz. 2005. Empleo de suplementos nutricionales orales basado en la evidencia. Endocrinología y Nutrición 52, Supl. 2: 34-40.

Wikipedia. 2017. Suplemento dietético. 12 junio.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo El enigma de los suplementos nutricionales se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Efecto pétalo de rosa: desvelado uno de los mayores enigmas de las superficies biológicas

Dom, 2022/01/16 - 11:59

Victoria Fernández y Jaime Colchero

Shutterstock / Shkvarko

 

Hace décadas que expertos en ciencia de materiales de todo el mundo tratan de dar respuesta a un bellísimo fenómeno de la naturaleza: el modo en que las esféricas gotitas de rocío se adhieren a los pétalos de la flor más popular del mundo, y no se caen, aunque pongamos la flor boca abajo. Este fenómeno recibe el nombre de efecto pétalo de rosa. Encontrar la solución a este enigma abre un mundo de posibilidades en la biología y en el desarrollo de nuevos materiales.

La hoja del Lotus y el pétalo de rosa

Hay dos superficies vegetales muy singulares, de gran interés para la ciencia de materiales por su relación con el agua: el haz de la hoja del Lotus (Nelumbo nucifera), símbolo de pureza por sus propiedades autolimpiantes (efecto Lotus) y el haz del pétalo de rosa, por la enorme adherencia de las gotas (efecto pétalo de rosa). Ambas superficies son muy hidrófobas (las gotas de agua sobre ellas son casi esféricas), pero en la hoja del Lotus las gotas resbalan, mientras que al pétalo de rosa se adhieren. Una incógnita de primer orden que no es cuestión de magia, sino de ciencia.

Habitualmente, estos fenómenos se han interpretado considerando únicamente la rugosidad de las superficies y su condición hidrófoba y uniforme. Así ocurría en el artículo de Lin Feng publicado en 2008 en el que dio nombre a este fenómeno. Sin embargo, el enigma no resuelto es cómo la misma justificación científica podía explicar tanto la repelencia de las gotas de agua por las hojas del Lotus, como la adherencia de las gotas al pétalo de rosa. Algo no cuadraba.

La enorme complejidad de las superficies vegetales

Llevamos mas de doscientos años intentando comprender como “mojan” las superficies, tanto biológicas como sintéticas. Asimismo, desde hace dos siglos se han realizado investigaciones para analizar la composición química y la estructura de las superficies de los órganos vegetales con limitado éxito, debido a su enorme complejidad.

Un problema inherente al estudio de las superficies vegetales es que su estructura puede alterarse al arrancar el órgano de la planta. Los pétalos son muy delicados y su superficie pierde su forma natural poco después de separarse de la flor.

Pétalos naturales en el laboratorio

En un novedoso estudio interdisciplinar entre diferentes centros de investigación españoles, hemos conseguido utilizar pétalos naturales para analizar –a la nanoescala– no sólo la morfología (como hasta ahora), sino también las propiedades químicas que determinan su mojado.

En una primera fase, seleccionamos una variedad de rosa cuyos pétalos mantenían adheridas las gotas de agua de manera similar en su cara de arriba (haz) y de abajo (envés). Conseguimos caracterizar ambas caras en pétalos naturales, sometiéndolos a un tratamiento que preservara su estructura.

Con el microscopio electrónico de barrido (SEM) observamos que tanto la textura como la rugosidad de ambas superficies del pétalo (la cara de arriba/haz y abajo/ envés) son muy diferentes. Sin embargo, se mojan de modo similar por las gotas de agua. Así que la rugosidad no sirve para explicarlo todo. Había que mirar más profundamente para encontrar la clave del efecto pétalo de rosa.

El microscopio de fuerza atómica (AFM) resolvió el misterio

El análisis mediante microscopía de fuerza atómica (AFM) nos dio la respuesta. El AFM permite analizar la superficie del pétalo a escala muy fina, nanómetros, y esencialmente funciona “palpando” con mucha delicadeza las superficies con una punta extremadamente afilada. Además de percibir la rugosidad, el AFM es capaz de “notar” la composición química. Así descubrimos que la superficie de los pétalos a esa escala tiene rugosidad fractal en el rango entre 5 nm y 20 µm.

Imagen obtenida mediante microscopía de fuerza atómica de un pétalo de rosa. La altura se corresponde con la morfología y muestra la gran rugosidad a escala micro y nanométrica. Los puntos azules se corresponden con zonas hidrófilas, en su mayoría en lo más alto de la superficie de la rosa.

También encontramos que a escala nanométrica la superficie del pétalo tiene un teselado irregular, un patrón de figuras que se repite, y que recubre completamente la superficie.

Pero aún hay algo más llamativo, y es que esa tesela íntima está formada por nano-zonas hidrofílicas e hidrofóbicas que se alternan. Y con esto se resuelve el misterio de por qué el pétalo de rosa es hidrófobo pero adherente al agua a la vez. La existencia de pequeñas zonas hidrofílicas entremezcladas con áreas hidrófobas de mayor abundancia en la superficie de los pétalos de rosa permite a las gotas de agua (de naturaleza polar) adherirse, a pesar de que la superficie es hidrófoba por su gran rugosidad y porque la mayoría de la superficie lo es.

Por extraño que parezca, ambas caras del pétalo tienen la misma dimensión fractal y esto explica que las gotas de agua interaccionen de modo parecido, pese a que la rugosidad total es unas diez veces mayor en el haz que en la del envés.

Con estos nuevos resultados se explica de forma natural la diferencia entre el efecto Lotus y el efecto pétalo de rosa.

Ambas superficies son extremadamente rugosas, pero en el pétalo de rosa el material que lo recubre (la cutícula) presenta un teselado de forma hidrofílica/hidrófoba, mientras que en la hoja del Lotus es homogéneamente hidrófobo, con un recubrimiento extra de nanotubos de ceras depositadas sobre la cutícula, que hace que la gota se desprenda.

Íntimamente, a escala nanométrica, a la que solo nos permite acceder el microscopio de fuerzas atómicas, es posible apreciar esa diferencia entre estas dos superficies vegetales y entender por qué las gotas de rocío se anclan a la rosa y no a la hoja del Lotus.

Materiales del futuro e implicaciones biológicas

Tras estos resultados, los estudios de mojabilidad de materiales naturales o sintéticos que se desarrollen en un futuro deberían valorar la posible heterogeneidad química de las superficies.

A nivel de las superficies vegetales, estas zonas hidrofílicas son de enorme interés pues pueden tener un papel fundamental para la absorción de agua y solutos depositados sobre las hojas, como aerosoles o pulverizaciones foliares de productos agroquímicos, y también pueden ser puntos vulnerables para el ataque de plagas y enfermedades.

La presencia, relevancia y abundancia de zonas hidrofílicas en las superficies vegetales es actualmente una caja de Pandora que acabamos de abrir y que previsiblemente nos deparará muchas sorpresas.

Desvelar el secreto del pétalo de la rosa, su gran rugosidad y heterogeneidad química, permitirá a la ciencia de materiales y la biomimética desarrollar nuevas superficies de gran utilidad. El campo está abierto.The Conversation

Sobre los autores: Victoria Fernández es profesora contratada doctora en el departamento de Sistemas y Recursos Naturales de la Universidad Politécnica de Madrid y Jaime Colchero es profesor titular en el departamento de Física de la Universidad de Murcia

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Efecto pétalo de rosa: desvelado uno de los mayores enigmas de las superficies biológicas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: Carmen Agustín – Mecp2

Sáb, 2022/01/15 - 10:00

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

De una sola célula, un óvulo fecundado, se desarrollarán en cuestión de unos pocos meses todo un abanico de tipos celulares diferentes, de desde células de la piel o linfocitos a neuronas. Todas estas células comparten exactamente el mismo código genético; lo que las diferencia es qué parte del código usa cada una. En esta labor de lectura selectiva participan proteínas que regulan la transcripción, como Mecp2, clave en el desarrollo de un encéfalo sano y funcional. Problemas con Mecp2 pueden dar lugar a enfermedades raras, como el síndrome de Rett. Carmen Agustín comparte en este interesantísimo vídeo los resultados de su grupo de investigación.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Carmen Agustín – Mecp2 se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Una estructura de parentesco neolítico

Vie, 2022/01/14 - 11:59

El análisis del ADN antiguo de una de las tumbas neolíticas mejor conservadas de Gran Bretaña ha revelado que la mayoría de las personas allí enterradas pertenecía a cinco generaciones consecutivas de una única familia extensa.

Plano de la excavación y hueso humano encontrado en el túmulo de Hazleton Norte. Imagen: Iñigo Olalde

Al analizar el ADN extraído de los huesos y dientes de 35 individuos enterrados en el túmulo largo de Hazleton Norte, en la región de Cotswolds-Severn, el equipo de investigación pudo detectar que 27 de ellos eran parientes biológicos muy cercanos. Este grupo vivió hace aproximadamente 5.700 años —entre 3700 y 3600 a.C.—, unos 100 años después de que se introdujera la agricultura en Gran Bretaña.

Este trabajo es el primer estudio que revela con tanto detalle cómo se estructuraban las familias prehistóricas, y el equipo internacional de arqueólogos y genetistas afirma que los resultados sacan a la luz nuevos conocimientos sobre el parentesco y los enterramientos en el Neolítico.

El equipo de investigación, formado por arqueólogos de la Universidad de Newcastle (Reino Unido) y genetistas de la Universidad del País Vasco, la Universidad de Viena y la Universidad de Harvard, muestra que la mayoría de las personas enterradas en la tumba eran descendientes de cuatro mujeres que tuvieron hijos con el mismo hombre.

El túmulo de Hazleton Norte consta de dos cámaras en forma de L situadas al norte y al sur del eje longitudinal. Tras su muerte, los individuos eran enterrados en el interior de estas dos cámaras, y los resultados de la investigación indican que los hombres eran enterrados generalmente con su padre y sus hermanos varones, lo que sugiere que el linaje era patrilineal y que las generaciones posteriores enterradas en la tumba estaban completamente ligadas a la primera generación solo a través de sus parientes varones.

Dos de las hijas del linaje que murieron en la infancia fueron enterradas en la tumba, pero, sin embargo, hay una ausencia total de hijas adultas, lo que sugiere que tan pronto como llegaban a edad reproductiva abandonaban su familia de origen y sus cuerpos eran enterrados o bien en las tumbas de los hombres con quienes tuvieron descendencia o en algún otro lugar.

Aunque el derecho de uso de la tumba pasaba por los lazos patrilineales, la elección de si los individuos eran enterrados en la zona de la cámara norte o sur dependía inicialmente de la mujer de primera generación de la que descendían, lo que indica que estas mujeres de primera generación eran socialmente significativas en la memoria de esta comunidad.

Según el personal investigador, también hay indicios de que los «hijastros» fueron adoptados en el linaje, es decir, varones que no descendían ni del hombre fundador ni de sus hijos, pero cuya madre estaba enterrada en la tumba y había tenido hijos con alguno de estos hombres. Además, el equipo no encontró pruebas de que otros ocho individuos fueran parientes biológicos de los miembros del árbol genealógico, lo que refuerza la idea de que el parentesco biológico no era el único criterio de inclusión. Sin embargo, tres de los cuerpos eran femeninos y es posible que tuvieran una pareja reproductiva en la tumba, pero no tuvieran descendencia o tuvieron hijas que llegadas a la edad adulta abandonaron la comunidad, por lo que no aparecen en la tumba.

El Dr. Chris Fowler, responsable de la investigación y jefe de arqueología de la Universidad de Newcastle, afirma que: «este estudio nos ofrece una visión sin precedentes sobre el parentesco de una comunidad neolítica. La tumba de Hazleton North consta de dos zonas o cámaras a las cuales se accede por una entrada norte y a la otra por una entrada sur. Un hallazgo extraordinario ha sido que en un principio se utilizaba cada una de las dos mitades de la tumba para enterrar los cadáveres de una de las dos ramas de la misma familia. Esto tiene una gran importancia porque sugiere que la disposición arquitectónica de otras tumbas neolíticas podría indicarnos cómo era su parentesco».

“La excelente conservación del ADN en la tumba y la utilización de las últimas tecnologías para la recuperación y el análisis del ADN antiguo nos han permitido descubrir y analizar el árbol genealógico más antiguo jamás construido, y así comprender más a fondo la estructura social de estos grupos”, señala Iñigo Olalde, investigador de la Universidad del País Vasco (UPV/EHU) e Ikerbasque y responsable genetista de la investigación.

«Este estudio refleja lo que creo que es el futuro del ADN antiguo: los arqueólogos y arqueólogas son capaces de aplicar el análisis de ADN antiguo con una resolución lo suficientemente alta como para abordar las cuestiones que realmente les importan», añade David Reich, de la Universidad de Harvard, cuyo laboratorio dirigió el proceso de generación del ADN antiguo.

Ron Pinhasi, de la Universidad de Viena, afirma que “hace unos años difícilmente podríamos pensar que llegaríamos a conocer las estructuras del parentesco neolítico. Pero esto es solo el principio y sin duda hay mucho más que descubrir en otros yacimientos de Gran Bretaña, Francia atlántica y otras regiones».

Referencia:

Chris Fowler, Iñigo Olalde et al. (2021) A high-resolution picture of kinship practices in an Early-Neolithic tomb Nature doi: 10.1038/s41586-021-04241-4

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Una estructura de parentesco neolítico se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

De ‘harén’ a científicas pioneras

Jue, 2022/01/13 - 11:59

 

Edward Charles Pickering no era astrónomo de formación sino físico experimental, un apasionado de cualquier actividad que conllevase algún tipo de medida. Por eso, cuando le pusieron al frente del observatorio astronómico de la Universidad de Harvard, su primer impulso fue medir cosas, concretamente cosas astronómicas: la luz de las estrellas, su color, su intensidad, sus líneas espectrales, ¡todo lo se pudiese convertir en números! Pickering decidió que la gran contribución de su observatorio a la astrofísica sería la obtención de grandes cantidades de datos. Con ellos, otros investigadores podrían dar forma a sus modelos y teorías sobre el universo.

Para reunir todos esos datos, el proyecto contaba con dos grandes telescopios, el “Gran Refractor” de Cambridge y el telescopio Bruce de Arequipa. Gracias a sus potentes lentes y a los últimos avances en fotografía astronómica, sería posible observar cada rincón del cielo, desde los dos hemisferios. Pickering estaba convencido de que todos estos datos, capturados de manera periódica durante años, tendría un valor inmenso para la ciencia. Y no se equivocaba. Con su iniciativa dio comienzo la era de los grandes sondeos astronómicos (o astronomical surveys, en inglés), observaciones sistemáticas del cielo que permiten observar cambios en alguna región en concreto, de gran importancia para la astrofísica moderna1.

De hecho, el proyecto liderado por Pickering consiguió reunir una colección de fotografías no grande, enorme. A lo largo de seis décadas el Observatorio Harvard generó alrededor de medio millón de placas de cristal fotográfico, con imágenes de unos diez millones de estrellas. En total, pesaban unas 300 toneladas. Las ligeras memorias USB aún no se llevaban, se entiende. Pero tampoco los ordenadores y analizar toda aquella información para hacerla manejable y evitar que terminase criando polvo en algún oscuro almacén, no era tarea sencilla, ni barata.


Las calculadoras de Harvard. Fuente: Wikimedia Commons

 

El objetivo último era crear un catálogo fotométrico, donde se pudiesen consultar las magnitudes y posiciones de los distintos grupos estelares, así como los espectros de todas las estrellas observadas. Pero para ello era necesario convertir las placas fotográficas procedentes de los telescopios en números: recorrer el cielo entero, imagen por imagen, interpretando la información encerrada en aquellos mapas de cristal. Se trataba de una labor ardua y tediosa, que requería una gran destreza visual, capacidad de concentración y rigor metódico. Pero sobre todo, se trataba de una obra gigantesca que solo se podía realizar con mano de obra especializada (mucha mano de obra especializada). Y para completarla sin arruinarse en el intento, Pickering tuvo una “brillante” idea: contratar mujeres. No solo cobraban menos que los hombres por realizar la misma tarea (el sueldo mínimo, unos 25 centavos la hora, a pesar de ser mujeres graduadas en astronomía) sino que, además, en palabras del propio astrónomo: “las mujeres tienen la destreza para realizar trabajos repetitivos, no creativos”.

Está claro que Pickering fue un pionero de la astronomía, no de los derechos sociales. Por suerte, a estas alturas poco importa cuáles fueran sus motivaciones. El hecho es que hoy, gracias a aquella decisión inusual para la época, algunas de las protagonistas del “harén de Pickering” o las “computadoras de Harvard” —como se conoció a aquellas mujeres contratadas entre 1877 y 1919— figuran para siempre la historia de la astronomía. Sobre sus pupitres, dispuestos para un trabajo repetitivo, mecánico e ingrato, aquellas inesperadas astrónomas dieron forma a los cimientos de la astrofísica moderna. Y sus aportaciones no siempre fueron bienvenidas. En ocasiones, a Pickering “le irritaba su independencia y autosuficiencia apartándose del trabajo asignado”2.

Entre las computadoras de Harvard, hay muchos nombres que destacar y para conocerlos en detalle, os recomiendo visitar El Diario Secreto de Henrietta Levitt, un proyecto de divulgación precioso del Instituto de Astrofísica de Andalucía. Antonia Mary utilizó los espectros estelares para evaluar los tamaños relativos de las estrellas. Henrietta Levitt estudió las llamadas estrellas variables, y descubrió que sus periodos estaban relacionados con su luminosidad, lo que las convierte en herramientas valiosísimas para medir las distancias en el universo. Williamina Fleming jugó un papel fundamental en el descubrimiento de las enanas blancas. Pero aquí nos interesa especialmente el trabajo Annie Jump Cannon y su sistema de clasificación estelar, que todavía sigue vigente en la actualidad. Las aportaciones de esta astrónoma fueron célebres ya en su tiempo y en 1919, cuando Pickering falleció, ella le sucedió al frente de las computadoras de Harvard.

Referencias:

1Cómo comencé con el diario.” El extraño caso de Henrietta Leavitt y Erasmus Cefeido, Instituto de Astrofísica de Andalucía. 26 de agosto de 2012. Consultado el 9 de enero de 2022.

2Masegosa, Josefa. “El harén de Pickering: Antonia C. Maury.” El extraño caso de Henrietta Leavitt y Erasmus Cefeido. Instituto de Astrofísica de Andalucía, 11 de marzo de 2013. Consultado el 9 de enero de 2022.

&nbsp

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo De ‘harén’ a científicas pioneras se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Un código detector de errores: la letra del DNI

Mié, 2022/01/12 - 11:59

 

Un objeto que manejamos prácticamente a diario en nuestra vida es el DNI, el documento nacional de identidad, que está formado por un número de ocho dígitos y, desde hace unos años, también una letra. Muchas personas piensan que esa letra se nos asigna de forma aleatoria, como el número, pero esto no es así. En esta entrada del Cuaderno de Cultura Científica vamos a explicar, aunque es posible que muchas de vosotras ya lo conozcáis, cómo se asigna esa letra y cuál es su significado.

Formato del primer modelo de DNI, de color verde, que fue utilizado entre los años 1951 y 1961. Este modelo fue elegido fruto de un concurso público convocado en 1946 y ganado por D. Aquilino Rieusset Planchón, que recibió el premio de 30.000 pesetas. Imagen de la Historia del Documento Nacional de Identidad

 

Si nos vamos a la página web del Ministerio de Interior del Gobierno de España, que es quien emite el documento nacional de identidad, podemos leer que este es un documento público, personal e intransferible que acredita la identidad y los datos personales de su titular, y que es obligatorio para los mayores de 14 años.

Hasta hace unos años el DNI constaba solamente de un número de 8 dígitos, pero en 1990 para evitar, en la medida de lo posible, errores, se añadió una letra. Cuando rellenamos algún formulario en el que se nos pide el documento nacional de identidad es relativamente fácil equivocarnos en un dígito o cambiar dos dígitos de orden, por lo que se añadió al número del DNI un código de detección de errores, la letra.

La letra del DNI se calcula de la siguiente forma. Se toma el número del mismo, se divide por 23 y el resto de esa división nos va a dar la letra, para lo cual se utiliza una tabla que asigna a cada número, entre 0 y 22, una de las “23” letras del abecedario –, aunque son 27, se han quitado las letras I, O, U y Ñ-, de la siguiente forma:

Pongamos un ejemplo sencillo. Supongamos que el número del DNI que nos han asignado es 12.345.678. Si lo dividimos entre 23, el resto nos da 14. Miramos en el cuadro que nos asigna a cada número, entre 0 y 22, una letra y vemos que la letra asignada al número 14 es Z. Por lo tanto, el DNI será 12.345.678Z.

O si nuestro número fuese 98.765.432, entonces como al dividirlo entre 23 el resto es 5, la letra asignada es M y el DNI completo sería 98.765.432M.

Imagen del documento nacional de identidad falsificado de Santiago Carrillo, en la época en la que este constaba solo de un número  de ocho dígitos como máximo. Imagen del Fondo Domingo Malagón, en la Biblioteca Histórica Marqués de Valdecilla, de la Biblioteca de la Universidad Complutense de Madrid

 

Una primera cuestión que nos podemos plantear es cómo calcular el resto. Podríamos hacer la división a mano, como nos enseñaron en la escuela y calcular así el resto, como en la siguiente imagen.

Aunque no hace falta que hagamos la división a mano para obtener el resto. Basta con utilizar una simple calculadora. Por ejemplo, si tenemos el número 12.345.678 y lo dividimos por 23 en nuestra calculadora nos dará

536.768,60869565217391304347826087…

es decir, la división nos da el número natural 536.768, seguido de una serie de decimales. Para calcular el resto a partir de este resultado, le restamos la parte no decimal, 536.768, y a lo que nos queda, la parte decimal,

0,60869565217391304347826087…

la multiplicamos por 23. El resultado, o el número más cercano al resultado, es el resto, en este caso 14.

Calcular la letra de nuestro DNI es fácil, e incluso diseñar un pequeño programa para calcularla. Más aún, hay sitios web para calcularla online si queremos ahorrarnos la división y el cálculo del resto, como la página letra NIF. Pero vayamos con algunos comentarios sobre el cálculo de la misma.

Para empezar, en la asignación de una letra asociada al número del DNI se han eliminado cuatro letras de nuestro alfabeto –que consta de 27 letras–, las mencionadas, I, O, U y Ñ. El motivo es el siguiente. Las letras I y O se han quitado para evitar confusiones con los números 1 y 0. La letra Ñ se eliminó para evitar los problemas con los sistemas informáticos del resto del mundo, donde no tienen esta letra. Las personas que la tenemos en nuestro apellido, IBAÑEZ, sabemos los problemas que da cuando viajamos en avión o vamos a algún otro país. Y la letra U se eliminó para tener un conjunto de 23 letras, ya que el número 23 es un número primo, el más grande menor que 27, lo cual es un elemento necesario para el proceso de detección de errores.

La asignación de la letra para el documento nacional de identidad, que acabamos de explicar, asegura que se van a detectar errores gracias a lo que en matemáticas se llama aritmética modular, también conocida como “aritmética del reloj”, por la analogía con las horas.

Portada del libro Disquisitiones Arithmeticae, de 1801, en el cual su autor, el matemático alemán Carl Friedrich Gauss (1777-1855), desarrolló la aritmética modular

 

La aritmética modular, o del reloj, es un sistema aritmético que consiste en lo siguiente. Para empezar, consideramos los números enteros Z, esto es, los números naturales {1, 2, 3, …}, junto con los negativos {– 1, – 2, – 3, …} y el cero {0}, sobre los que tenemos las operaciones aritméticas básicas de la suma y la multiplicación.

Los números enteros, junto con la suma y la multiplicación, satisfacen una serie de propiedades naturales, que en matemática denominamos “estructura de anillo”, que básicamente quiere decir que cumple, más o menos, las propiedades aritméticas usuales:

i) la suma + es una operación asociativa [a + (b + c) = (a + b) + c], conmutativa [a + b = b + a], tiene un elemento neutro, el cero 0 [a + 0 = a] y tiene elemento inverso [a + (–a) = 0];

ii) la multiplicación x es una operación asociativa [a x (b x c) = (a x b) x c], tiene un elemento neutro, el 1 [a x 1 = a] y es distributiva respecto de la suma [a x (b + c) = a x b + a x c; (a + b) x c = a x c + b x c]; en este caso, además es conmutativa [a x b = b x a], por lo que hablamos de un “anillo conmutativo”.

Observemos que la multiplicación no tiene elemento inverso, ya que la división no es una operación “cerrada” en los números enteros, la división de dos números enteros puede no ser entero. Así, el inverso de 2 sería 1 / 2 = 0,5 (puesto que 2 x 0,5 = 1), sin embargo, no es un número entero.

Símbolo que denota el conjunto de los números enteros. El uso de la “zeta” se debe a que en alemán “zahlen” significa número

 

En la aritmética modular no se considera el conjunto de todos los números enteros, sino los “números enteros módulo n”, Zn, para un cierto número natural n, que es el módulo. La idea es la siguiente. Dado el módulo n se considera el conjunto finito de n elementos Zn = {0, 1, …, n – 1}, pero, a partir del módulo, los números vuelven al principio “dando la vuelta” y cada número se asociará –de hecho, se considerarán iguales- con uno del conjunto básico {0, 1, …, n – 1}, su congruente. Así, n pasa a ser igual a 0, n + 1 igual a 1, etcétera (como las 13 horas es igual a la 1, las 14 a las 2, las 15 a las 3, …). Además, dos números enteros a y b se dice que son congruentes, módulo n, si, dentro de esa asociación que acabamos de definir, son iguales a un mismo número del conjunto básico {0, 1, …, n – 1}, lo cual ocurre (pensémoslo un poco) si a – b es divisible por n.

Forma de expresar en matemáticas que el número entero a es congruente con el número entero b, módulo n

 

Por ejemplo, si tomamos n = 5, entonces el conjunto básico es Z5 = {0, 1, 2, 3, 4} y tenemos que, por ejemplo, 5 es congruente con 0 (módulo 5), 6 es congruente con 1 (módulo 5), 7 es congruente con 2 (módulo 5) o, por ejemplo, que 13 es congruente con 3 (módulo 5).

Esto es algo así como dividir los números enteros en 5 conjuntos y que los elementos de cada conjunto se consideren iguales.

Una vez considerado el conjunto de los números enteros módulo n, se restringen las operaciones aritméticas de la suma y la multiplicación al mismo. Por ejemplo, para el conjunto de los números enteros módulo 5, Z5 = {0, 1, 2, 3, 4}, se tiene que 2 + 3 = 0 (observemos que en este conjunto los números 2 y 3 son inversos el uno del otro, respecto de la suma), 3 + 3 = 1 o 3 + 4 = 2, para la suma, y 2 x 3 = 1 (esto es, que el 2 y el 3 son inversos respecto de la multiplicación), 2 x 4 = 3, o 4 x 4 = 1 (el cuatro es inverso de sí mismo), para la multiplicación.

Podemos dibujar las tablas de estas dos operaciones sobre el conjunto Z5 de los números enteros módulo 5.

Podemos observar que Z5 ha heredado las propiedades aritméticas de la suma y la multiplicación que se cumplían sobre los números enteros Z. Por lo tanto, Z5 también tiene estructura de anillo conmutativo. En general, Zn, los números enteros módulo n, para cualquier n, tienen estructura de anillo conmutativo con las operaciones de suma y multiplicación heredadas de los números enteros, Z.

Dibujemos ahora las tablas aritméticas sobre el conjunto Z6.

Lo primero que podemos observar es que en Z6 existen “divisores del cero”, es decir, números a y b tales que su multiplicación es igual a 0, a x b = 0, lo cual no ocurría para los números enteros Z (y, dicho sea de paso, tampoco para Z5). En concreto tenemos que en Z6 se satisface que 2 x 3 = 0 o que 3 x 4 = 0.

Por otra parte, como ocurría en los números enteros, Z, no todos los elementos no nulos de Z6 tienen inverso respecto a la multiplicación. No lo tienen ni 2, ni 3, ni 4, aunque sí 5, que es inverso de sí mismo. Pero si nos fijamos en Z5, aquí si tienen inverso, respecto de la multiplicación, todos los elementos no nulos. De hecho, esta propiedad es más general aún, ya que los enteros módulo un número primo p, Zp, satisfacen que todos los elementos no nulos tienen inverso, respecto de la multiplicación. En matemáticas, si tenemos un anillo conmutativo que satisface que existen también inversos respecto de la multiplicación se dice que tiene “estructura de cuerpo”. Por lo tanto, los enteros módulo un número primo p, Zp, tienen estructura de “cuerpo”.

Y aquí es donde volvemos a enlazar con el documento nacional de identidad, puesto que para asignar la letra hemos considerado los enteros módulo el número primo 23, Z23, que tiene estructura matemática de “cuerpo”.

Ahora, utilizando la aritmética modular se pueden demostrar algunos resultados que nos permiten demostrar que la letra del DNI es un código detector de errores. Por ejemplo, puede demostrarse el siguiente resultado.

Teorema 1: La letra del DNI permite detectar un error.

Es decir, si nos hemos equivocado al escribir uno de los dígitos del DNI –el resto de dígitos y la letra están bien–, entonces detecta el error, o lo que es lo mismo, en ese caso la letra asociada al número incorrecto no podrá ser esa misma letra. Por ejemplo, dos números del DNI que solo se diferencian en un dígito, como 12.345.678 y 12.395.678, no pueden tener la misma letra. Efectivamente, esos números tienen dos letras distintas 12.345.678Z y 12.395.678N.

La demostración del teorema 1 es relativamente sencilla. Recordemos que para que dos números enteros p y q determinen el mismo número módulo 23 se tiene que cumplir que pq sea divisible por 23. Si tenemos dos números de DNI A y B que solo se diferencian en un dígito (es decir, hemos cometido un error), entonces AB = 10n x (ab), donde n es la posición del dígito que es distinto (de derecha a izquierda) y a y b son los dígitos que son diferentes. Por ejemplo, en el caso anterior 12.395.678 – 12.345.678 = 90.000 – 40.000 = 105 x (9 – 4). Pero como 10n no es divisible por 23 (solo lo es por 2, 5 y potencias de ambos), para que AB sea divisible por 23 (y a ambos números les corresponda el mismo número en Z23, luego la misma letra en la asignación descrita), tendría que ocurrir que ab fuese divisible por 23. Pero, resulta que a y b son números entre 0 y 9, luego la única forma de que ab sea divisible por 23 es que ab = 0, es decir, a = b, con lo cual no habría error. En nuestro ejemplo, con 12.395.678 – 12.345.678, el número 5 tendría que ser divisible por 23, que no lo es, por eso los dos números tienen asignadas letras distintas. Y con este razonamiento queda demostrado el resultado del teorema 1.

Sin embargo, la letra no permite detectar dos errores en el DNI, es decir, existen números de DNI que difieren en dos dígitos y tienen la misma letra. Por ejemplo, 12.345.678 y 12.345.655 ambos tienen la letra Z: 12.345.678Z y 12.345.655Z. Observemos que 12.345.678 – 12.345.655 = 23.

El código de detección de errores que es la letra del DNI permite detectar más errores aún.

Teorema 2: La letra del DNI permite detectar el intercambio de dos dígitos consecutivos en el número del DNI.

Por ejemplo, dos números que difieran únicamente en el orden de dos dígitos consecutivos, como 12.345.678 y 12.346.578 no pueden tener la misma letra. Así, 12.346.578 tiene asociada la letra V (12.346.578V) y no la letra Z como 12.345.678Z. La demostración de este resultado es similar al anterior, pero la dejamos para aquellas personas que quieran intentar realizar la demostración por ellas mismas (quien esté interesado puede ver las demostraciones de estos resultados en el artículo Algunos secretos del documento nacional de identidad español: una aplicación de la aritmética modular a códigos detectores de errores).

A continuación, démosle la vuelta a la asignación de la letra a nuestro número del documento nacional de identidad. Imaginemos ahora que queremos obtener un número de DNI con una letra concreta, por ejemplo, la B. ¿Cómo lo haríamos? Lo primero que debemos saber es cuál es el número de resto asociado a esa letra. En este caso, para la B, es 11. A continuación, tomamos un número cualquiera, por ejemplo, 69.134.572, cuya letra es la E, 69.134.572-E, ya que el resto es 22. Como la B se corresponde con el 11 y nos ha salido el resto 22, entonces restamos 22 – 11 = 11 a nuestro número, 69.134.572 – 11 = 69.134.561. Efectivamente, sería 69.134.561B.

Para terminar esta entrada del Cuaderno de Cultura Científica, algunas creencias relativas al documento nacional de identidad.

Creencia 1: “Los primeros dígitos identifican la provincia”. Esto es falso. Los números del DNI se asignan, en la actualidad, de forma aleatoria según se expiden. Aunque en el pasado los números del documento nacional de identidad se asignaban por lotes a las comisarías de policía que se dedicaban a la realización de los documentos nacionales de identidad, por eso, nos podíamos encontrar con conocidos que tuviesen los mismos primeros números de nuestro DNI.

Creencia 2: “Los números del DNI de las personas fallecidas se vuelven a poner en circulación”. Esto también es falso. Como decíamos al principio de esta entrada, el documento nacional de identidad es un documento personal e intransferible que acredita la identidad y los datos personales de su titular. Utilizando números de 8 dígitos tenemos 99.999.999 posibles números (recordemos que la población de España en 2.020 era de 47,35 millones) y todavía no se han agotado.

Creencia 3: “Los números del DNI que empiezan con 0 pertenecen a personas fallecidas”. Tampoco esto es verdad. Los números de DNI que empiezan por 0 muchos de ellos fueron así expedidos cuando se asignaban a mano, mientras que los que se conceden en la actualidad, son lotes de números recuperados que por algún momento cuando correspondía otorgarlos, no se utilizaron.

Creencia 4: “El número de la parte de atrás de nuestro documento nacional de identidad nos indica el número de personas que se llaman como nosotros”. Esto sería gracioso, pero no es cierto. La parte de atrás de nuestro DNI contiene tres líneas de caracteres que están diseñadas para su lectura por dispositivos de reconocimiento de texto. Consiste en información sobre nosotros y sobre el documento, así como diferentes dígitos de control, pero ninguna relación con las personas que se llaman como nosotros.

Creencia 5: “En la parte de atrás del DNI se indican tus antecedentes penales”. Tan falso como lo anterior.

Creencia 6: “Los primeros números del DNI corresponden a la familia real”. Esto sí es cierto. Cuando se creó el documento nacional de identidad, en tiempos del dictador Francisco Franco, este se quedó con el número 1, su mujer Carmen Polo con el número 2 y su hija Carmen Franco el número 3. Por su parte, la familia real tiene reservados los números que van del 10 al 99. El rey emérito Juan Carlos I tiene el 10 y la reina Sofía el 11. Las infantas Elena y Cristina tienen el 12 y el 14 (se saltaron el 13, seguramente por motivos supersticiosos). Por este motivo, cuando el Ministerio de Hacienda publicó un comunicado que decía “el error en la imputación de transmisiones de inmuebles a la Infanta Cristina es consecuencia de que la información recibida por la Agencia Tributaria figura atribuida a un DNI que coincide con el suyo”, no parecía este un argumento muy creíble, ya que la infanta tiene un DNI singular, 14Z. Seguimos, el rey Felipe VI tiene el número de DNI 15, la princesa Leonor el 16 y la infanta Sofía el 17.

Creencia 7: “El primer DNI expedido fue el del general Francisco Franco”. A pesar de que Franco tenía el número 1 en su documento nacional de identidad, sin embargo, no fue el primer DNI expedido. El primer Documento Nacional de Identidad fue expedido el 20 de marzo de 1951, aunque fue en 1944 cuando se aprobó el decreto que regulaba estos documentos de identificación personal. Ese primer documento tenía el número 19.103.001, que había sido adjudicado en los lotes al equipo de Valencia. Pertenecía a Eva García Ayala, que era la mujer de un fotógrafo valenciano, que quería mostrar a sus clientes que en su establecimiento también se podían hacer fotografías para el nuevo documento nacional de identidad.

Pero no se vayan todavía. Terminamos, ahora sí, la entrada con algunas de las propuestas de diseños para el documento nacional de identidad que se presentaron en el concurso de 1946. Pueden verse más en el artículo Así podría haber sido el DNI: los diseños descartados de los años 40 y 80.

Bibliografía

1.- Página web del Ministerio del Interior del Gobierno de España sobre el Documento Nacional de Identidad

2.- Historia del Documento Nacional de Identidad [PDF]

3.- Varios autores, Sesenta años de expedición del Documento Nacional de Identidad 1951-2011, Fundación Policía Española, 2013.

4.- Ramón Esteban-Romero, Algunos secretos del documento nacional de identidad español: una aplicación de la aritmética modular a códigos detectores de errores, Modelling in Science Education and Learning 9 (2), 59-65, 2016.

5.- La verdad: Mitos y leyendas del DNI que creías ciertos y no lo son

6.- Huffington Post: 4 leyendas urbanas sobre el DNI y 6 detalles que quizá no conocías

7.- Hoy: Una identidad acartonada

8.- La cabeza llena: Así podría haber sido el DNI: los diseños descartados de los años 40 y 80

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Un código detector de errores: la letra del DNI se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Alexander Butlerov, eclipsado por su genio

Mar, 2022/01/11 - 11:59

¿Puede una idea científica ser tan brillante que llegue a ocultar a su autor? ¿Tan esclarecedora que pase de forma prácticamente instantánea a los libros de texto como cosa sabida y que, por lo tanto, su creador no merezca ni siquiera una mención? Parece casi inconcebible que pueda ocurrir, pero ocurrió.

Estamos en septiembre de 1861 en Speyer (actual Alemania), en el Congreso de Médicos y Naturalistas Alemanes. Un profesor de una pequeña universidad rusa, Kazán, tiene anunciada una conferencia titulada “Sobre la estructura química de la materia”; un nombre muy rimbombante para un don nadie venido de la mitad de ninguna parte. Hoy día nadie recuerda nada de ese congreso salvo esa conferencia en la que se dijo por primera vez que “la naturaleza química de una molécula está determinada no sólo por el número y tipo de átomos sino también por su disposición. El estudio químico de las sustancias debe llevar a conocer su estructura y viceversa, el conocimiento de su estructura debe llevar a predecir sus propiedades”. La teoría estructural nacía de la mano de Alexánder Mijáilovich Butlerov.

Alexánder Mijáilovich Butlerov

Pero Butlerov no se quedó en la teoría. Predijo y demostró experimentalmente la existencia de isómeros, en concreto de dos butanos y tres pentanos. En 1866 sintetizaría el isobutano. En 1868 demostraría que en los compuestos orgánicos insaturados los carbonos se unen entre sí con enlaces dobles.

Estos resultados espectaculares hicieron que el catedrático de química inorgánica de la Universidad de San Petersburgo, Dimitri Ivánovich Mendeleev, propusiera para el puesto de catedrático de química orgánica a Butlerov, que ocuparía en 1868 y hasta su jubilación en 1885, un año antes de su muerte. En ese mismo año de 1868 se completaría la edición en alemán de su “Introducción al estudio completo de la química orgánica”, libro que había aparecido en ruso sólo dos años antes y que puede ser considerado el primer texto moderno de química orgánica.

Butlerov formó parte de una incipiente escuela química orgánica rusa iniciada por sus profesores en la Universidad de Kazán, Klaus y Zinin, y que continuaron sus alumnos Markovnikov, Zeytsev y Popov. Los estudios que inició Butlerov sobre la polimerización los culminaría en 1910 Serguéi Vasiliévich Lebedev con el primer método de producción de caucho sintético (polibutadieno).

Butlerov nació en Chístopol (Rusia) en 1828. Cursó estudios de zoología y botánica en la Universidad de Kazán, pero su talento para la química fue detectado por Karl Karlóvich Klaus y potenciado por Nicolái Nikolaévich Zinin. En 1849 se gradúa y en 1851 presenta su primera disertación (lo que hoy llamaríamos tesis de máster) titulada “Sobre la oxidación de los compuestos orgánicos”. En 1854 presenta su tesis doctoral dirigida por Zinin en la Universidad de Moscú, “Aceites esenciales”, pasando a ser profesor extraordinario de la Universidad de Kazán. En 1857, se convierte en profesor ordinario y consigue una beca para viajar al extranjero durante un año, que repartiría entre el laboratorio de Kekulé en Heidelberg y el de Wurz en París.

Este año de exposición a la vanguardia de la química le hace ver la importancia de la teoría y la construcción de modelos. En este período, en anticipación a lo que después sería su charla en Speyer, Butlerov tiene una intuición fundamental. Pasteur había estudiado la actividad óptica del ácido racémico en el año 1847, con resultados espectaculares. Sin embargo, en una época en la que todas las moléculas se entendían lineales, no existía una explicación de cómo ocurría este fenómeno a nivel molecular. Butlerov apuntó que la explicación podía estar en la tridimensionalidad de los enlaces del carbono, que formarían un tetraedro, lo que daría lugar a la posibilidad de imágenes especulares de las moléculas, explicación que, como sabemos hoy día, es la correcta.

Las aportaciones de Butlerov fueron tan revolucionarias y, a la vez, con una capacidad de explicación de los fenómenos observados tan grande, que esta misma grandeza le eclipsó en vida y después de muerto. Hoy día su nombre sigue sin aparecer en muchas historias de la química occidentales.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este texto se publicó en Experientia Docet el 5 de marzo de 2012.

El artículo Alexander Butlerov, eclipsado por su genio se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Una historia de la música contada por la física

Lun, 2022/01/10 - 11:59

José Manuel González Gamarro

Las sinergias son a veces clarividentes (e incluso imprescindibles) para los avances científicos de nuestra sociedad. La interdisciplinariedad es un objetivo a conseguir para poder avanzar cultural y socialmente. No podemos prescindir de la idea de que la realidad misma es interdisciplinar. Nuestra necesidad de parcelarla parte del hecho de poder entenderla. Estas sinergias nacen muchas veces de premisas alejadas, como ingredientes que, tras un análisis, alguien llegó a la conclusión de que mezclándolos podría elaborar una comida mucho más rica.

Tal es el caso de las matemáticas y la música. Seguramente ya habrá lectores que sepan que esta relación viene de lejos, de muy lejos, desde Pitágoras por lo menos. Y efectivamente es así. Sin embargo, la historia que aquí se cuenta tiene que ver con un matemático y físico francés que desarrolló una teoría para resolver una ecuación, en un principio bastante alejada del concepto musical: la ecuación del calor. Nuestro insigne matemático no podía ser otro que Jean-Baptiste Joseph Fourier (1768-1830), que además de ser el primero en dar una explicación científica del efecto invernadero, su teoría supuso un descubrimiento para poder explicar una cualidad del sonido como el timbre, que además tuvo consecuencias de toda índole para el desarrollo de la música. Lo que hizo Fourier, simplificando mucho, fue descomponer una forma de variación periódica, como puede ser una vibración de una onda sonora, en la suma infinita de otras formas sinusoidales (que siguen la función trigonométrica «seno»). Sin embargo, el primero en darse cuenta de que la cualidad del timbre dependía de la mezcla de estas vibraciones fue otro físico francés, Joseph Sauveur (1653-1716), quedando reflejado en su importante obra Traité de la Théorie de la Musique de 1697. Esta obra tuvo mucha importancia porque, años después, se originó un gran debate en torno a las cuerdas vibrantes que tuvo entretenidos a matemáticos como Daniel Bernoulli, Leonhard Euler, Jean le Rond D’Alambert o Joseph Louis Lagrange. Polémicas aparte, lo que hizo Fourier fue someter las ondas a tratamiento fisicomatemático.

La altura de un sonido (si es más grave o más agudo) se mide en hercios (Hz), denominada frecuencia. Esta frecuencia indica el número de vibraciones por segundo. Por ejemplo, si cogemos un diapasón y lo golpeamos sonará la nota La de 440 Hz. Lo que nos dice el teorema de Fourier es que esa frecuencia en cualquier instrumento musical es el resultado de la suma de infinitas frecuencias que son múltiplos de la frecuencia fundamental (440 Hz). Si tocamos, por ejemplo, la segunda tecla correspondiente a la nota Do empezando por las notas graves en un piano, esa nota puede descomponerse en una serie de sonidos infinitos (sonidos armónicos). Al tocar la tecla lo que suena realmente es esto:

Ilustración 1. Serie armónica de la nota Do

 

Para que todos estos sonidos se fundan en uno, sus frecuencias son múltiplos enteros de la frecuencia que se acaba sintetizando (lo que llega al oído). La suma de todos estos sonidos armónicos es el máximo común divisor y es el sonido que se percibe como único (el primero de la serie). Este fenómeno es de vital importancia para determinar el timbre. ¿Qué es lo que hace que un sonido suene a flauta, clarinete, piano, voz, etc.? Precisamente las diferentes amplitudes que le damos a cada uno de estos sonidos armónicos. Dicho de otro modo, si pudiéramos poner un control del volumen como el de una radio a cada uno de los sonidos armónicos, como se muestra en la imagen de más abajo, podríamos hacer que un mismo sonido sonara a violín o flauta tan solo girando algunos de estos botones.

Ilustración 2. Serie armónica con control de amplitud en cada sonido

Esto quiere decir que la intensidad de cada uno de los sonidos de la serie de los armónicos determinará el timbre. Estas intensidades relativas se pueden calcular con las fórmulas de Fourier. Gracias a esto, la informática ha revolucionado el mundo de la música, puesto que, si podemos calcular los timbres, podremos imitarlos, creando instrumentos virtuales prácticamente imposibles de distinguir de uno real en cuanto a esta cualidad sonora. Nunca se fíe el lector de las grandes bandas sonoras de las superproducciones, es altamente probable que detrás de lo que suena no haya ninguna gran orquesta sinfónica tocando detrás.

Gracias a la física y la matemática hemos podido entender cómo funciona el sonido y una de sus cualidades. Además, gracias a la sinergia física-matemática-música se creó una nueva disciplina: la acústica (término que usó por primera vez Sauveur). Pero este fenómeno sonoro (fenómeno físico-armónico) nos explica también otras cosas relacionadas con disciplinas humanísticas y menos científicas, como puede ser la historia de nuestra música occidental. Si nos fijamos en la serie de notas que aparecen en la figura de más arriba, podemos darnos cuenta de que no todas están a la misma distancia. Esta distancia o intervalo se mide contando las notas entre dos sonidos. Desde el primer sonido al segundo hay una octava porque desde un Do hasta el siguiente Do hay ocho notas (Do-Re-Mi-Fa-Sol-La-Si-Do). El tercer armónico es un Sol, por lo que del segundo al tercer armónico (Do-Sol) hay un intervalo de quinta (5 notas). A medida que avanzamos en la serie se ve claramente que las distancias se van reduciendo. Todas estas notas podrían prolongarse hasta el infinito, aunque no serían audibles a partir del umbral de escucha del ser humano, lo cual no significa que no estén ahí. ¿Y esta serie de notas explican nuestra historia? A medida que avanzamos en la serie, avanzamos en la historia. Veamos cómo.

Si nos remontamos a la antigua Grecia, su música se asemeja a la de la Alta Edad Media. En esencia era monofónica, es decir, solo había una melodía sin armonía, aunque hubiera diversos instrumentos que ornamentaran la melodía. El concepto de simultaneidad de dos sonidos no existía, entendidos como un intervalo. Lo que quiere decir que únicamente estaría el primer armónico o sonido fundamental, la primera nota de la serie. Si en un coro participaban hombres y niños, la diferencia fisiológica natural hace que los niños suenen una octava por encima de las voces de los hombres, aunque canten exactamente lo mismo. Ya tendríamos la octava, los dos primeros sonidos de la serie. Si seguimos el curso de la historia encontramos un tratado titulado Musica enchiriadis (ca. 900) donde se describen dos maneras de cantar de manera simultánea, llamado organum, duplicando la melodía a distancia de un intervalo de 5ª o 4ª, por lo que ya tendríamos hasta el armónico n.º 4 de la serie. Evidentemente existían otras distancias, pero se daban de manera fortuita, de pasada y no eran consideradas consonancias o intervalos idóneos donde hacer pausas musicales. Hasta el siglo XIII no aparece el intervalo de tercera en Inglaterra (avanzamos hasta el armónico 5 de la serie) como una consonancia, así como la sexta, o lo que es lo mismo, la distancia entre el armónico 3 y 5. El uso de notas alteradas de la música ficta en Francia (s. XIV) hizo que se distinguiera entre terceras mayores y menores, es decir, la distancia entre los armónicos 5 y 6 de la serie. El empleo de estos intervalos fue cada vez mayor, gracias a que la afinación pitagórica (división geométrica de una cuerda basada en quintas o en la proporción 3/2) fue cayendo en desuso hasta llegar a una afinación llamada mesotónica y el llamado temperamento igual (la afinación que se usa hoy en día en la música occidental) que favorecía la simultaneidad de estas distancias.1

La concepción de la música como melodías diferentes que ocurrían simultáneamente (contrapunto) hizo que se oyeran otros intervalos de nuestra serie armónica, pero nunca concebidos como un punto estable donde finalizar o descansar momentáneamente. A principios del s. XVII esta visión empieza a cambiar hacia conceptos como el de acorde (en los armónicos 4-5-6) y tonalidad. En el s. XIX empieza a expandirse e introducir nuevas sonoridades y se van añadiendo notas a los acordes, aunque no en el orden exacto de la serie armónica.

Lo curioso de este fenómeno físico no es que nos resuma, grosso modo, la historia de la música occidental, sino que ha hecho que la historia de la música siga avanzando. Gracias al conocimiento de estos principios físicos e incluso su posibilidad de análisis mediante software específico, se han creado corrientes compositivas, como el espectralismo. Como su nombre indica, está basada en el espectro sonoro como materia prima para la composición de música. El análisis espectral permite conocer en una misma imagen la frecuencia principal con sus armónicos, la duración y la intensidad. Un ejemplo paradigmático de compositor espectralista es Gerard Grisey.

Ilustración 3. Análisis espectral con el software Sonic Visualiser

La física aporta nuevos caminos para la creación artística a la par que nos cuenta, con una mirada microscópica del sonido, el desarrollo de nuestra propia historia. La música, la física, la matemática… convergen no solo para tratar de contar la historia sino también para entenderla y buscar sus porqués gracias a la ciencia.

Referencia:

1 Gaínza, J. Javier Goldáraz. Afinación y temperamento en la música occidental. Alianza, 1998.

&nbsp
Sobre el autor: José Manuel González Gamarro es profesor de guitarra e investigador para la Asociación para el Estudio de la Guitarra del Real Conservatorio Superior de Música “Victoria Eugenia” de Granada.

El artículo Una historia de la música contada por la física se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La mitad del Planeta

Dom, 2022/01/09 - 11:59

El pasado día 26 falleció Edward Wilson, quizás el biólogo más importante del último medio siglo. Wilson está considerado el mayor experto mundial en mirmecología, la especialidad científica que se ocupa del estudio de las hormigas. Pero sus conocimientos abarcan al conjunto de insectos sociales. Era, por ello, reconocido como uno de los entomólogos más destacados del mundo. Además de los insectos sociales o, precisamente, debido a su interés en esos animales, también destacó como teórico de lo que se conoce como eusocialidad, el considerado máximo nivel de socialidad. Se asigna esa condición a aquellas especies que se caracterizan por el cuidado cooperativo de la prole a cargo del conjunto de individuos que forman una colonia, por la coincidencia de varias generaciones en ella, y por la división del trabajo entre miembros reproductores y no reproductores.

Pero no es la eusocialidad y asuntos relacionados lo que me propongo tratar hoy aquí. Me interesa otro aspecto de sus intereses, el ambientalista. Wilson, desde muy joven, se interesó por la naturaleza, y también por sus valores y su conservación. Aunque hay quien lo considera el padre de la biodiversidad, lo cierto es que ni se debe a él ese concepto, ni fue él quien acuñó el término. Pero sin serlo, Wilson quizás ha sido el académico que con más empeño y eco social ha difundido la importancia de la biodiversidad y la necesidad de conservarla. Ha sido, por ello, referencia indiscutible para gobiernos y organizaciones conservacionistas en ese terreno.

Dentro de su extensa producción de libros destinados a públicos amplios, los dedicados a la biología de la conservación tienen un lugar especial y, entre ellos, su última obra, Half Earth, ha tenido una influencia especial. En ella propone que se reserve la mitad de la superficie de los continentes y de los océanos para crear reservas naturales, de manera que sirvan como garantes de la recuperación y mantenimiento de una diversidad natural ya muy deteriorada.

A primera vista puede parecer una propuesta descabellada, imposible de llevar a la práctica. Pero quizás no lo es tanto como parece. Como tantas otras cosas, se trata de tener claro cuáles son los bienes a preservar y cuál el precio a pagar por ellos. También, por supuesto, cuáles serían las consecuencias de no hacerlo.

Hace dos meses se celebró, en China, la Conferencia de Biodiversidad de Naciones Unidas. Allí se aprobó la Declaración de Kunming. Los países participantes se comprometieron “a desarrollar, adoptar y llevar a la práctica un acuerdo marco para la biodiversidad global” con la mirada puesta en 2050 para lograr una convivencia armónica con la naturaleza.

Uno quiere ser optimista y pensar que somos cada vez más conscientes de los elevadísimos costes que representa la pérdida constante de biodiversidad. La riqueza del planeta y, por lo tanto, los bienes de los que podemos disfrutar, tienen su origen, en gran medida, en el mundo vivo. Por ello, es muy valioso lo que está en juego, desde recursos naturales sostenibles hasta la salud de ecosistemas, animales y personas, pasando por las fuentes de principios activos de los medicamentos del mañana. Quizás la crisis sanitaria mundial que padecemos actúe como catalizador, aunque, tristemente, no podamos estar seguros de ello.

La Península Ibérica es un marco geográfico con una biodiversidad rica aún, pero amenazada. Curiosamente, un porcentaje significativo de su superficie, eso a lo que llaman la Laponia del Sur y otros espacios semejantes, en la raya entre España y Portugal, están muy despoblados. Es esa España vacía de la que tanto se habla últimamente. Ahí hay un recurso sobre el que actuar.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo La mitad del Planeta se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2021: Fernando Frías – El barril del San Bernardo

Sáb, 2022/01/08 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

Hay un dicho entre los moteros, que existen dos clases: los que se han caído y los que se van a caer. Las personas en general también pueden clasificarse en dos clases: las que han sido y las que van a ser engañadas. Muchas veces caemos presa del engaño por no comprobar lo que debería resultar de entrada inverosímil, como el barril del San Bernardo. Fernando Frías, que algo entiende de estos perros y de engaños con ánimo de lucro por dedicarse a combatirlos, nos lo explica en esta charla.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Fernando Frías – El barril del San Bernardo se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Rocas no sedimentarias en la base de un paleolago marciano

Vie, 2022/01/07 - 11:59
Cráter Jezero. Imagen: USGS / Wikimedia Commons

Casi 300 días después de la llegada a Marte del rover Perseverance, el equipo multidisciplinar de investigación de la misión Mars2020, al que pertenece el grupo de Excelencia IBeA (Ikerkuntza eta Berrikuntza Analitikoa), del Departamento de Química Analítica de la UPV/EHU, ha comenzado a despejar algunas de las incógnitas sobre la composición de la base del cráter Jezero gracias a los datos enviados por el vehículo.

Como se recordará, el 30 de Julio de 2020 la NASA lanzó la misión Mars2020 con destino al planeta Marte, cuyo objetivo era enviar el rover Perseverance al cráter Jezero, con el fin de iniciar la exploración de terrenos que podrían albergar restos de moléculas orgánicas relacionadas con el metabolismo de microorganismos. El vehículo amartizó con éxito el 18 de febrero de 2021 y, tras los primeros días de comprobación de los distintos elementos del rover, así como del correcto funcionamiento de los distintos instrumentos, a mediados de abril se iniciaron los días de trabajo dedicados a la investigación científica.

“Los datos obtenidos por el instrumento SuperCam desde su amartizaje son muy abundantes y de gran interés”, señala Juan Manuel Madariaga, investigador principal del Grupo IBeA. La información enviada por el rover Perseverance ha sorprendido al Equipo de Ciencia de SuperCam, compuesto por más de 100 científicos de USA, Francia, Canada, España, Alemania y Dinamarca y que está trabajando sobre los datos que reciben cada día, para hacer un diagnóstico preliminar de las muestras analizadas, así como sobre los datos históricos agrupados por tipología de muestras (rocas, pátinas o costras, suelos, etc.) y emplazamientos que el rover visita durante su trayecto hacia las paredes del cráter Jezero, donde se llegará a mediados del año 2023 y donde finalizará la misión nominal de Mars2020.

SuperCam es un instrumento que combina varias técnicas espectroscópicas: espectroscopia LIBS para la detección y cuantificación de elementos químicos (hay más de 44.000 datos sobre 1450 puntos de análisis situados en rocas, suelos y costras) en muestras situadas entre 1,5 y 8 metros de distancia; espectroscopia Visible-Infrarroja (VISIR) para la detección de enlaces químicos entre elementos, tanto en muestras cercanas al rover como en muestras a más de 100 metros (hay más de 1500 espectros VISIR tomados sobre más de 250 muestras); espectroscopia Raman para la identificación de fases minerales (se han tomado más de 100 espectros en un número seleccionado de esas muestras); finalmente Imagen Optica de Alta Resolución para situar el contexto donde se hacen las medidas espectroscópicas.

Rocas no sedimentarias en la base de un paleolago de 3300 millones de años de antigüedad

En estos primeros meses de la misión el equipo de investigación de SuperCam ha analizado muestras de la base del cráter, un terreno plano que contiene diferentes tipos de rocas enterradas en el suelo/sedimento que quedó tras la desecación del agua que llenó el cráter, a modo de lago de unos 50 km de diámetro. Es decir, se han estado analizando restos de la base de un paleolago de entre 3300 a 3000 millones de años de antigüedad.

Según se desprende de los datos enviados por el Perseverance, en la base del paleolago no existen estructuras sedimentarias, sino que las rocas dispersas han sido transportadas hasta su actual emplazamiento no por corrientes acuosas sino por fenómenos de transporte de lava procedente de diferentes erupciones volcánicas, que han sufrido posteriores procesos de erosión. Hasta la fecha se han identificado tres tipos de rocas volcánicas, unas con abundancia de feldespatos (alrededor del 50%) seguidos de piroxenos y ausencia de olivinos (tres familias de minerales de las rocas volcánicas), otra con más piroxenos que feldespatos y un poco de olivino, y el tercer grupo de rocas volcánicas con abundancia similar de olivinos y piroxenos y menor cantidad de feldespatos. Para todos los casos, alrededor de un 5% de las fases minerales son óxidos de hierro y titanio.

Casi todas las fases minerales detectadas en las muestras analizadas han dado señales positivas de la existencia de agua y/o hidroxilos en las mismas, lo que indica la existencia de eventos de alteración promovidos por la presencia de agua en contacto con los materiales geológicos. Sin embargo, estos procesos de alteración de las rocas volcánicas no han llegado hasta la formación de arcillas, tal como se conocen en la Tierra, sino que se han parado en estados previos de alteración. Y este descubrimiento no esperado va a impulsar un conjunto de estudios de laboratorio para entender cómo se pudo pasar de las fases minerales originales, tras eventos de volcanismo, a las primeras fases de alteración detectadas sin que se lleguen a formar filosilicatos (los minerales que componen las arcillas).

Por otro lado, el grupo de Ciencia de SuperCam ha descubierto la presencia de sales precipitadas en el interior de las rocas analizadas. Estas observaciones se han realizado tras taladrar la superficie de las rocas donde se han tomado muestras que almacena el rover para que puedan ser traídas a la Tierra en la futura Misión de Retorno de Muestras de Marte. Estas sales contienen al menos sulfatos de calcio y magnesio, perclorato de sodio y fosfatos de calcio, no descartándose la presencia de otros sulfatos, percloratos y fosfatos, ni tampoco cloruros de sodio y potasio.

El tercer descubrimiento importante en los suelos de la base del paleolago es que no son como los suelos investigados en otros lugares de Marte, sino que están compactados por sales que han precipitado en su superficie, uniendo los distintos granos de los compuestos silicatados que forman los suelos habituales de Marte. De nuevo, entender cómo se han podido formar las costras en la superficie de los suelos va a requerir un conjunto de ensayos de laboratorio que se deberán realizar en el corto-medio plazo.

El grupo de investigación IBeA de la UPV/EHU participará, así mismo, en estos futuros ensayos de laboratorio, así como en la interpretación de los distintos datos espectroscópicos, ya que la misión le ha encomendado liderar los estudios que puedan conducir a explicar la formación de los distintos percloratos en el interior de las rocas volcánicas y en los suelos endurecidos con costras de sales.

El Centro de Investigación Martina Casiano de la UPV/EHU, alberga el nuevo Centro de Operaciones de Marte

Leioa 22-12-2021 El grupo de investigación IBeA participa en la recogida de datos de la misión espacial ‘Mars 2020’ desde el edificio Martina Casiano en el Parque científico de la Universidad del País Vasco. Foto: Fernando Gómez / UPV/EHU

Miembros del Grupo de Excelencia IBeA (kerkuntza eta Berrikuntza Analitikoa), del Departamento de Química Analítica de la UPV/EHU, pertenecen al Grupo de Ciencia del Instrumento SuperCam y de la propia misión Mars2020. Desde el momento del amartizaje hasta hoy día, IBeA ha participado en Operaciones del Instrumento, tanto en la fase de bajada de datos desde el rover como en la fase de subida de órdenes de trabajo para la siguiente tanda de análisis. Inicialmente, estas operaciones se realizaron en el Centro de Operaciones de Toulouse (Francia), donde se construyeron partes del instrumento SuperCam, pero a partir de mediados de junio las tareas de operaciones se realizan en el Centro de Operaciones de Marte, instalado en la Plataforma Tecnológica Martina Casiano del Parque Científico del Campus de Bizkaia (UPV/EHU). La dedicación de cada miembro de IBeA a las operaciones del instrumento SuperCam han sido de unas dos jornadas al mes, jornadas que empiezan a media tarde y acaban en la madrugada del día siguiente.

Este Centro de Operaciones de Marte de la UPV/EHU tiene tres salas, una para la gestión de las operaciones de bajada de datos desde el rover, otra para las operaciones de subida de órdenes de trabajo, y una tercera para la difusión de imágenes, videos y resultados de las labores de investigación que realizan los miembros de IBeA a la sociedad. El miércoles 22 de diciembre coincidió que miembros de IBeA tenían asignada la responsabilidad de la gestión de recepción de datos de los análisis realizados por SuperCam el día anterior, así como la responsabilidad de enviar las órdenes de trabajo de los siguientes tres días (del 23 al 25 de diciembre) al rover Perseverance. Los trabajos empezaron a las 17.45 del miércoles y finalizaron alrededor de la 1 de la madrugada del jueves 23.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Rocas no sedimentarias en la base de un paleolago marciano se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Páginas