Receta de un Adagio 2
Hay muchas formas de componer la tristeza. No existe una única pieza clave, una nota dolorosa, ni una fórmula mágica que haga brotar las lágrimas. Pero como el vinagre y el aceite, existen ingredientes que se repiten en casi todas las ensaladas (tristes ensaladas). Para componer la tristeza no se usan aliños sino sonidos que se parecen a los que emite un humano triste y sonidos que se parecen a los de un humano que gotea.
Puedes leer la primera parte de esta receta aquí.

Dice una (alegre) canción que “no se puede tocar música triste con un banjo”. En cambio, otros instrumentos como el violín o la viola da gamba, parecen siempre afinados para la depresión.
El timbre de los instrumentos parece ser un ingrediente importante a la hora de caracterizar emocionalmente una pieza musical 12. A menudo hablamos de timbres oscuros o rugosos, o timbres dulces o brillantes, sin que ningún elemento de nuestra vista, nuestro gusto o nuestro tacto pueda darnos tal información. No obstante, el timbre parece evocar sensaciones y emociones que no siempre resultan fáciles de explicar.
Existen, por supuesto, asociaciones culturalmente bien establecidas: en parte, el banjo suena alegre porque —se diría— en su eco está escrita toda la alegre música para banjo que hemos oído anteriormente. Pero no se trata solo de eso: cuando uno escarba más allá de las convenciones culturales, encuentra propiedades sonoras, tímbricas, que sistemáticamente se asocian a la alegría, a la tristeza o a la ira3.
La idea clave, vuelve a ser la misma: para componer la tristeza, debemos usar sonidos que se parecen a los que emite un humano triste. Para elegir una instrumentación, debemos buscar timbres que recuerden a los de una voz.
Los instrumentos de cuerda frotada resultan muy apropiados en este sentido: violines, violas, cellos etc. pueden alargar y vibrar cada nota de la melodía. Pueden jugar con la dinámica sin cambiar de sonido (es decir: pueden subir y bajar de volumen sobre una misma nota). Pueden variar ligeramente la afinación o incluso hacer glissandos (una rampa de frecuencias continua entre dos notas) que recuerdan a los de la prosodia humana: una de las diferencias entre el habla y la música es que el habla se mueve entre frecuencias de manera continua, mientras que la música va saltando entre notas discretas. La ausencia de trastes en la familia del violín, permite diluir las fronteras entre las notas, como habitualmente hacemos con la voz.
Todos estos recursos resultan fundamentales en el Adagion de Barber. El sonido de las cuerdas da sentido y expresividad a las notas tenidas, los retardos, las apoyaturas. La dinámica fluctúa sobre cada sonido y forma una línea continua. Basta con escuchar una versión para piano de la misma obra para comprobar cuándo se pierde al cambiar de instrumentación. O, todo lo contrario, oír cuánto se parece una versión para voz.
La lentitud del Adagio se vuelve todavía más complicada porque Barber indica que casi toda la obra debe ser tocada piano o pianissimo.La obra está escrita en si bemol menor: en esta tonalidad, apenas hay notas que se toquen con las cuerdas al aire (sin que el dedo las atrape sobre el mástil), así se evitan sonidos demasiado brillantes.
Los humanos tristes, de hecho, suelen hablar en voz baja porque no les da la energía para mucho más. Emiten sonidos opacos y comparativamente graves: este es el motivo por el que en occidente asociamos a la tristeza el modo menor (pero eso merece su propia anotación).
Esta quietud se vuelve complicada cuando se lleva al mundo de la interpretación musical: los sonidos leves hacen más evidentes los fallos. Cualquier ruido, cualquier desequilibrio llega hasta los oídos del público, que ahora tiene toda su atención enfocada para oír la música mejor.
Esta la paradoja que acompaña a cualquier virtuoso: el público aplaude y se maravilla ante los pasajes fuertes, rápidos, brillantes, aparatosos. Pero la mayor dificultad de la partitura a menudo se esconde en las notas más tímidas.
En el Adagio de Barber, sin embargo, no todo es quietud. Las primeras repeticiones del tema ascienden tímidamente y vuelven a hundirse. Pero en la tercera repetición, la música aumenta de intensidad durante minuto y medio y culmina poco antes del final. Durante el ascenso, encontramos sonidos que ya no tienen nada que ver con un humano triste: sonidos agudos, estridentes, tensos, ruidosos. Los sonidos de un humano que llora.
Existen piezas donde esta especie de transición de la tristeza al llanto se da, incluso, sobre un mismo tema, las mismas notas, la misma armonía. El nocturno en do menor (Op.48, No.1) de Chopin comienza con una sección lenta, fúnebre, callada. Se ilumina hacia la mitad (2’05’’), crece en intensidad y vuelve al tema inicial. Pero cuando lo retoma (4’10’’), el tema ha cambiado: ahora suena al doble de velocidad, su textura es mucho más densa, ruidosa, hay acordes que agitan la melodía en ambas manos. El nocturno ya no es triste, ahora suena… desesperado. Y el efecto es aún mayor porque el cambio de carácter se da sobre un mismo argumento: la misma melodía, antes abatida, ahora reclama ayuda casi a gritos. Si hubiese gritado desde el principio, quizás no la hubiésemos ni escuchado.
Referencias:
1David Huron, Neesha Anderson, Daniel Shanahan. «You Can’t Play a Sad Song on the Banjo: Acoustic Factors in the Judgment of Instrument Capacity to Convey Sadness”. Empirical Musicology Review, 2014.
2Michael Schutz, David Huron, Kristopher Keeton, Gred Loewer. “The Happy Xylophone: Acoustics Affordances Restrict An Emotional Palate”. Empirical Musicology Review, 2008.
3Xiaoluan Liu, Yi Xu, Kai Alter and Jyrki Tuomainen. “Emotional Connotations of Musical Instrument Timbre in Comparison With Emotional Speech Prosody: Evidence From Acoustics and Event-Related Potentials”. Frontiers in Psychology, 2018.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Receta de un Adagio 2 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Fractus, arte y matemáticas
Como viene siendo habitual en los últimos años, alrededor del 14 de marzo, día conocido internacionalmente como Día de Pi (la fecha del 14 de marzo se escribe, tanto en el sistema anglosajón, como en euskera, 03/14, que nos remite a la aproximación de pi: 3,14), desde la Cátedra de Cultura Científica, junto con BCAM y NAUKAS, celebramos la Jornada BCAM-NAUKAS en el día de Pi. Esta consiste en una serie de talleres para escolares, por la mañana, y monólogos científicos para todos los públicos, por la tarde. El programa de este año, que tendrá lugar el 13 de marzo, viernes, en el Bizkaia Aretoa (Bilbao), lo podéis consultar en el Cuaderno de Cultura Científica.
Sin embargo, el Día de Pi ha adquirido una importancia mucho mayor, después de que la UNESCO –a propuesta de la Unión Matemática Internacional– lo declarara el Día Internacional de las Matemáticas. Además, el lema de este año es Mathematics everywhere (Las matemáticas están en todas partes). Por este motivo, la Cátedra de Cultura Científica de la UPV/EHU ha decidido organizar este año una doble exposición, también en el Bizkaia Aretoa (Bilbao), sobre matemáticas y arte, entre los días 12 y 25 de marzo (de 2020). Las exposiciones son Fractus, de la artista murciana Verónica Navarro, de la que vamos a hablar en esta entrada del Cuaderno de Cultura Científica, y Azares, del artista mexicano, afincado en Bilbao, Esaú de León, a la que dedicaremos una entrada en el futuro.

Antes de hablar de la exposición Fractus, presentemos a su autora, la artista Verónica Navarro (Puerto Lumbreras, Murcia, 1983). Es licenciada en Bellas Artes y doctora por la investigación El laboratorio artístico-literario. Una investigación de interacción hipertextual en segundo y tercer ciclo de Educación Primaria, en la Facultad de Educación de la Universidad de Murcia.
Ha realizado diferentes instalaciones y exposiciones individuales y colectivas. Entre las exposiciones individuales, podemos mencionar la exposición Horma/forma/norma, en el Palacio Guevara de Lorca (2008), el Museo del Calzado de Elda (2009) y Sala Caja Murcia de Jumilla (2010), la instalación Menudo Punto, en el Centro Párraga de Murcia (2013) o la exposición Fractus en Águilas, Murcia (2019).Y entre las exposiciones colectivas, Sentido sin sentido, en la Galería Fernando Guerao, Murcia (2006), La periferia como nudo, estructuras de red en la creación contemporánea, en el Parlamento Europeo (Bruselas, Bélgica), en la Sede del Comité de las Regiones (2010), La imagen como enigma, que ha recorrido diferentes salas de Madrid, Murcia y Salamanca (2010), Historias mínimas, junto al artista Francisco Cuellar, en el Palacio Guevara, Lorca (2010) y en Espacio para la Creación Joven de Zafra y Llerena, Badajoz (2011), Las formas toman forma, en la Fundación Caja Murcia de Lorca (2012) y la Biblioteca Regional de Murcia (2013) o Infinitas, junto a la artista Teresa Navarro, en el Centro Párraga de Murcia (2019).

También ha realizado varios libros de artista, que pueden verse en su página web, entre los que podemos mencionar Punto/Línea/Fractal, Fina e infinita, Fractales, Postalnova o Granada de papel.

Como autora ha publicado varios libros: Libro de bolsillo, El muy punto (2014), XYZ (2012) y Menudo punto (2012). Pero, además, es directora ejecutiva y coordinadora de la editorial y laboratorio puntodepapel.
Verónica Navarro compagina su labor plástica con la educación, aunando arte, literatura y matemáticas, creando sorprendentes e interesantes talleres didácticos, creativos y para altas capacidades, así como materiales adecuados para los mismos, tanto marionetas, como álbumes ilustrados o maletas de juegos educativos.

Con la exposición Fractus, de Verónica Navarro, nos encontramos ante una exposición en la que se aúnan arte y matemáticas. Con el objetivo de crear la serie de obras de arte que conforman Fractus, esta artista ha utilizado las matemáticas tanto como fuente de inspiración, como herramienta de creación artística. Los fractales y, en particular, la conocida curva de Koch (que explicaremos más adelante), son elementos fundamentales para la creación de estas obras. En esta serie de obras se confronta además la geometría fractal, a través de la curva fractal de Koch, con la geometría euclídea, mediante objetos geométricos clásicos como el triángulo, el cuadrado o la circunferencia.
Como nos dice la propia artista:
Fractus es una exposición que parte de la literatura, del libro Menudo punto (Verónica Navarro, puntodepapel, 2012), para acercarnos a la geometría fractal y en concreto a la Curva de Koch, a través de obras artísticas de pequeño y mediano formato trabajadas en papel a modo de escenografías. Obras que invitan al espectador a investigar el aparente caos descrito en ellas e imaginar mundos inexplorados y mágicos.
Este libro, en el que se “reflexiona sobre los cambios que se producen en la vida y su relación con las emociones”, tiene como protagonista a un pequeño punto, que va transformando en una línea de puntos, una línea continua, que se enreda, zigzaguea, sonríe o se quiebra, hasta convertirse en el conjunto de Cantor, un fractal.

Puesto que estos objetos matemáticos, los fractales, son muy importantes para el trabajo de la artista Verónica Navarro y, en particular, para su exposición Fractus, es necesario que no detengamos un momento para explicar qué son los fractales y cuál es su importancia.
Para empezar, ¿qué son los fractales? Estos son objetos matemáticos de una gran complejidad, pero no es sencillo dar una definición de los mismos, ya que todas las definiciones propuestas dejan algunos de los fractales fuera. Por este motivo vamos a intentar acercarnos al concepto de objeto fractal mediante algunas de sus propiedades más características:
Autosemejanza. Su estructura se repite a diferentes escalas. Si nos fijamos en una parte cualquiera de un objeto fractal y la ampliamos convenientemente (pensemos en la lupa de un ordenador o un microscopio) obtendremos una réplica del objeto fractal inicial. También podemos pensar en algunos objetos fractales como formados por copias de sí mismos a escalas más pequeñas.
Ejemplos de la naturaleza de formas en cierto modo autosemejantes son el romanescu y el brócoli, los helechos, los árboles, las montañas, etc…

La autosemejanza la podemos observar claramente en objetos fractales como el conjunto de Cantor, la curva de Koch, la esponja de Menger, que aparecen ex`plicados más adelante, o el conjunto de Mandelbrot, como ya mostramos en la entrada Guía matemática para el cómic ‘Promethea’.
Rugosidad. Los fractales son objetos geométricos de una gran rugosidad, de una gran irregularidad, y la medida matemática de esa rugosidad es la “dimensión fractal” (la dimensión de Hausdorff-Besicovich), que no explicaremos aquí por su complejidad. Los objetos de la geometría clásica (recta, circunferencia, esfera,…) son objetos lisos, sin rugosidad, y por lo tanto su dimensión es un número natural (la recta y las curvas tienen dimensión 1, las superficies 2,…), mientras que los fractales son objetos geométricos rugosos y su dimensión puede ser un número real no natural (las curvas fractales tienen dimensión entre 1 y 2, las superficies fractales entre 2 y 3,…).

De hecho, el conjunto de Cantor tiene dimensión fractal 0,6309…, la curva de Koch 1,2618…, el conjunto de Mandelbrot tiene dimensión fractal igual a 2 (este importante fractal no entraría dentro de la familia de fractales si la definición fuese que su dimensión es un número real no natural), la esponja de Menger 2,7268…, por citar algunos.

Esta propiedad está asociada a la paradoja de la costa, que planteó Mandelbrot en su artículo ¿Qué longitud tiene la costa de Gran Bretaña? (Revista Science, 1967). Supongamos que nos preguntamos cuanto mide la costa de Gran Bretaña… si medimos la imagen de una fotografía aérea tendremos una longitud, si medimos la costa con “nuestros pasos”, la escala humana, nos dará una longitud mayor, si la medimos con “pasos de gato” la longitud será mayor aún, y mucho mayor con “pasos de hormiga”… tendiendo esa longitud al infinito.

Procesos iterativos infinitos. Muchos de los objetos fractales son descritos mediante procesos iterativos, tanto geométricos, como analíticos, infinitos. Pongamos un ejemplo para ilustrarlo, el mencionado conjunto de Cantor. Este fue definido y estudiado, en 1883, por el matemático alemán, nacido en Rusia, Georg Cantor (1845-1918), de quien deriva su nombre (aunque los historiadores de las matemáticas han descubierto que realmente aparece en un artículo de 1875 del matemático británico Henry John Stephen Smith).
Para definir el conjunto de Cantor, empezamos con el intervalo [0,1] de longitud 1, sobre el que se realiza el siguiente proceso iterativo (los primeros pasos del proceso se ilustran en la imagen siguiente). Se parte el intervalo en tres partes –luego de longitud 1/3– y se quita el intervalo central, quedando los dos intervalos laterales –de longitud 1/3–. En el siguiente paso se considera cada uno de los dos intervalos y se dividen, de nuevo, en tres partes –cada una de longitud 1/9– y se eliminan los dos intervalos centrales, quedando los cuatro intervalos laterales –de longitud 1/9–. En el siguiente paso se realiza el mismo proceso para los cuatro intervalos, y así hasta el infinito.

Después de este proceso iterativo infinito queda un conjunto de puntos del segmento [0,1] inicial, que es el llamado conjunto de Cantor. Este es un conjunto muy extraño. Si se suman las longitudes de los intervalos que se han ido eliminando, la suma es 1, que es la longitud del intervalo original [0,1], por lo tanto, ese conjunto de puntos, el fractal de Cantor, “no mide nada” o “tiene medida de longitud 0”. Aunque se puede demostrar que, en el conjunto de Cantor, hay tantos puntos como en todo el intervalo [0,1].

El matemático polaco, nacionalizado francés y estadounidense, Benoît Mandelbrot (1924-2010) es considerado el padre, o creador, de la geometría fractal –de hecho, él bautizó a estos objetos con el nombre de “fractal”, que viene del latín “fractus”, roto, quebrado–. Además de investigar estos extraños objetos, generar la primera imagen con ordenador del que después se bautizará como conjunto de Mandelbrot y observar la gran cantidad de aplicaciones que existen de los mismos, realizó una exitosa divulgación de la geometría fractal, por ejemplo, publicando los libros Los objetos fractales: forma, azar y dimensión (1975) o La geometría fractal de la naturaleza (1982), entre muchos otros.
La geometría fractal significó un cambio de paradigma dentro de las matemáticas, que podemos ilustrar con las dos siguientes citas. La primera pertenece al libro Il Saggiatore/El ensayador (1623), del matemático italiano Galileo Galilei (1564-1642), y nos dice que la geometría euclídea y sus formas –rectas, círculos, polígonos, esferas, cubos, poliedros, etcétera– son las herramientas que deben utilizarse para modelizar la naturaleza.
“La filosofía está escrita en ese grandísimo libro que tenemos abierto ante los ojos, quiero decir, el universo, pero no se puede entender si antes no se aprende a entender la lengua, a conocer los caracteres en los que está escrito. Está escrito en lengua matemática y sus caracteres son triángulos, círculos y otras figuras geométricas, sin las cuales es imposible entender ni una palabra; sin ellos es como girar vanamente en un oscuro laberinto.”
Mientras que la segunda cita pertenece al libro La geometría fractal de la naturaleza (1982), del propio Benoît Mandelbrot, anunciando el cambio de paradigma, que la geometría euclídea no era una herramienta suficiente para modelizar la naturaleza.
“…las nubes no son esferas, las montañas no son conos, las costas no son circulares y la corteza de los árboles no son lisas, ni tampoco el rayo viaja en línea recta.”

Sin embargo, el origen de los objetos fractales se remonta a finales del siglo XIX y principios del XX. Fue entonces cuando grandes matemáticos como Riemann, Cantor, Peano, Hilbert, Sierpinski o Hausdorff, entre otros, introdujeron algunas construcciones matemáticas “patológicas”, los primeros objetos fractales, con propiedades geométricas o analíticas contrarias a la intuición matemática. Es decir, ponían de manifiesto la existencia de lagunas en el conocimiento matemático dentro de la geometría clásica (euclídea) y el análisis. La matemática de ese tiempo los consideró “monstruos” y no hizo caso a su existencia.
El primer objeto patológico que se introdujo fue el conjunto de Cantor (1875-1883), que hemos definido más arriba, un conjunto con una infinidad no numerable de puntos, pero que no tiene longitud.
Entre esos primeros monstruos matemáticos también se encontraban curvas continuas que no tienen tangente en ningún punto (es decir, completamente irregulares, son todo picos), como es el caso de las funciones de Weierstrass (véase la anterior imagen) o Riemann, la curva de Takagi, la curva de Koch o el copo de nieve de Koch (que serán introducidas más adelante). Estas curvas también cumplían la paradoja de la costa, es decir, tienen longitud infinita. Más aún, el copo de nieve de Koch es una curva de longitud infinita pero que encierra un área finita.
Otros objetos patológicos de esos inicios de los fractales a finales del siglo XIX y principios del siglo XX fueron ejemplos anómalos de curvas que llenan todo un cuadrado. Esta cualidad ponía en duda el concepto de dimensión, que se manejaba hasta el momento en las matemáticas. No era claro cual era la dimensión de estas “curvas”. Si era una curva la dimensión debía de ser 1, pero como llenaba todo el espacio plano (cuadrado), quizás podría ser 2. Entre otras estaban la curva de Hilbert y la curva de Peano.
El matemático alemán David Hilbert (1862-1943) introdujo, en el año 1891, la siguiente curva, definida de forma iterativa, que llena el espacio. Como podemos ver en la siguiente imagen se empieza con tres segmentos (rojos en la imagen) formando un cuadrado sin uno de sus lados (el superior en la imagen). En la primera iteración se reduce el 50% esta figura y se hacen cuatro copias, que se colocan de forma que los centros de las figuras “cuadradas” estén en los extremos de los segmentos de la figura original, de forma que los dos de arriba están en horizontal, con sentidos opuestos, y los dos de abajo en vertical, hacia abajo. Para que la figura construida (de azul en la imagen) sea continua se le añaden tres segmentos para conectar las cuatro figuras “cuadradas”. Para la siguiente iteración se realiza el mismo proceso anterior, pero para cada una de las cuatro figuras “cuadradas”, generando así la figura negra (el tercer diagrama de la siguiente imagen). Y así se continúa en un proceso iterativo infinito. En el límite infinito se obtiene una curva que llena todo el cuadrado.

Los fractales significaron por tanto un cambio de paradigma dentro de las matemáticas, pero además, como ya puso de manifiesto Benoit Mandelbrot, poseían una enorme cantidad de aplicaciones. Citemos algunas de ellas:
Los fractales aparecieron dentro de la matemática pura, formando parte de los estudios teóricos de los propios matemáticos. Fueron muy importantes, puesto que significaron por tanto un cambio de paradigma dentro de las matemáticas, como puso de manifiesto Benoit Mandelbrot. Pero, sus orígenes están dentro de lo que la gente de la calle llama “locuras de los matemáticos que no sirven para nada”. Sin embargo, confirmando una vez más “la irrazonable eficacia de las matemáticas (puras)”, sus aplicaciones se han ido extendiendo a casi todos los aspectos de nuestra vida cotidiana. Hay aplicaciones en multitud de áreas. Algunas de ellas:
– Computación: compresión de imágenes digitales, …
– Infografía: utilización en la industria cinematográfica (Star Trek, Star Wars, La Tormenta Perfecta, Apolo 13, Titanic, Doctor extraño, Escuadrón suicida o Guardianes de la Galaxia) o en publicidad, para diseñar paisajes, objetos, texturas, …

– Medicina: la osteoporosis, las arterias y venas, los pulmones o el cerebro tienen estructura fractal, así como los tumores sólidos, lo cual es utilizado para la detección temprana de algunas enfermedades, su estudio, …
– Biología: Crecimiento tejidos, organización celular, evolución de poblaciones depredador-presa, …
– Geología: análisis de patrones sísmicos, fenómenos de erosión, modelos de formaciones geológicas, …
– Economía: análisis bursátil y de mercado, …
– Telecomunicaciones: Antenas fractales, fibra óptica, estructura de la red de Internet, …
– Meteorología, Ingeniería, Acústica, nuevos materiales, Ciencias Sociales,…
y un largo etcétera.

Pero volvamos a la exposición Fractus, de Verónica Navarro. La curva de Koch, como la propia artista afirmaba en el párrafo que hemos incluido al principio de la entrada, es uno de los elementos principales en la creación de las obras de la serie Fractus.
La curva de Koch fue introducida en 1904 por el matemático sueco Helge von Koch (1870-1924) como ejemplo de una curva continua que no tiene recta tangente en ningún punto. Para construir la curva de Koch, se empieza con un intervalo, por ejemplo, de longitud 1. En la primera iteración se divide el intervalo en tres partes, de longitud 1/3, y se reemplaza el intervalo central por dos segmentos de la misma longitud formando un ángulo de 60 grados entre ellos (como se ve en la imagen). La longitud total de la construcción en este primer paso es 4/3.
En la segunda iteración se realiza la misma operación en cada uno de los cuatro intervalos que se han formado en la primera. Obteniendo así una figura curva formada por 16 pequeños intervalos de longitud 1/9, luego la longitud total es 16/9 (4/3 al cuadrado). Y así se continúa en cada iteración. En el límite de este proceso infinito se obtiene la curva de Koch.

Como la longitud de la iteración n-ésima de la curva de Koch es 4/3 elevado a la potencia n, entonces, la longitud de la curva de Koch, que es el límite cuando n tiende a infinito de esa longitud es infinito. Es decir, la curva de Koch tiene longitud infinita. Claramente, la curva de Koch es autosemejante y está creada por un proceso iterativo infinito. Además, la dimensión fractal (que no hemos explicado realmente) es Ln 4/Ln 3 = 1,26186…
La construcción del copo de nieve de Koch es la misma que la que acabamos de ver para la curva de Koch, pero tomando como punto inicial un triángulo equilátero y realizando el proceso iterativo sobre cada uno de los lados.

Las delicadas obras de la serie Fractus, de Verónica Navarro, tienen unas dimensiones de 40 x 40 centímetros, el material utilizado es papel 100% algodón y están realizadas mediante la técnica del papel troquelado a mano. Si se tiene en cuenta que las formas que aparecen, además de las formas geométricas clásicas triángulo, cuadrado y circunferencia, son partes de la curva y del copo de nueve de Koch, la realización de las piezas es de una enorme dificultad y fragilidad.
En las obras aparecen diferentes capas de papel, lo que produce un contraste importante entre las formas creadas en cada capa y aparecen sombras que acentúan las formas y los contrastes. En palabras de la autora de esta serie:
“Las sugerentes sombras, creadas por la superposición de papeles troquelados, permite crear composiciones que aviven en el espectador recuerdos en forma de imágenes próximas a paisajes archivados en nuestra mente, extraídos de nuestras vivencias con la naturaleza. Y es que la geometría fractal nace con la necesidad de representar la naturaleza con la máxima fidelidad, al resultar insuficiente hacerlo a través de la geometría Euclídea.”

Las piezas de la exposición Fractus nos pueden recordar al teatro de sombras. Más aún, la exposición está complementada con un proyector de transparencias, con el que se propone al público jugar con las sobras de triángulos, la curva de Koch y el copo de nieve de Koch.

En definitiva, lo que propone esta artista murciana es
“un espacio en el que el público pasee por la geometría fractal, una geometría transformada por la imaginación de la artista y que sufrirá una nueva transformación originada por la mente del espectador.”


Bibliografía
1.- Página web del 14 de marzo, Día Internacional de las Matemáticas
2.- Ediciones PUNTODEPAPEL, arte literatura y matemáticas.
3.- Página personal de la artista Verónica Navarro
4.- Benoît Mandelbrot, How Long Is the Coast of Britain? Statistical Self-Similarity and Fractional Dimension, Science, New Series, Vol. 156, No. 3775, 1967.
5.- Benoît Mandelbrot, Los objetos fractales: forma, azar y dimensión, colección Metatemas, Tusquets, 1984.
6.- Benoît Mandelbrot, La geometría fractal de la naturaleza, colección Metatemas, Tusquets, 1982.
7.- Ma. Asunción Sastre, Geometría Fractal, Un Paseo por la Geometría 2007/2008, UPV/EHU, 2008. Versión online aquí.
8.- Julián Aguirre, Curvas fractales, Un Paseo por la Geometría 1997/1998, UPV/EHU, 1998. Versión online aquí.
9.- María Isabel Binimelis, Una nueva manera de ver el mundo, la geometría fractal, El mundo es matemático, RBA, 2010.
10.- Nicholas A. Scoville, The Cantor Set Before Cantor: A Mini-Primary Source Project for Analysis and Topology Students, Convergence, MAA, 2019
11.- Mike Seymour, The fractal nature of guardians of the galaxy vol. 2 , fxguide, 2017.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Fractus, arte y matemáticas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cuadrados latinos, matemáticas y arte abstracto
- El cubo soma: diseño, arte y matemáticas
- Artistas que miran a las matemáticas
La probabilidad en mecánica cuántica

La dualidad onda-corpúsculo es un aspecto fundamental de la mecánica cuántica. Una de las consecuencias de este hecho es que el concepto de probabilidad se establece en la base misma del modelo.
Debemos entender bien qué significa probabilidad. Hay situaciones en la que un acontecimiento concreto no se puede predecir con certeza. Pero sí podemos predecir para estas mismas situaciones las probabilidades estadísticas de muchos acontecimientos similares. Por ejemplo, en un fin de semana largo se pueden producir en España 15 millones de desplazamientos en automóvil. Yo voy a realizar dos de esos desplazamientos, uno de ida y otro de vuelta. ¿Moriré en la carretera? No lo sé, no lo puedo saber. Pero Tráfico sabe que se va a producir del orden de 1 muerte por cada millón y medio de desplazamientos, por lo que cabe esperar que ese fin de semana se produzcan del orden de 10 muertos en carretera. No se sabe quienes van a ser pero la predicción estadística es esa. Dicho en otras palabras, el comportamiento promedio es bastante predecible.
A grandes rasgos el razonamiento para el tráfico se puede aplicar también al comportamiento de los fotones y las partículas materiales. Las limitaciones básicas en la capacidad de describir el comportamiento de una partícula individual, ya habían demostrado no ser un problema a la hora de describir el comportamiento de grandes colecciones de partículas con buena precisión; el caso más significativo quizás fuese la distribución de las velocidades moleculares de Maxwell y la teoría cinética de los gases en general.
Aquí está el quid de la cuestión: la ecuación de Schrödinger para las ondas asociadas con las partículas cuánticas da las probabilidades de encontrar las partículas en un lugar determinado y en un momento dado; no da el comportamiento preciso de una partícula individual.
Consideremos una onda electrónica que está confinada a una región concreta del espacio. Un ejemplo sería la onda de Broglie asociada con el electrón de un átomo de hidrógeno, que se extiende por todo el átomo. Otro ejemplo sería la onda de Broglie de un electrón en un buen conductor de electricidad. Pues bien, la amplitud de la onda en un punto representa la probabilidad de que el electrón esté allí. [1]
De lo anterior se sigue que, según la mecánica cuántica, el átomo de hidrógeno no consiste en una partícula negativa localizada (un electrón) que se mueve alrededor de un núcleo como en el modelo de Bohr que hemos estado usando como referencia hasta ahora. De hecho, el modelo no proporciona ninguna imagen concreta y fácilmente visualizable del átomo de hidrógeno. Una descripción de la distribución de probabilidad es lo más parecido a una imagen que proporciona la mecánica cuántica. [2]
En la teoría cinética es fácil predecir el comportamiento promedio de un gran número de partículas, a pesar de que no se sabe nada sobre el comportamiento de ninguna de ellas. Sin embargo, a diferencia de la teoría cinética, el uso de probabilidades en la mecánica cuántica no es por conveniencia, sino que parece ser una necesidad intrínseca. No hay otra forma de abordar la mecánica cuántica.
El modelo no se ocupa realmente de la posición de ningún electrón individual en ningún átomo individual, sino que ofrece una representación matemática que puede usarse para predecir interacciones con partículas, campos y radiación. Por ejemplo, se puede usar para calcular la probabilidad de que el hidrógeno emita luz de una longitud de onda concreta. La intensidad y la longitud de onda de la luz emitida por una gran cantidad de átomos de hidrógeno se pueden comparar con estos cálculos. Comparaciones como estas han demostrado que la teoría concuerda con el experimento.
Max Born, el fundador principal de la interpretación de probabilidad, condensó magistralmente la idea básica en 1926:
El movimiento de las partículas se ajusta a las leyes de probabilidad, pero la probabilidad misma se propaga de acuerdo con la ley de causalidad.
O como saben los pastores desde tiempos inmemoriales: no sabemos que hará cada oveja, pero sí lo que hará el rebaño.
Notas:
[1] Si se pudiese realizar una medición de la ubicación del electrón, se entiende.
[2] El lector interesado en una lectura más filosófica de esta consecuencia puede ver El universo ametafórico y La verdadera composición última del universo (y IV): Platónicos, digitales y pansiquistas
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La probabilidad en mecánica cuántica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Construyendo la mecánica cuántica
- El comportamiento corpuscular de la luz: el efecto Compton
- El comportamiento ondulatorio de los electrones
Motivos para un día internacional
Hemos ido a un centro de enseñanza y hemos preguntado a un grupo de jóvenes a qué científicas conocen. Han nombrado a Marie Curie, a nadie más.
A partir de ahí se ha iniciado un diálogo entre el grupo acerca de la presencia de las mujeres en el mundo de la ciencia. Se han referido, entre otras cosas, a la falta de reconocimiento, al hecho de que antes las mujeres tenían vedado el acceso de determinados estudios, y a la orientación mayoritaria de las mujeres a profesiones relacionadas con la atención y cuidado de las personas. Exponen diferentes puntos de vista y mencionan la existencia de presiones sociales y familiares para orientar la formación y vidas profesionales de las chicas en una u otra dirección.
Tienen la impresión de que las cosas han mejorado y la idea de que ahora ellas pueden escoger lo que quieran ser.
Todas estas son cuestiones que atañen a los motivos por los que, cada 11 de febrero, se celebra el Día Internacional de la Mujer y la Niña en la Ciencia. Hay una presencia desigual de chicos y chicas en unos y otros estudios y, sobre todo, hay muy pocas chicas que se decantan por estudiar grados y posgrados de disciplinas a las que se atribuye una especial dificultad y para los que se supone es necesario ser especialmente brillante. Las diferencias en el acceso a unos y otros estudios tienen después consecuencias sociales y económicas, pues contribuyen a generar brechas sociales y económicas o ampliar las ya existentes.
La Universidad del País Vasco está comprometida con el objetivo de una sociedad en la que hombres y mujeres tengan los mismos derechos y gocen de las mismas oportunidades. La Cátedra de Cultura Científica de la UPV/EHU comparte ese compromiso y se ha propuesto, en la medida de sus modestas posibilidades, contribuir a cambiar ese estado de cosas. Por esa razón publica desde el 8 de mayo de 2014 Mujeres con ciencia.
Pero hoy, 11 de febrero, no hemos querido quedar al margen de la celebración internacional, promovida por Naciones Unidas del Día Internacional de la Mujer y la Niña en la Ciencia. Con ese propósito hemos producido el vídeo Somos capaces, que acompaña este texto. Hemos querido mostrar la visión que jóvenes que cursan estudios preuniversitarios tienen de la situación de las mujeres en el mundo de la ciencia.
Compartimos con los chicos y chicas que aparecen en el vídeo la disconformidad con un estado de cosas injusto, y queremos compartir también el optimismo y la confianza en sus capacidades que expresan. Pero para que ese optimismo se justifique con avances en la igualdad de derechos y oportunidades de hombres y mujeres es preciso actuar y seguir trabajando. Ese es el propósito de la Cátedra de Cultura Científica. Y por esa razón, para nosotros, mañana, como ayer, también será día de la mujer y la niña en la ciencia.
Somos capaces es una producción de K2000, ha sido dirigido por Jose A. Pérez Ledo, la música es de Borrtex (Christmas Tree) y ha sido grabado en Begoñazpi Ikastola (Bizkaia), a la que queremos agradecer su colaboración en el proyecto. Este vídeo ha contado con la colaboración de Iberdrola.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
Más sobre el 11 de febrero
- Juan Ignacio Pérez, Hoy es el día de la mujer y la niña en la ciencia, todos lo son, 11 febrero 2016.
- Juan Ignacio Pérez, No es una percepción, 11 febrero 2017.
- Juan Ignacio Pérez, Mi hija quiere ser ingeniera, 11 febrero 2018.
El artículo Motivos para un día internacional se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Comienza Jakin-mina, el programa de conferencias para estudiantes de 4 de ESO
- Hoy es el día de la mujer y la niña en la ciencia, todos lo son
- Ciencia Clip: un concurso de vídeos de ciencia para jóvenes estudiantes
Sesgos cognitivos que aquejan a la ciencia

Algunas de las modalidades de fraude, así como los casos de ciencia patológica vistos en anotaciones anteriores no se producirían de no ser por la existencia de malas prácticas y sesgos que los facilitan o, incluso, los propician.
En lo relativo a los sesgos, estos pueden ser de dos tipos. Están, por un lado, los que afectan a las personas concretas que practican la investigación científica. Y por el otro, los que afectan al funcionamiento del sistema en su conjunto y a los que podríamos denominar sistémicos. Eso que se suele denominar “método científico” no deja de ser, en el fondo, un conjunto de estrategias que se han ido poniendo en práctica para evitar los sesgos que afectan a los científicos; se trata, por lo tanto, de que el conocimiento no dependa de la persona que lo produce y que, por esa razón, tenga la máxima validez posible. Los sesgos sistémicos precisan de otro tipo de medidas para su corrección pues no afectan a los individuoa, sino al conjunto del sistema.
El sesgo de confirmación lleva a favorecer, interpretar y recordar la información que confirma las creencias o hipótesis propias. Es un sesgo que nos afecta a todos, también opera en la actividad científica. Una variante de este sesgo es la que afecta a las publicaciones científicas, aunque en este caso se suele denominar sesgo de publicación. Es la tendencia a publicar solamente resultados positivos, confirmatorios. Incluye también la tendencia a publicar resultados novedosos, que anticipan interesantes desarrollos científicos. Por esa razón, puede consistir en la confirmación de los resultados que avalan la hipótesis de partida, los de investigaciones anteriores que han abierto una nueva vía o, incluso, resultados acerca de los cuales de piensa que abren nuevas posibilidades. Lo que no se suelen publicar son resultados que simplemente no confirman las hipótesis de partida.
Los evaluadores de las revistas (los pares) tienen la tendencia a rechazar la publicación de resultados negativos con el argumento de que no suponen una aportación relevante al campo de conocimiento. Además, como ha mostrado Fanelli (2010), ese fenómeno se acentúa en las disciplinas consideradas “ciencias blandas”. O sea, es de menor importancia en física o química, intermedia en ciencias biomédicas y máxima en ciencias cognitivas o sociales. Mientras que el sesgo de confirmación es personal, el de publicación, sin embargo, es sistémico.
El sesgo retrospectivo consiste en proponer post hoc una hipótesis como si se hubiese formulado a priori. En otras palabras, se adapta la hipótesis de un trabajo a los resultados obtenidos. Este sesgo actúa porque la hipótesis original que era el punto de partida de la investigación no se suele publicar con anterioridad. Kerr (1998) denomina a esta práctica HARking (de HARK: Hypothesizing After the Results are Known). El problema del HARKing radica en que eleva la probabilidad de rechazar erróneamente una hipótesis nula, o sea, de que se produzcan errores de tipo I (falsos positivos). También conduce, de manera indirecta, a un despilfarro de recursos, tanto de tiempo como de dinero, ya que se necesitan más estudios de los que deberían ser necesarios para mostrar que no se producen los efectos que se producen.
El psicólogo Brian Nosek, de la Universidad de Virginia, sostiene que el sesgo más común y de mayores consecuencias en ciencia es el razonamiento motivado, que consiste en interpretar los resultados de acuerdo con una idea preconcebida. La mayor parte de nuestro razonamiento es, en realidad, racionalización. En otras palabras, una vez tomada una decisión acerca de qué hacer o de qué pensar sobre algo, nuestro razonamiento es una justificación post hoc por pensar o hacer lo que queremos o lo que creemos (Ball, 2017).
Karl Popper sostenía que los científicos buscan refutar las conclusiones a que han llegado otros científicos o ellos mismos. Esa es la forma en que, a su entender, avanza la ciencia. La práctica real es, sin embargo, diferente. Lo normal es que los científicos busquemos la manera de verificar nuestros hallazgos o los de los científicos con los que nos alineamos. Por eso, cuando los datos contradicen las expectativas, no es extraño que se rechacen por irrelevantes o erróneos.
Estos sesgos ejercen un efecto muy importante debido a que para los investigadores es crucial publicar artículos con sus resultados en revistas importantes. Es clave pata obtener la estabilidad en el puesto de trabajo, para promocionarse, para obtener financiación para sus proyectos, en definitiva, para ser reconocidos en su comunidad. Y para poder publicarlos, han de acomodarse a lo que se ha señalado antes: descartar resultados negativos, seleccionar los positivos y, si es posible, dar cuenta de hallazgos que sean considerados relevantes para el avance del conocimiento. La presión por publicar es tan fuerte que provoca una relajación de los controles subjetivos frente a los sesgos personales e introduce sesgos sistémicos, dirigiendo el tipo de investigaciones que se hacen y los resultados que se reportan, dado que las revistas acepatan más fácilmente resultados positivos.
Curiosamente, sin embargo, tampoco resulta fácil conseguir que se acepten para su publicación resultados verdaderamente revolucionarios. En cierto modo eso es lógico, ya que el escepticismo obliga a tomar con cautela todas las alegaciones relativas a hallazgos novedosos y a exigir que superen el cedazo de la prueba o, al menos, que las evidencias a su favor sean muy sólidas. Pero eso no quiere decir que esas alegaciones se desestimen o se les opongan obstáculos difícilmente salvables sin darles la debida oportunidad. Eso es lo que ocurrió con las investigaciones de, entre otros, Barbara McClintock (Nobel en 1984), Stanley Prusiner (Nobel en 1997), Robin Warren y Barry Marshall (Nobel en 2005), o Dan Shechtman (Nobel en 2011) cuyos descubrimientos necesitaron más tiempo y esfuerzo del que debería haber sido necesario para su aceptación. Y no sabemos en cuántas ocasiones resultados de similar trascendencia y carácter revolucionario han sido silenciados. Por lo tanto, no se trata solo de que ideas erróneas pervivan durante demasiado tiempo, sino que además, estos sesgos suponen un obstáculo serio para que nuevos descubrimientos e ideas se abran paso y se afiancen en el bagaje universal del conocimiento.
Los científicos solemos decir que la ciencia se corrige a sí misma. Y es cierto, pero a veces pasa demasiado tiempo hasta que se produce la corrección. Y a veces la corrección se hace con alto coste para quienes se atreven a desafiar el status quo. Las dificultades para la corrección se deben, en parte, a lo que hemos expuesto aquí. Pero también a que no se suelen intentar replicar las investigaciones y cuando se replican, es relativamente probable que no se reproduzcan los resultados originales. Pero de eso nos ocuparemos en una próxima anotación.
Para acabar, merece la pena reseñar, eso sí, que ya se han hecho propuestas concretas para mejorar la fiabilidad de los resultados que se publican (Ioannidis, 2014). Propone, entre otras, la participación en proyectos colaborativos de gran alcance, generalizar una cultura de la replicación, registrar los proyectos con sus hipótesis de partida antes de empezarlos y mejorar los métodos estadísticos. Algunas de esas propuestas se están llevando a la práctica.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo Sesgos cognitivos que aquejan a la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los primeros pasos de la evolución darwiniana y sesgos cognitivos y evolución (Día de Darwin 2018)
- Ciencia Patológica
- #Naukas14 Algunos trucos para reducir sesgos
Los supermicrobios amenazan con ser más letales que el cáncer

Si de algo puede presumir España es de ser uno de los países con personas más longevas. Cada vez hay más octogenarios con una excelente calidad de vida. Sin embargo, no siempre ha sido así. Hace un siglo la esperanza media de vida en Europa no llegaba a los 50 años. Muchas personas morían a edades tempranas por infecciones que hoy pueden prevenirse con vacunas o tratarse con antibióticos.
No obstante, este «milagro terapéutico» podría tener sus días contados. Porque la resistencia a los antibióticos se cierne como un peligro para nuestro estado del bienestar. Estos «supermicrobios» resistentes vuelven ineficaces a muchos antibióticos. Sin la ayuda de estos fármacos, los trasplantes y otras cirugías complejas, la quimioterapia contra el cáncer o muchas pruebas diagnósticas serían irrealizables debido a las complicaciones infecciosas que surgirían.
¿El fin de un «milagro terapéutico»?
Diez millones de personas podrían estar en riesgo mortal por culpa de las infecciones por bacterias resistentes a antibióticos en el año 2050. Para hacernos una idea, esta mortalidad superaría a la causada por el cáncer (ocho millones de muertes anuales). Además, el coste de su tratamiento se dispararía, con una caída estimada del PIB mundial de entre el 1,2 y el 4%.
Ante esta situación, es fácil entender por qué la lucha contra las resistencias microbianas se ha convertido en un objetivo prioritario. La Organización Mundial de la Salud propone eliminar de una vez por todas el empleo innecesario de antibióticos. No en vano se estima que, en atención médica primaria, solo uno de cada cinco tratamientos con antibióticos es realmente necesario.
Microbios sublevados
Para entender por qué surgen resistencias hay que empezar por saber que un microbio resistente a un antibiótico adquiere una ventaja evolutiva sobre otros competidores.
Unas veces surgen por mutaciones genéticas aleatorias (y poco frecuentes) que se pueden transmitir a la descendencia.
Otras, los genes responsables de esta resistencia se adquieren del medio ambiente (transformación bacteriana), de bacterias afines (conjugación) o de virus bacteriófagos (transducción). La presencia de genes de resistencia en plásmidos (anillos de ADN extracromosómico) facilita también su propagación.
Por regla general, un tratamiento antibiótico correcto disminuye la selección de microbios resistentes. El problema surge cuando se le da un mal uso, por ejemplo consumiéndolo injustificadamente y sin prescripción médica (automedicación). O interrumpiendo un tratamiento antes de tiempo.
Por otra parte, el uso inadecuado de los antibióticos para el engorde de los animales, la depuración incorrecta de aguas residuales y residuos orgánicos, la manipulación sin garantías de los alimentos o la higiene deficiente, también aumentan la frecuencia de bacterias resistentes.
A este problema se suma el consumo de antibióticos caducados, falsificados o que no contienen la dosis suficiente. Los antibióticos fraudulentos son, con frecuencia, los únicos asequibles en los mercados de muchos lugares del planeta. Además de que Internet facilita la venta de estos productos engañosos.
Mueren más personas a manos de superbacterias que en accidentes de tráfico
La resistencia a los antibióticos es un problema global. Existen bacterias resistentes tanto en países muy industrializados (Estados Unidos o Japón), como en islas prácticamente deshabitadas (las Svalbard en el Océano Ártico), o incluso en tribus aisladas en las selvas de la Amazonia. En la diseminación y persistencia de estos supermicrobios intervienen muchos factores, como el cambio climático, la migración de poblaciones, el transporte de mercancías o la contaminación del medio ambiente.
El mayor consumo de antibióticos se observa en países con economías emergentes (India, China, Indonesia, Nigeria o Sudáfrica). En Europa son los países del Mediterráneo y del Este los que se llevan la palma. No parece que sea casualidad que casi la mitad de las infecciones en estos países estén causadas por microbios resistentes.
La Sociedad Española de Enfermedades Infecciosas y Microbiología Clínica ha estimado que, solo en 2018, las superbacterias resistentes a los antibióticos causaron infecciones a 180 600 personas, en 82 centros sanitarios, de las que 35 400 murieron. Si comparamos estas cifras con las 1 098 muertes en accidentes de tráfico notificadas por la Dirección General de Tráfico en 2019, ¡las superbacterias fueron 32 veces más letales!

Últimamente a los supermicrobios clásicos, como Staphylococcus aureus resistente a la meticilina, Escherichia coli, Klebsiella pneumoniae y otras enterobacterias multirresistentes, como Acinetobacter baumannii y Pseudomonas aeruginosa se han añadido unos cuantos nuevos. Como el bacilo de la tuberculosis, el parásito Plasmodium falciparum o los hongos Candida auris y Candida glabrata.
Lo preocupante del asunto es que estas infecciones requieren de tratamientos más prolongados y menos eficaces, con fármacos no exentos de toxicidad. Y también suponen una estancia más prolongada en el hospital, que continúa siendo su reservorio principal por la presencia de pacientes graves tratados con múltiples fármacos.
Y hace poco saltaron las alarmas porque están apareciendo resistencias a los llamados antibióticos de último recurso, como aztreonam, carbapenems, linezolid o vancomicina, que son a los que recurrimos cuando otros no funcionan.
«Una Salud»
La salud humana, la de los animales y la del ambiente están íntimamente relacionadas. Muchos supermicrobios habitan los intestinos de las personas y de los animales y se propagan por las aguas residuales o contaminan el suelo. Para preservar esta salud global hay que realizar un esfuerzo importante.
Necesitamos mejores técnicas de diagnóstico rápido para realizar un tratamiento antibiótico más apropiado y temprano. Los científicos se han lanzado a buscar dianas terapéuticas nuevas y alternativas que eviten la selección de mutantes microbianos resistentes. Además, la modificación de los antibióticos clásicos podría mejorar el espectro antibacteriano y disminuir el uso de otros antibióticos más recientes.
Pero no es una batalla que involucre solo a los científicos. A luchar contra los supermicrobios podemos contribuir todos. ¿Cómo? Aplicando el sentido común:
- No automedicándonos
- Evitando tomar antibióticos contra el resfriado y otras infecciones por virus
- Siguiendo el tratamiento que nos aconseja nuestro médico hasta el final
- No usando antibióticos caducados, de otras personas o de procedencia dudosa (Internet)
- Actualizando nuestro calendario de vacunación
- Preparando los alimentos de manera higiénica
- Y, muy importante, lavándonos las manos con frecuencia.
Sobre el autor: Guillermo Quindós Andrés es catedrático de microbiología médica en el Departamento de Inmunología, Microbiología y Parasitología de la Facultad de Medicina y Enfermería, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Los supermicrobios amenazan con ser más letales que el cáncer se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Microbiota y cáncer
- No era tan fácil: wifi y cáncer
- ¿Qué nos puede decir un elefante del cáncer en humanos?
El coronavirus de Wuhan, ¿qué sabemos hasta ahora?
Desde principios de enero, el coronavirus de Wuhan, también conocido como neumonía de Wuhan, ha pasado a colapsar los telediarios y los periódicos. Recibimos información constante sobre nuevos infectados, síntomas, medidas de prevención, posibles soluciones, tasa de mortalidad… En esta vorágine de información es difícil conocer la realidad en torno a este virus. ¿Cuáles son sus síntomas reales? ¿Somos susceptibles de contagiarnos sin haber salido del país? ¿Qué sabemos y qué no?
Ignacio López Goñi da respuesta a estas y otras estas cuestiones y nos habla sobre todo lo que se sabe a ciencia cierta hasta ahora (actualizado al 6 de febrero de 2020) en la conferencia “El coronavirus de Wuhan, ¿qué sabemos hasta ahora?”.
La charla, una iniciativa de la Cátedra de Cultura Científica de la UPV/EHU, se celebró en la Sala Mitxelena del Bizkaia Aretoa de Bilbao el pasado jueves 6 de febrero de 2020.
Ignacio López Goñi es Catedrático de Microbiología e investigador del Departamento de Microbiología y Parasitología de la Universidad de Navarra y, además, es director del Museo de Ciencias de dicha universidad. Como investigador trabaja en varias líneas de investigación como la patogenicidad bacteriana o la caracterización molecular de factores de virulencia, vacunas, desarrollo de nuevas técnicas para el diagnóstico y tipificación molecular. Además, López Goñi desarrolla una intensa e innovadora labor en la divulgación y comunicación de la ciencia.
Edición realizada por César ToméLópez
El artículo El coronavirus de Wuhan, ¿qué sabemos hasta ahora? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Sabemos lo que comemos?
- Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan
- Ignacio López-Goñi: «El sistema de defensa de las bacterias es el mejor editor de genomas que existe»
Identificación genética de restos humanos de la Guerra Civil y la dictadura

Investigadores del grupo de investigación BIOMICs de la UPV/EHU han publicado los procedimientos de análisis que han utilizado para la identificación genética de 525 restos humanos exhumados en diferentes fosas de la Guerra Civil y la dictadura. El grupo optimiza continuamente las técnicas de identificación mediante la comparación con los familiares. En sus diez años de andadura, el grupo ha conseguido identificar 137 restos humanos, y ha obtenido el perfil genético de otros 297.
Se estima que durante la Guerra Civil y la posterior dictadura desaparecieron en torno a 114.000 personas en todo el territorio español. Desafortunadamente, 80 años después, no se ha podido recuperar o identificar más que un pequeño porcentaje de estas víctimas: en los últimos quince años se han recuperado aproximadamente los restos de unas 9.000 víctimas, de unas 700 fosas comunes (se estima que hay unas 2.000). Con el transcurso de todos esos años, y el consecuente deterioro de las muestras, los métodos convencionales no son suficientemente discriminatorios para identificar los restos de todas estas personas desconocidas. Los análisis genéticos son una herramienta eficiente en la identificación de estas víctimas.
El grupo de investigación de la UPV/EHU BIOMICs lleva diez años intentando identificar a estas personas desaparecidas, mediante el estudio genético de muestras óseas y dentales de restos exhumados de diferentes fosas de la Guerra Civil y la posterior dictadura y la comparación con el ADN de familiares. “Una vez obtenido el ADN de los restos exhumados, estudiamos unos marcadores genéticos concretos, dependiendo del tipo de relación de parentesco que queremos estudiar”, explica la doctora Miriam Baeta, investigadora de BIOMICs, del Departamento de Zoología y Biología Celular Animal de la UPV/EHU.
El objetivo de los análisis genéticos es obtener el perfil de los restos o la suficiente información para poder cotejarlos con los perfiles de sus familiares o de la base de datos del banco de ADN de familiares de desaparecidos, o, en su caso, para guardarlos en la base de datos a la espera de más perfiles de familiares. Cada caso es diferente porque “por ejemplo, si queremos estudiar por vía paterna estudiamos el cromosoma Y; sin embargo, la vía materna la estudiamos mediante el ADN mitocondrial”, explica Baeta.
La investigadora pone de manifiesto la complejidad que tiene el trabajo de identificación, “porque estamos hablando de ADN post mortem, que a menudo llega muy degradado y no conseguimos obtener el perfil genético completo. La identificación o la coincidencia es más fácil de probar cuantos más marcadores se estudien. Además, en muchos casos no contamos con los miembros familiares adecuados, en el sentido de que ya no existen familiares lo suficientemente cercanos o los marcadores que conseguimos no se pueden cotejar con las muestras de ADN de los familiares”, añade la investigadora. Miriam Baeta hace hincapié en la importancia del banco de ADN de familiares, “para que en futuras exhumaciones se puedan hacer más comparaciones”.
Asimismo, Baeta se muestra optimista, porque “gracias al avance de las tecnologías cada vez podemos estudiar marcadores más pequeños, que tienen más probabilidad de éxito en el análisis, porque al ser más pequeños sobrevivirán a la degradación”. En los diez años que el grupo lleva trabajando en este campo, son muchos los avances que han conseguido en la optimización del sistema de identificación: “Entre otros, hemos optimizado los sistemas de extracción de ADN, así como distintos pasos a lo largo del proceso con el objetivo de obtener perfiles que sean informativos. Siempre intentamos ir mejorando todas las partes”, detalla. Concretamente, el último avance propuesto por el grupo “permite estudiar fragmentos más pequeños de ADN mitocondrial. Esta técnica nos permite hacer un primer cribado para descartar de forma coste-efectiva posibles relaciones por vía materna; es decir, podemos discriminar de una forma más sencilla el parentesco por vía materna: sólo si hay coincidencia en esta primera fase, habría que aplicar después las metodologías que se vienen usando hasta ahora para analizar el ADN mitocondrial”.
Los investigadores del grupo han publicado un artículo en el que dan a conocer todo el conocimiento adquirido con el trabajo de diez años. Concretamente, exponen las técnicas y los procedimientos utilizados en la identificación de 525 restos humanos. Para esta identificación, paralelamente, obtuvieron las muestras de saliva de 879 familiares, y así consiguieron identificar a 137 personas desaparecidas. En total, de un 17 % de las muestras analizadas no obtuvieron el perfil informativo, como consecuencia del ADN limitado o degradado de las muestras, pero sí obtuvieron perfiles informativos de otros 297 restos humanos que, pese a todo, quedaron sin identificar. “En general, obtenemos perfiles de la mayoría de los restos esqueléticos, pero no tenemos a los familiares adecuados con los que comparar”, comenta la doctora.
La investigadora afirma que “cuando obtenemos una identificación es una alegría, porque, además de la alegría que nos produce el propio resultado en sí, hay un trabajo muy complejo detrás. Al final, es un esfuerzo colectivo, tanto nuestro como de la Sociedad de Ciencias Aranzadi, del Instituto Gogora y de las asociaciones de víctimas y familiares de personas desaparecidas en la Guerra Civil y la dictadura”.
Referencias:
Miriam Baeta, Carolina Nuñez, Caterina Raffone, Eva Granizo, Leire Palencia-Madrid, Sergio Cardoso, Francisco Etxeberria, Lourdes Herrasti, Marian M. de Pancorbo (2019) Updating data on the genetic identification of bone remains of victims of the Spanish Civil War Forensic Science International: Genetics Supplement Series (2019) doi: 10.1016/j.fsigss.2019.10.098
Miriam Baeta, Sandra García-Rey, Leire Palencia-Madrid, Caterina Raffone, Marian M. de Pancorbo (2019) Forensic application of a mtDNA minisequencing 52plex: Tracing maternal lineages in Spanish Civil War remains Forensic Science International: Genetics Supplement Series doi: 10.1016/j.fsigss.2019.10.050
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Identificación genética de restos humanos de la Guerra Civil y la dictadura se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Formas moleculares de excreción de restos nitrogenados
- Al menos de 24 siglos de continuidad genética
- La «Nocardia de San Sebastián» infecta a humanos
Crisis, emergencia, apocalipsis
Lo llamábamos calentamiento global. A finales de los 90 se popularizó cambio climático. A finales de los años 10 de este siglo triunfó el término crisis climática. En poco tiempo dio paso a la emergencia climática. Antes de que nos acostumbrásemos a esta nueva expresión, apareció una nueva: apocalipsis climático. La emergencia del lenguaje suele usarse para esconder la crisis de las ideas.

Un nuevo entendimiento requiere del uso de nuevos términos. Así, el calentamiento global se refiere al aumento de la temperatura, mientras que el cambio climático incluye el calentamiento y todos los efectos secundarios que derivan de él: aumento de la frecuencia de los eventos meteorológicos extremos, subida del nivel del mar, acidificación de los océanos, pérdida de biodiversidad, mengua de recursos, empobrecimiento, entre otros. Hubo consenso entre científicos, comunicadores, políticos y lingüistas en el uso de esta nueva y más precisa denominación. Tanto es así, que el IPCC, el organismo de referencia mundial creado por las Naciones Unidas para evaluar la ciencia relacionada con el cambio climático, lleva el término en sus siglas y se refiere a él con esa expresión en todos los documentos oficiales.
No obstante, las recomendaciones actuales en términos de comunicación indican que la expresión crisis climática es más adecuada para referirse a la magnitud y a las consecuencias del cambio climático causado por la actividad humana. Es la expresión preferida por la mayoría de políticos y periodistas. La definición de crisis comprende un cambio profundo de consecuencias importantes. Históricamente se ha empleado la declaración de situaciones de crisis para definir objetivos y tomar decisiones concretas.
Es cierto que el uso de la expresión crisis climática ha coincidido en el tiempo con una mayor conciencia medioambiental. Según los datos, cada vez hay más personas que optan por el transporte público por una motivación medioambiental, que escogen electrodomésticos de bajo consumo, que reciclan, que prefieren materiales reciclados y reciclables, que han modificado su alimentación y su forma de ocio.
A pesar de ello, según el barómetro del CIS, el 60% de los entrevistados creen que los esfuerzos individuales son inútiles si no se toman medidas de carácter global. El 80% cree que es imprescindible que los gobiernos intervengan. Esta percepción se corresponde con la realidad de los hechos. Según datos del Ministerio, el 75% de las emisiones de CO2, el principal gas responsable del calentamiento global, proviene del sector energético. El 27% lo emite el transporte, el 18% la generación eléctrica, el 19% la combustión en industria y el 9% deriva del uso comercial y residencial. Los procesos agrícolas, sin contar transporte, son el 12%, donde el 8% del CO2 proviene de la ganadería y el 4% de la agricultura.
Sin un plan estratégico global concreto y ambicioso, es cierto que el impacto medioambiental de las acciones individuales es despreciable. A esto hay que sumarle que la toma de decisiones que afectan al ámbito privado acostumbra a estar mediada por prejuicios y desinformación. Por ejemplo, desde el punto de vista medioambiental, la cruzada contra el uso del plásticos es anticientífica: usar bolsas de plástico es más sostenible que usar bolsas de papel o de algodón, y el impacto medioambiental de los materiales cerámicos es mayor que el de los plásticos, aunque cause más desasosiego una montaña de basura de plástico que una montaña de basura de hormigón. La realidad es que optar por recorrer 5 km en trasporte público en lugar de hacerlo en coche particular, ahorra más CO2 al planeta que todo el plástico que usarías en un año.

De poco o nada servirá que cada uno de nosotros se fabrique su propia bolsa de patchwork ideológico, a base de retales de tela de algodón, poliéster y bambú, si no se toman medidas mensurables cuyo impacto real concuerde con las dimensiones del problema.
Según el IPCC, las principales opciones de mitigación del cambio climático radican en el sector energético: mejorar la eficiencia energética y reducir las emisiones de gases de efecto invernadero. Esto solo puede lograse, según el IPCC, apostando por el uso de energías renovables, el uso de energía nuclear, y el uso de sistemas de captura y almacenamiento de dióxido de carbono.
Así escrito en un párrafo parece sencillo. Pero la realidad es que cambiar un modelo energético requiere de tiempo y solvencia. Necesitamos gobiernos sólidos y ambiciosos capaces de afrontar inversiones y planes que vayan más allá de los años de legislatura. Por eso no se apuesta por las centrales nucleares, porque pocos países tienen la certeza de ser capaces de soportar el periodo de amortización. Por eso se cierran centrales térmicas sin hacer demasiado ruido mediático, porque el cierre, desde el punto de vista tecnológico es sencillo, y desde el punto de vista del cambio climático es conveniente, pero la gestión del impacto social y económico es harina de otro costal.
Atemorizar a la gente con palabras como emergencia o apocalipsis, sabemos que solo genera miedo, ansiedad e inmovilismo. No quiero ciudadanos actuando como pollos sin cabeza, tomando decisiones que afectan a su bienestar sin ser conscientes de la relevancia de sus actos. No quiero que paguen por sellos ecológicos de kiwis que vienen de Nueva Zelanda, creyendo que ese esfuerzo económico responde a un acto heroico por el planeta. No quiero que restrinjan su alimentación y su ocio más allá de lo simbólico o lo ético. No quiero que cada persona a título individual cargue con la culpa y la responsabilidad de gestionar desde su parcela privada algo tan grande como el cambio climático. Hablo de culpa porque hay quien habla de apocalipsis. Ese juego dialéctico ha pasado de responder a un uso apropiado del lenguaje, a un uso circense. Crisis, emergencia, apocalipsis. Si el lenguaje es importante, uno debería usarlo como si lo fuera.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Crisis, emergencia, apocalipsis se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Lo prudente es hablar de emergencia climática
- El legado de Fisher y la crisis de la ciencia
- Apocalipsis alienígena: ¿puede alguna civilización sobrevivir a un cambio climático?
Área = perímetro
Algunos descubrimientos en matemáticas –y en ciencia en general– nacen de errores. Es algo que repetimos a menudo en el aula a nuestro alumnado: no deben temer equivocarse. En muchas ocasiones, el análisis de un error ayuda a entender un enunciado o un razonamiento con precisión.
En 1981, el matemático Lee Markowitz –de la Universidad de Bowling Green State, Ohio, EE. UU.– publicó un artículo en la revista Mathematics Teacher en la que precisamente comentaba cómo un error le había llevado a preguntarse sobre cierta propiedad relativa a triángulos.
Mientras el matemático estaba explicando un ejercicio de geometría a uno de sus estudiantes, cometió un error que le llevó a preguntarse cuándo el perímetro y el área de un triángulo eran iguales. El ejercicio en cuestión consistía en calcular el área lateral de un prisma recto de base triangular. El triángulo tenía catetos de longitudes A=6 y B=8 unidades e hipotenusa de C=10 de largo, siendo la altura del prisma de H=12.

Recordemos que el área lateral de un prisma recto es PH, donde P es el perímetro de la base y H la altura del prisma.
Markowitz se equivocó y calculó el área del triángulo en vez de su perímetro. El error pasó desapercibido en un primer momento porque, efectivamente, el área del triángulo es AB/2 –es decir, 24– y el perímetro es A+B+C=6+8+10=24.
Al ser consciente del error, como buen matemático, Markowitz comenzó a hacerse varias preguntas.
-
Cuestión 1: ¿Es este el único triángulo de lados de longitud natural cuyo perímetro y área coinciden?
-
Cuestión 2: ¿Hay más triángulos cuyos lados tengan longitud racional, no necesariamente entera?
-
Cuestión 3: ¿Existen triángulos no rectángulos, con lados de longitud natural y cuyo perímetro y área coincidan?
Y Markowitz comenzó a investigar, llegando a demostrar dos teoremas:
Teorema 1: Existen solo cinco triángulos con lados de longitud entera para los cuales el área coincide con el perímetro. Solo dos de estos triángulos son rectángulos.
Teorema 2: Existen infinitos triángulos rectángulos con lados de longitud racional para los cuales el área coincide con el perímetro.
Vamos a responder a las preguntas –a probar los teoremas– siguiendo las indicaciones de Lee Markowitz en su artículo.
Un triángulo de lados A, B y C (hipotenusa) respondiendo a la cuestión 1 debe verificar las siguientes propiedades:
- A, B y C son números naturales,
- el área del triángulo coincide con su perímetro, es decir, ½AB=A+B+C, y
- el triángulo es rectángulo, es decir, A2+B2=C2.
Despejando C de (2) se deduce que C=½AB-A-B. Y sustituyendo C en la condición (3) queda que A2+B2=(½AB-A-B)2, es decir, AB(AB-4A-4B+8)=0. Como A y B son positivos, debe ser AB-4A-4B+8=0. De otro modo, se obtiene la condición:
- (A-4)(B-4)=8.
Considerando dos triángulos rectángulos iguales si se intercambian los papeles de los dos catetos, solo hay dos soluciones que verifican (1), (2), (3) y (4), a saber (A,B,C)=(6,8,10) y (A,B,C)=(5,12,13). El resultado se obtiene fácilmente al tener en cuenta que 8 se puede escribir como producto de números naturales solo de dos maneras: como el producto de 1 por 8 o el de 2 por 4.
La cuestión 2 se resuelve eliminando la condición (1), es decir, estudiando aquellos triángulos verificando únicamente (2) y (3). Así, debe resolverse la condición (4) permitiendo valores racionales positivos para A y B. Despejando B de (4), se obtiene la ecuación
- B=(-8+4A)/(A-4).
El cociente de -8+4A entre A-4 es positivo cuando A es mayor que 4 o cuando A es menor que 2 (y positivo). Esto prueba que hay infinitos triángulos con lados racionales cuya área y perímetro coinciden.
Y, para finalizar, asumamos que el triángulo no tiene que ser rectángulo, aunque debe tener lados enteros. Así, debemos eliminar la condición (3) del análisis. El área de un triángulo no rectángulo en términos de la longitud de sus lados no se escribe como en (2). La expresión del área sigue la llamada fórmula de Herón –que, por supuesto, corresponde a la condición (2) en el caso de un triángulo rectángulo– es la raíz cuadrada de S(S-A)(S-B)(S-C), donde S es el semiperímetro del triángulo. Así la cuestión 3 se resuelve imponiendo las condiciones (1) y
- S(S-A)(S-B)(S-C)=(A+B+C)2.
Analizando (1) y (6) –simplificando la ecuación (6) y descartando las soluciones no enteras– se obtienen cinco pares de triángulos que cumplen esas condiciones, a saber: (A,B,C)=(6,8,10), (A,B,C)=(5,12,13), (A,B,C)=(6,25,29), (A,B,C)=(7,15,20) y (A,B,C)=(9,10,17). Las dos primeras corresponden a los triángulos rectángulos ya citados con anterioridad.
Así hemos demostrado los dos teoremas enunciados por Lee Markowitz; son hermosos y sencillos resultados fruto de un error… y de la tan necesaria curiosidad en la actividad investigadora.
Referencias
[1] Math Notes, Futility Closet, 23 enero 2020.
[2] Lee Markowitz, Area = Perimeter, Mathematics Teacher 74:3 (1981), 222-223.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Área = perímetro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Por qué los átomos tienen el tamaño que tienen?

A escala atómica el principio de incertidumbre se usa principalmente en argumentos generales sobre la teoría atómica más que en problemas numéricos concretos. Por ejemplo, el principio de incertidumbre ayuda a responder una pregunta fundamental que los pensadores se han planteado desde que apareció el concepto de átomo: ¿por qué los átomos tienen el tamaño que tienen? [1]
Los átomos en realidad están compuestos principalmente de espacio vacío. En el centro de cada átomo hay un núcleo muy pequeño, en el que se concentra toda la carga positiva y casi toda la masa del átomo. Alrededor del núcleo hay una cantidad de electrones igual a la carga positiva del núcleo. Los electrones están dispuestos en varias órbitas cuánticas. La más baja se llama el «estado fundamental». Pero incluso la órbita del estado fundamental todavía está lejos del núcleo. En la mayoría de los átomos, el radio del estado fundamental es de unos 10-8 cm, mientras que el radio del núcleo es de unos 10-12 cm. Esto significa que un núcleo ocupa solo una pequeña fracción del espacio dentro de un átomo; el resto está vacío (a excepción de unos pocos electrones que podemos considerar de tamaño puntual) [2].
El modelo de Rutherford, basado en un modelo planetario del átomo, es inestable, ya que el átomo debería colapsar en el núcleo, porque los electrones deberían irradiar su energía y girar en espiral hacia el núcleo. Bohr intentó explicar por qué esto no sucede al postular la existencia de estados cuánticos estacionarios, mientras que la mecánica cuántica asocia dichos estados con ondas estacionarias, teniendo el estado fundamental la onda de electrónica estacionaria más pequeña posible en esa órbita. Pero es el principio de incertidumbre el que explica por qué no podemos tener estados más bajos y por qué los electrones negativos no pueden existir dentro de o sobre el núcleo positivo. Bueno, para ser estrictos, el principio de incertidumbre combinado con el principio de constancia de la velocidad de la luz de la teoría de la relatividad.
Una aplicación simple de la relación de incertidumbre para la posición y el momento (Δx·Δpx≥h/4π) muestra que si un electrón está confinado a un espacio de 10-8 cm, el tamaño de un átomo promedio en centímetros, entonces la incertidumbre en su velocidad es menor que la velocidad de la luz. Pero si se limita a un espacio mucho más pequeño, o incluso al tamaño del núcleo, la incertidumbre en su velocidad excedería la velocidad de la luz, que es, redondeando, 3·1010 cm/s. Pero nada puede superar a la velocidad de la luz [3], ninguna partícula material puede exceder la velocidad de la luz. Por lo tanto, el espacio dentro del átomo entre el núcleo y el primer estado cuántico debe permanecer vacío. [4]
Ya tenemos un tamaño mínimo para el átomo dado por la combinación de incertidumbre y relatividad. ¿Existe algún límite al tamaño máximo?
Para aumentar el tamaño de un átomo, tendríamos que llevar electrones a estados cuánticos mucho más altos. Además de requerir la inyección de una gran cantidad de energía, los estados energéticos más altos no están espaciados uniformemente, sino que están cada vez más separados. Por lo tanto, la probabilidad aumenta enormemente de que los electrones en estos estados superiores puedan escapar del átomo y liberarse, por lo que dicho átomo no existiría durante mucho tiempo debido a la menor atracción electrostática del núcleo, lo que significa que en la práctica la mayoría de los átomos que se pueden estudiar tienen un tamaño de aproximadamente 10-8 cm.
Veremos en su momento que el hecho de que los átomos tengan un tamaño del orden de 10-8 cm ayuda a explicar muchas de las propiedades de la materia que vemos a nuestro alrededor.
Notas:
[1] Veremos que para responder a esta pregunta tendremos que echarmano de lo que hemos visto hasta ahora de Átomos y Cuantos.
[2] Implícitamente estamos considerando el aspecto corpuscular de los electrones. Esta interpretación es la que nos conviene en esta explicación, pero no debemos olvidar la dualidad onda-corpúsculo.
[3] Véase nuestra serie La teoría de la invariancia, una teoría popularmente llamada con un nombre que da lugar a equívocos: teoría de la relatividad.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo ¿Por qué los átomos tienen el tamaño que tienen? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El tamaño del átomo de hidrógeno
- La estructura de la tabla periódica se deduce de la estructura de capas de los átomos
- El tamaño de las moléculas
Ciencia Patológica

Además del fraude, hay otros comportamientos por parte de quienes realizan investigación de vanguardia que pueden conducir a obtener –y en ocasiones anunciar o publicar- conclusiones erróneas o insostenibles. El que da lugar a la denominada “ciencia patológica” es uno de ellos.
La expresión “ciencia patológica” fue acuñada por Irvin Langmuir, químico y físico estadounidense que fue premio Nobel de química en 1932. Se movió entre la ciencia experimental y la teórica, y fue presidente de la Asociación Química Americana.
En la conferencia “Coloquio en el Laboratorio de Investigación Knolls de la General Electric”, impartida el 18 de Diciembre de 1953, Langmuir describió la “ciencia de las cosas que no son”, más tarde conocida como “ciencia patológica”. Esa denominación no hace referencia a una forma particular de pseudociencia, pues esta no tiene pretensión alguna de seguir el denominado “método científico”, sino a un tipo de investigación científica afectada por sesgos inconscientes y efectos subjetivos.
En su conferencia, Langmuir previno contra los peligros del autoengaño y dio cuenta de varios casos famosos, entre ellos: Los Rayos N, (Blondlot, 1903), una prueba experimental contraria a la Teoría de la Relatividad (Kaufmann, 1906), las radiaciones mitogenéticas o rayos Gurwitsch (1923), una verificación prematura del ”corrimiento al rojo” gravitacional (Adams, 1924), y los experimentos dudosos sobre rayos canales de Rupp (1926)*. J M Barandiarán (2017) incluye también en esa relación el caso de Percival Lowell y los “canales” marcianos, a los que dedicó la mayor parte de su actividad en el observatorio (privado) de Flagstaff (Arizona).
La ciencia patológica es un fenómeno que presenta los siguientes rasgos relativos a un supuesto descubrimiento científico:
- El efecto observable máximo es producido por un agente causante de intensidad apenas perceptible, y la magnitud del efecto es sustancialmente independiente de la intensidad de la causa.
- La magnitud del efecto es cercana al límite de la detectabilidad, o muchas medidas son necesarias debido a la baja relevancia estadística de los resultados. Suele ocurrir que el investigador encuentre excusas en estos casos para descartar datos convenientemente.
- Hay afirmaciones de gran exactitud.
- Se proponen teorías fantásticas contrarias a la experiencia.
- Las críticas se resuelven con excusas ad hoc.
- La proporción de partidarios frente a los críticos aumenta y después cae gradualmente al olvido. Los críticos no pueden reproducir los experimentos, sólo pueden los que son partidarios. Al final no se salva nada. De hecho, nunca hubo nada.
Como regla general la ciencia patológica trabaja en los límites difusos, no hay pretensión de fraude, simplemente es mala ciencia, que se practica por no saber reconocer las limitaciones epistemológicas del investigador, sus instrumentos y sus diseños experimentales. Hay mucha más de lo que sería deseable, sobre todo en algunos campos nuevos y de moda. El caso más sonado de ciencia patológica es, quizás, el de la supuesta “fusión fría”.
Si pensamos que para los investigadores constituye un fuerte incentivo la posibilidad de realizar descubrimientos cruciales, nos encontraríamos, paradójicamente, ante un caso en el que el reconocimiento por los hallazgos –que compensa, supuestamente, el carácter desinteresado de la actividad científica-, actuaría como factor principal de esta variedad de mal. Se trata de un efecto similar al de la segunda modalidad de fraude científico. También en este caso, es el escepticismo, la virtud mertoniana que queda en entredicho, no tanto porque se impida su ejercicio, sino porque no se actúa conforme a lo que tal virtud exige.
El contenido de esta anotación se ha basado, sobre todo, en esta otra de César Tomé López (2013) en el Cuaderno de Cultura Científica, y en la de J M Barandiarán (2017) en la web de BC Materials.
Nota:
[*] Rupp tuvo que admitir finalmente que sus extraordinarios resultados se debían, en parte, a una falsificación de datos.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo Ciencia Patológica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Ni ciencia, ni pseudociencia, ciencia patológica.
- Ciencia a presión: Ciencia patológica y patología editorial
- El fraude y las malas prácticas en ciencia
El efecto hoy en día

“Ahora los chicos aman el lujo. Tienen malas maneras, desprecian la autoridad; no respetan a los mayores y prefieren la cháchara al ejercicio”. Las personas mayores decimos cosas semejantes con frecuencia. Y eso no es de ahora; se han dicho, al menos, desde que tenemos registros escritos de lo que pensaban nuestros antepasados. La cita entrecomillada con la que se abre este texto, en concreto, se atribuye a Sócrates. Pero si eso fuera cierto, si los jóvenes fuesen cada vez más disolutos, mas irrespetuosos, más holgazanes o más alocados, por citar solo algunos de los defectos que se les suelen atribuir, la juventud y con ella el resto de la humanidad, habría degenerado de una forma difícilmente soportable. Algo falla en esas expresiones.
Una investigación cuyas conclusiones se han dado a conocer recientemente ha abordado este asunto, indagando acerca del fenómeno denominado “efecto hoy en día” (these days effect en inglés). Y para ello ha pulsado la opinión de las personas mayores acerca de cómo han evolucionado tres rasgos en concreto desde nuestros años mozos hasta la juventud de hoy en día. Los rasgos son el respeto a las personas mayores, la inteligencia y el gusto por la lectura.
La conclusión general del estudio es que hay, efectivamente, una tendencia general a hablar mal de la juventud en lo relativo al respeto a los mayores y el gusto por la lectura. Y también una tendencia a valorar de forma negativa a la gente joven en aquellos rasgos en los que uno destaca o cree destacar; esta tendencia es común a los tres rasgos investigados. O sea, cuando una persona adulta es muy respetuosa con la autoridad, tiende a pensar que la gente joven de ahora respeta a los mayores menos que los jóvenes de su época. Y lo propio ocurre con la inteligencia y con la afición a leer. El efecto es, sobre todo, específico de cada rasgo, porque, por ejemplo, alguien muy aficionado a la lectura pero que valora poco la autoridad, no tiende a pensar que los jóvenes de hoy en día no respetan a los mayores como se les respetaba antes. En otras palabras, ese “efecto hoy en día” no consiste en una minusvaloración o mala opinión general de la juventud sino que se circunscribe a dominios relativamente específicos.
Los autores del trabajo identificaron dos mecanismos que subyacen al efecto. Por un lado, observaron que la gente que destaca en algún rasgo tiene una especial tendencia a percibir los fallos en ese mismo rasgo de los demás, tanto en los jóvenes como en los adultos. Y por otra parte, tienden a proyectar sus características actuales hacia el pasado, incurriendo en el error de pensar que cuando eran jóvenes tenían las mismas virtudes o rasgos favorables que en el presente. Por eso se comparan tal y como se ven a sí mismos hoy con los jóvenes, sin caer en la cuenta de que ellos no son ahora como eran hace cuarenta años. Este mismo sesgo ha podido estar actuando durante milenios, con lo que ello implica.
Si llevamos siglos valorando de forma negativa a los “jóvenes de hoy en día”, es muy improbable que los mayores dejemos de hacerlo en adelante. Por esa razón, cuando oiga a sus familiares o colegas, o incluso, se descubra a sí mismo diciendo que los jóvenes de ahora son indisciplinados, no respetan a sus mayores, no leen, antes llegaban mejor preparados a la universidad, o cosas semejantes, antes de asentir o de seguir con la diatriba piense que eso mismo decían los griegos hace casi veinticinco siglos.
Fuente:
John Protzko and Jonathan W. Schooler (2019): Kids these days: Why the youth of today seem lacking Science Advances: 5 (10) eaav5916 DOI: 10.1126/sciadv.aav5916
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El efecto hoy en día se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- No duermas, hay leones
- El efecto escenario: por qué la gente elige la opción de en medio
- El desajuste adolescente
Energía… ¿oscura?
¿Podemos predecir el destino del Universo? Aunque parezca sorprendente, al parecer sí que se puede. Sin embargo, en el intento nos hemos encontrado con el efecto de la llamada ‘energía oscura’. ¿Podemos entender de dónde viene la energía oscura y cuál es su efecto, o debemos simplemente aceptar su existencia?
Ciertamente, nos encontramos ante grandes incógnitas. Para abordar estas cuestiones y reflexionar sobre ellas, el ciclo de conferencias Bidebarrieta Científica acogió la charla titulada “Energía… ¿oscura?” de la mano de Marcos Pellejero Ibáñez, investigador postdoctoral en el Donostia International Physics Center, el pasado 29 de enero de 2020.
Marcos Pellejero habló sobre el Universo y el vacío en esta conferencia del ciclo Bidebarrieta Científica, iniciativa impulsada por la Cátedra de Cultura Científica de la UPV/EHU y la Biblioteca Bidebarrieta y que en esta ocasión se celebrará en el marco de la tercera edición del ciclo de cine y ciencia organizado por la Filmoteca Vasca, el Donostia International Physics Center (DIPC) y el Festival de Cine de San Sebastián.
Edición realizada por César Tomé López
El artículo Energía… ¿oscura? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Prótesis biocompatibles por impresión 3D

La impresión en tres dimensiones (3D) ha constituido un gran avance en la medicina personalizada al desarrollar biomodelos que facilitan en gran medida la labor del profesional de la salud. Un nuevo paso en este camino es el trabajo colaborativo llevado a cabo entre el grupo Biomat de la Universidad del País Vasco y la empresa Domotek que ha permitido la obtención de biomodelos personalizados de colágeno nativo. Gracias a los avances en la obtención de biomateriales procesables por impresión 3D, desarrollados por Biomat, y en la adquisición y procesado de datos para impresoras 3D, llevados a cabo por Domotek, los productos fabricados pueden ser utilizados como piezas de utillaje o prótesis gracias a su biocompatibilidad.
“A partir de imágenes médicas tomadas al paciente, principalmente mediante Tomografía Axial Computarizada (TAC) o Imagen por Resonancia Magnética (MRI), se pueden obtener modelos digitales 3D de gran precisión -explica Pedro Guerrero, investigador del grupo Biomat-. Estos modelos digitales se pueden transformar en datos que pueden ser procesados por las impresoras 3D para imprimir réplicas exactas (biomodelos) de la anatomía del paciente. Estos biomodelos sirven al médico para verificar los procedimientos quirúrgicos y mejoran la comunicación de los médicos con el paciente, mostrándole el biomodelo al paciente para que este comprenda mejor la intervención a realizar. En la actualidad, los implantes personalizados hacen posible la reconstrucción del defecto sin alterar la anatomía del paciente, consiguiéndose una mejora en la eficiencia de la cirugía y reduciendo la duración y los costes de la misma”.
Las impresoras 3D pueden reproducir los biomodelos en plástico o resina, pero estos materiales presentan riesgos de infección o rechazo, por ello el desarrollo de nuevos materiales es clave. “Con el desarrollo llevado a cabo por Biomat y Domotek, los biomodelos se pueden fabricar con colágeno nativo tipo I, un material biocompatible, biodegradable, poroso, adecuado para la adhesión celular y que no presenta citotoxicidad. Por tanto, estos biomodelos fabricados con materiales basados en colágeno nativo pueden ser las prótesis del mañana, ya que, gracias a sus propiedades, pueden comportarse como sustitutos temporales del tejido dañado mientras este se regenera. En el caso de los implantes, la biodegradabilidad es muy importante ya que evita una segunda cirugía para eliminar el implante”, aclara el profesor Guerrero.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Prótesis biocompatibles por impresión 3D se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Polímeros biocompatibles para integrar dispositivos electrónicos en nuestro cuerpo
- Cómo regular la velocidad de disolución de los biometales de las prótesis
- Control adaptativo de robots para rehabilitación
El efecto escenario: por qué la gente elige la opción de en medio
Ante una lista de opciones o elementos similares colocados en fila, los humanos tendemos a descartar los extremos y quedarnos con aquellos situados en medio. Sucede con números, con imágenes e incluso con concursantes de un programa de televisión1. El efecto de preferencia central (“center stage effect” o “centrality preference” en la literatura en inglés) ha sido estudiado por la psicología desde hace décadas y presenta una robusta evidencia23. Los motivos de esta curiosa preferencia no terminan de estar claros 4: podría tratarse de una cuestión perceptiva56 (fijamos nuestra mirada en el centro por lo que tendemos a elegir cosas situadas ahí), cultural7 (el prestigio y la autoridad asociados a una posición central), o una estrategia para reducir el esfuerzo mental que supone elegir8. De un modo u otro, las implicaciones de este efecto resultan de lo más variopintas. Aquí van algunas:
Servicios públicos
En un artículo publicado en 19959, Nicholas Christenfeld presentó una serie de experimentos sobre este curioso sesgo: en uno de ellos, examinó las preferencias de los playeros de California a la hora de ir a mear. Como hubiese sido un poco violento plantarse en la puerta de los servicios públicos a contar visitantes, Christenfeld usó una medida indirecta. Con ayuda del personal de limpieza, registró el uso de papel higiénico de cada una de las cabinas. El resultado confirmó la sospecha: los playeros utilizaban los retretes centrales con bastante más frecuencia de la que cabía esperar por puro azar. Así que la próxima vez, ya sabes… si quieres usar el retrete más limpio, deberías optar por los extremos. No sólo estarán menos usados, además tendrás más posibilidades de encontrar papel higiénico.
¡Compra, compra!
Objetos similares colocados en fila. Está claro que nuestra preferencia por la centralidad tiene muchas ocasiones de salir a relucir cada día. Pero quizás la más clara es la que nos sitúa como compradores ante una colección de productos. Esta colección puede tomar distintas formas: puede ser un escaparate, perfectamente ordenado tras un cristal. También puede tratarse de un catálogo, la balda del supermercado, o las bebidas en la nevera al final de un buffet. Y, claro está, también puede darse en internet: desde la galería de amazon a cualquier página web de venta online. En todos estos casos, los clientes tienden a elegir y gastar más dinero en los elementos situados hacia el centro de su campo visual. Es algo que saben quienes disponen los productos en tiendas físicas y también quienes crean páginas web. De hecho, si recientemente has contratado alguna suscripción o servicio online, es probable que esta distribución te resulte sospechosamente familiar:
Esta es una captura de la página de suscripción a The Economist. Pero la idea no es precisamente original. La misma idea se repite una y otra vez. Sencillamente, porque funciona.
Exámenes tipo test
El MIR es, quizás, una de las pruebas más exigentes a las que se enfrenta todo médico durante su carrera. Sin embargo, hasta hace algunos años, los estudiantes recién salidos de la facultad podían contar con una pequeña ventaja. Si algún concepto sobre anatomía humana se les escapaba, siempre podían jugársela con la psicología: debido a los sesgos de quienes habían diseñado el examen, no todas las respuestas eran correctas con igual probabilidad. Según me cuentan los doctores Elena Alvar y Julián Palacios (especialistas en anestesiología y cardiología, respectivamente), este hecho era ampliamente conocido por los estudiantes y se contaba en algunos cursos de preparación a las pruebas. Las respuestas correctas seguían una distribución muy similar a las de las carreras de tortugas. Los examinadores, sin saberlo, tendían a colocar las respuestas correctas con mayor probabilidad hacia el centro. Los estudiantes, incluso sin haberlo sabido, hubiesen optado por ellas también: el sesgo funciona en ambos sentidos y quienes se someten en este tipo de tests, tienden a buscar la respuesta correcta lejos de los extremos.
Esta colaboración no buscada entre examinadores y examinados tiende a darse en todas las pruebas de elección múltiple10. Pero en el caso del MIR tuvo su fin hacia 2010. Desde ese año y hasta 2014, el Ministerio hizo un esfuerzo deliberado por equilibrar la distribución de aciertos entre las 5 respuestas posibles. En 2015, los exámenes pasaron a tener cuatro alternativas en lugar de 5 y parece que los resultados han vuelto a perder el equilibrio favoreciendo ligerísimamente las opciones de en medio. El margen es tan leve que nadie se va a librar de estudiar. Pero ante la duda… siempre mejor quedarse con la segunda o tercera tortuga.

Referencias:
1Raghubir, P. & Valenzuela. (2006). Centre-of-inattention: Position biases in decision-making. Organisational Behaviour and Human Decision Processes, 99, 66-80
2Paul Rodway Astrid Schepman & Jordana Lambert (2011). Preferring the One in the Middle: Further Evidence for the Centre‐stage Effect. Applied cognitive Psychology.
3Maya Bar-Hillel (2015). Position Effects in Choice From Simultaneous Displays: A Conundrum Solved. Perspectives on Psychological Science.
4Paul Rodway, Astrid Schepman, Volker Thoma (2015). Reachability Does Not Explain the Middle Preference: A Comment on Bar-Hillel
5Benjamin W. Tatler (2007). The central fixation bias in scene viewing: Selecting an optimal viewing position independently of motor biases and image feature distributions. Journal of Vision.
6 A. Selin Atalay, H. Onur Bodur, and Dina Rasolofoarison (2012). Shining in the Center: Central Gaze Cascade Effect on Product Choice. Journal of Consumer Research.
7Valenzuela, Ana & Raghubir, Priya. (2009). Position-based beliefs: The center-stage effect. Journal of Consumer Psychology,
8Jerry I. Shaw, Jon E. Bergen, Chad A. Brown & Maureen E. Gallagher (2000) Centrality Preferences in Choices Among Similar Options, The Journal of General Psychology,
9Nicholas Christenfeld (1995). Choices from Iden tical Options. Psychological Science,
10Attali, Yigal & Bar-Hillel, Maya (2003). Guess Where: The Position of Correct Answers in Multiple‐Choice Test Items as a Psychometric Variable. Journal of Educational Measurement.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo El efecto escenario: por qué la gente elige la opción de en medio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Estas Navidades no engordarás medio kilo
- Los números feos de la lotería
- ¿Cuánta gente ha vivido en la Tierra?
Las curvas del espirógrafo
En mi anterior entrada del Cuaderno de Cultura Científica Guía matemática para el cómic ‘Promethea’, sobre las referencias matemáticas que aparecen en Promethea (1999-2005), del guionista Alan Moore y el dibujante James H. Williams III, mencioné que en algunas partes del mismo aparecían “curvas hipotrocoides dibujadas con un espirógrafo”, como las que se pueden ver en la siguiente imagen.

Si nos fijamos en las curvas que aparecen dibujadas en el cómic es posible que nos recuerden a los diseños geométricos realizados con un juguete llamado espirógrafo, con el que tal vez jugamos en nuestra infancia. Diseños geométricos como los que aparecen en la siguiente imagen.
O también los dibujos de esta otra imagen.
Estos diseños geométricos los he realizado con el Inspirograph, que es una réplica digital del espirógrafo desarrollada por el ingeniero canadiense Nathan Friend.
“Kate conocía a todos los tenderos y se llevaba bien con ellos. La verdulería la llevaban Eric y su mujer Mavis. No tenían hijos, pero eran amables con Kate y todas las navidades le compraban un regalo con el que –era increíble– siempre daban en el clavo. El año pasado le habían comprado un espirógrafo, y Kate lo había utilizado para confeccionar un logotipo para sus tarjetas de visita.”
[Katherine O Flynn, Lo que perdimos, Alfaguara, 2009]
El espirógrafo es un juguete con el que dibujar diseños geométricos que consisten en curvas cíclicas, en concreto, las curvas conocidas con los nombres de hipotrocoides (como los primeros dibujos que hemos trazado) y epitrocoides (como los segundos dibujos), que describiremos matemáticamente más adelante. Este juguete consiste en una serie de engranajes o ruedas dentadas –círculos o coronas circulares en la versión original y más sencilla, pero con formas más complejas en la actualidad–, de tal forma que al girar una rueda dentada sobre la otra, que permanece fija, se producen los diseños geométricos. El dibujo se realiza con un lápiz o rotulador cuya punta se coloca en uno de los agujeros que tiene el interior de la rueda dentada que se hace girar. La rueda dentada fija puede ser tanto una corona circular dentada, de forma que se puede girar la otra rueda dentada tanto por el exterior (generando las curvas epitrocoides), como por el interior (generando las curvas hipotrocoides), de las que solía haber dos en el juego, o un círculo dentado de diferentes tamaños sobre el que solo se puede hacer girar la otra por el exterior (generando hipotrocoides).

El espirógrafo fue creado por el ingeniero británico Denys Fisher (1918-2002) en los primeros años de la década de 1960. Animado por su familia y amigos, el ingeniero británico fundó Denys Fisher Toys (que en 1970 compraría la empresa Palitoy, la cual acabaría formando parte de Hasbro en 1991) y empezó a comercializar el juguete. Se presentó en la Feria Internacional de Juguetes de Nurenberg en 1965 y fue declarado juguete británico del año en 1967. Fue patentado en 16 países. La siguiente imagen es de la patente de 1966 en Estados Unidos.

El juego fue todo un éxito. Además, evolucionó rápidamente incluyendo engranajes de formas variadas, que permitían diseños geométricos cada vez más sofisticados y originales. En 2013 la compañía de juguetes Kahootz relanzó el espirógrafo y ganó varios premios, como el Astra Best Toys for Kids de 2013, así mismo fue finalista a juguete del año en 2014.
Pero mencionemos algunos antecedentes de la creación del ingeniero británico Denys Fisher. En 1827 el ingeniero y arquitecto británico Peter Hubert Desvignes (1804-1883) diseñó un mecanismo que llamó “speiragraph” y que servía para dibujar complejas curvas de tipo espiral. El objetivo de este mecanismo era crear diseños que ayudasen a evitar las falsificaciones de los billetes.

El matemático, ingeniero eléctrico e inventor polaco Bruno Abakanowicz (1852-1900), quien inventaría mecanismos como el intégrafo, para representar la integral de una función definida gráficamente, y el parabológrafo, para trazar parábolas, inventó otro mecanismo con el nombre de “spirograh” (espirógrafo), entre 1881 y 1900, que también debía trazar curvas de tipo espiral (spiro + graph), aunque no he podido encontrar ninguna referencia directa del mismo.
El primer juguete precursor del espirógrafo fue el llamado “The Marvelous Wondergraph” con el que realizar diseños geométricos de curvas espirales, pero que pasó bastante desapercibido. En la publicación The Boy Mechanic apareció en 1913 un artículo explicando cómo construir tu propio wandergraph.

En la década de los años 1930 se comercializó otro juguete para trazar diseños geométricos de curvas, llamado “Hoot-Nanny, The Magic Desiner”, que tuvo más éxito que el anterior y se vendió hasta la década de los años 1950. En la siguiente imagen vemos las instrucciones originales del juguete, con algunas de las curvas que podían trazarse con el mismo. Además, hay un simulador en la red del Hoot-Nanny, con el que podéis divertiros trazando curvas curiosas.

Aunque el juguete espirógrafo del ingeniero británico Denys Fisher fue el que más éxito alcanzó, quizás por la sencillez de su diseño y su manejo, por lo que también trazaba curvas más sencillas, o tal vez porque en los años 60 la sociedad estaba más abierta a este tipo de imágenes geométricas, ya que era el tiempo de la psicodelia y del arte pop.

Pero vayamos a las curvas geométricas que dibuja el espirógrafo, las hipotrocoides y epitrocoides, que son dos tipos particulares de curvas cíclicas o “ruletas”. Las curvas cíclicas son las curvas planas descritas por la trayectoria de un punto que pertenece a una curva plana (o relacionado con ella) que rueda, sin deslizarse, sobre otra curva plana. A la familia de las curvas cíclicas pertenecen la cicloide, las trocoides, las epicicloides, las hipocicloides, epitrocoides, hipotrocoides y las involutas.
La cicloide es la curva que describe un punto que está en el borde de una rueda circular, es decir, el punto de una circunferencia, que rueda, sin deslizarse, a lo largo de una recta.

Esta curva, como las demás que se citan aquí, ya era conocida en la antigüedad, pero fue ampliamente estudiada en el siglo XVII por grandes matemáticos como el francés Marin Mersenne (1588-1648), quien dio la primera definición matemática precisa, el italiano Galileo Galilei (1564-1642), quien estudió la curva durante cuarenta años y a quien le debemos su nombre (que viene de las palabras griegas kuklos, de la que deriva ciclo y que significa círculo, y eidos, que significa forma o imagen), el francés Gilles de Roverbal (1602-1675), quien calculó el área debajo de la curva, el italiano Evangelista Torricelli (1607-1647), Blaise Pascal (1623-1662), que tiene una curiosa relación con la cicloide (puede leerse en la entrada Blaise Pascal, Dios y la cicloide), Christiaan Huygens (1629-1695), quien descubriría que la cicloide es la curva tautócrona, es decir, aquella para la cual el tiempo que tarda una bola en recorrer la cicloide invertida, sin deslizamiento, hasta llegar al punto más bajo de la curva es independiente de la altura desde la que se dejó caer la bola, y utilizó esta propiedad para construir el péndulo cicloidal, el francés Girard Desargues (1591-1661), el matemático alemán Gottfried Wilhelm Leibniz (1646-1716), o el matemático suizo Johann Bernoulli (1667-1748), quien descubrió que la cicloide era la curva braquistócrona, es decir, la curva de recorrido más rápido de una bola que se desplaza de un punto a otro más bajo por el efecto de la gravedad, entre muchos otros.

Una cita literaria conocida en la que se menciona a la cicloide y su condición de curva tautócrona es Moby Dick (1851), del escritor estadounidense Hermann Melville (1819-1891):
Algunos marineros viejos y cínicos acostumbran, durante las guardias de noche, introducirse en ellas [las dos ollas de la refinería del barco] y enrollarse en su interior para dormir un rato. Mientras están dedicados a la tarea de lustrarlas –un hombre en cada olla, hombro con hombro– se transmiten muchas comunicaciones confidenciales, por encima de los labios de hierro. El sitio es propicio, también, para la meditación matemática profunda. En la olla izquierda del Pequod, mientras hacía circular dirigentemente la esteatita frente a mí, me sorprendió indirectamente el hecho notable de que en geometría todos los cuerpos que se deslizan en el cicloide, mi esteatita por ejemplo, descienden de cualquier punto exactamente en el mismo tiempo.
Por otra parte, se denomina curva trocoide a la curva que describe un punto conectado con una rueda circular, ya sea porque pertenece al interior de la misma, a su circunferencia o siendo exterior al círculo está conectado con este, que rueda, sin deslizarse, sobre una línea recta. Por lo tanto, la cicloide es una curva trocoide (término que viene de las palabras griegas trhokos, que significa rueda, y eidos, que significa forma o imagen) en la que el punto está sobre la circunferencia de la rueda circular. Si el punto es interior se habla de cicloide reducida y si es exterior de cicloide alargada.

En el espirógrafo clásico hay dos piezas muy alargadas de forma que la parte central es recta, por lo cual, al girar una de las ruedas dentadas por esta parte se obtiene una cicloide reducida.

La curva epicicloide es la trayectoria de un punto de una circunferencia que rueda, sin deslizarse, por el exterior de una circunferencia fija. En función de la relación que existe entre los radios de ambas circunferencias se obtendrán diferentes curvas. Por ejemplo, si ambos radios son iguales se obtiene una cardioide, si el radio de la circunferencia que rueda es la mitad (1/2) del radio de la rueda fija, la curva es una nefroide.

Por otra parte, si la circunferencia que rueda lo hace por el interior de la cincunferencia fija la curva que se obtiene es una hipocicloide. Si la relación entre los radios de las circunferencias pequeña –la que rueda– y grande –la que esta fija– es 1/3 se obtiene la curva denominada deltoide, si es 1/4 la curva generada es una astroide y de nuevo en función de esa relación se obtienen diferentes curvas.

No hemos mencionado intencionadamente cual es la curva que se obtiene cuando la relación entre los radios de ambas circunferencias es 1/2, ya que esta es una recta, conocida con el nombre de “línea de La Hire”, y que es una forma de obtener un movimiento lineal a partir de un movimiento circular. Como se ve en la siguiente imagen, cuando la circunferencia móvil recorre la mitad del camino, el punto de la circunferencia que gira (color crema en la imagen) recorre el diámetro de la circunferencia fija, y lo vuelve a recorrer en la otra mitad del giro.
En la antigüedad la humanidad pensaba que la circunferencia era una figura geométrica perfecta, relacionada con lo divino, por lo que postularon que el movimiento de los planetas era circular alrededor de la Tierra. Dos de los grandes defensores de este modelo fueron Aristóteles (384–322 a.n.e) y Claudio Ptolomeo (aprox. 100-170). Sin embargo, muchos pensadores postularon que el Sol era el centro natural –el primero en proponerlo fue Aristarco de Samos (aprox. 310-230 a.n.e.)– y se dieron cuenta de que entonces, según las observaciones astronómicas, el movimiento de los planetas alrededor del Sol no podía ser circular. Por lo tanto, introdujeron las curvas epicicloides e hipocicloides para producir curvas que se adaptaran al movimiento observado de los planetas. Y como estos tampoco acababan de describir perfectamente los movimientos, empezaron a introducir curvas más complejas relacionadas con las anteriores. Las dos teorías sobre el movimiento de los planetas, circular o mediante curvas derivadas de epicicloides e hipociclodides, fueron rivales hasta que Johannes Kepler (1571-1630) demostró, a partir de las observaciones de Tycho Brahe (1546-1601), que la órbita de Marte era elíptica, con el Sol en uno de sus focos. Posteriormente, Isaac Newton (1643-1727) demostraría matemáticamente que la órbita de un cuerpo alrededor de un campo gravitatorio son secciones de cónicas.
El estudio de las epicicloides e hipocicloides se reinició en el Renacimiento. Estas curvas fueron estudiadas por Alberto Durero (1471-1528), Girard Desargues, Christian Huygens, Gottfried Wilhelm Leibniz, Isaac Newton, Jacob Bernoulli (1654-1705), Phillipe de La Hire (1640-1718), Johann Bernoulli, Daniel Bernoulli (1700-1782) o Leonhard Euler (1707-1783), que también estudiarían las siguientes curvas que vamos a mostrar en esta entrada del Cuaderno de Cultura Científica.
Las últimas curvas cíclicas que vamos a mostrar aquí son las generadas por el espirógrafo clásico, las epitrocoides e hipotrocoides. Una curva epitrocoide es la trayectoria que describe un punto, conectado a un círculo que rueda, sin deslizamiento, sobre el exterior de una circunferencia fija. Si el punto está en el interior del círculo que rueda se obtiene una epitrocoide como algunas de las obtenidas en el espirógrafo clásico (primera curva de la siguiente imagen), si el punto está en la circunferencia es una epicicloide (segunda curva de la imagen), mientras que si el punto es exterior al círculo que rueda (que podemos considerar conectado al centro por un segmento fijo para que ruede con el círculo) se obtiene una epitrocoide que podemos dibujar fácilmente con el ordenador, pero no con el espirógrafo clásico (tercera curva de la imagen).

En la siguiente imagen podemos ver una epitrocoide dibujada con el espirógrafo clásico, con una rueda dentada rodando alrededor de otra rueda dentada fija.

Mientras que una curva hipotrocoide es la trayectoria que describe un punto, conectado a un círculo que rueda, sin deslizamiento, sobre el interior de una circunferencia fija. De nuevo el punto conectado al círculo que rueda puede ser interior, de la circunferencia o exterior.

De la misma forma que antes, podemos ver una hipotrocoide dibujada con el espirógrafo clásico, con una rueda dentada rodando en el interior de una corona circular dentada fija.

Un ejercicio bonito, relacionado con todas estas curvas cíclicas, es la obtención de las ecuaciones paramétricas de las mismas. Por ejemplo, las ecuaciones paramétricas de las hipotrocoides son:
donde R es el radio de la circunferencia fija exterior, r el radio del círculo interior que rueda y d la distancia al centro del círculo que gira del punto cuya trayectoria estamos considerando (que describe la hipotrocoide). Sin embargo, no lo resolveremos en esta entrada, lo dejaremos para aquellas personas a las que les apetezca enfrentarse al mismo.
Para terminar, mencionaremos que también existen artistas contemporáneos, como ocurrió con Alan Moore y James H. Williams III, autores del cómic Promethea, que han quedado fascinados por la belleza de los diseños de las curvas cíclicas generadas con el espirógrafo. Un ejemplo es la artista estadounidense Robin P. Schlacter, quien utiliza hipotrocoides en muchas de sus obras.

Bibliografía
1.- Wikipedia: Spirograph .
2.- Wolfram Mathworld: Spirograph
3.- Nathan Friend, Inspirograph
4.- Toy tales: Spirograph
5.- J. Dennis Lawrence, A catalog of special plane curves, Dover Publications, 1972.
6.- José Manuel Álvarez Pérez, Curvas en la historia 1 y 2, Nivola, 2006.
7.- Wikipedia: Hypotrochoid
8.- Wikipedia: Epitrochoid
9.- Raúl Ibáñez, Construcción de curvas planas, Un paseo por la Geometría 1997/1998.
10. Página web de la artista Robin P. Schlacter.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Las curvas del espirógrafo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La materia oscura auto-interactuante y las curvas de rotación de las galaxias
- Un dulce problema de Paul Erdös
- Construye tu propia calculadora de sumas y restas
El carácter fundamental de las relaciones de incertidumbre

El principio de incertidumbre y las relaciones de incertidumbre resultantes son válidas para cualquier objeto, incluso para un automóvil. Pero las limitaciones que impone el principio de incertidumbre no tienen consecuencias prácticas para objetos tan con tanta masa como coches o pelotas de béisbol que se mueven a velocidades normales para nuestra experiencia humana diaria. Esto se debe a que los valores de incertidumbre involucrados son demasiado pequeños como para ser percibidos. Las limitaciones se hacen evidentes e importantes solo a escala atómica.
Debido a esta discrepancia entre lo que ocurre en el día a día humano y lo atómico es muy importante comprender que las incertidumbres que establece el principio de Heisenberg no son debidas a un defecto del experimentador ni de los instrumentos que usa. Esto debe quedar diáfanamente claro [1]: Nunca, jamás, podremos construir instrumentos para sortear las incertidumbres recíprocas en las mediciones impuestas por las relaciones de incertidumbre.
Esto se debe a que las relaciones de incertidumbre de Heisenberg son una consecuencia directa de la mecánica cuántica y la dualidad onda-partícula. Pero su validez no está completamente ligada a la de la mecánica cuántica. Efectivamente, la mecánica cuántica podría ser sustituida por otro modelo para describir la realidad cuántica [2] y las relaciones de incertidumbre, que emanan de la existencia misma de los cuantos, son más fundamentales que la propia mecánica cuántica.
Desarrollemos esto mínimamente.
Hemos visto el papel que juega la constante h de Planck en la definición del cuanto de luz y en la descripción de los estados estacionarios en el átomo de Bohr. Además, la constante h aparece en las dos ecuaciones básicas para la energía y el momento lineal del fotón, E = hf y p = h/λ, y también en muchas otras ecuaciones cuánticas. También aparece en las relaciones de incertidumbre. Si h fuera 0, eso significaría que la cantidad de energía sería cero, por lo que no habría cuantos de luz, solo ondas continuas.
El momento lineal del fotón también sería cero, y las relaciones de incertidumbre serían Δx·Δpx = 0 o Δt· ΔE = 0 [3]. Por tanto no habría incertidumbres recíprocas en posición y momento, tiempo y energía, y podríamos medir simultáneamente las características de onda y corpúsculo de los objetos cuánticos sin ningún problema.
Pero aunque sea muy pequeña, la constante de Planck no es cero [4], el cuanto existe, nos enfrentamos a la dualidad onda-partícula, la mecánica cuántica sigue siendo un modelo aceptado, y la naturaleza es tal que limita la precisión de nuestras mediciones a escala atómica al nivel más fundamental.
Notas:
[1] Lo que sigue es el tipo de afirmación categórica que los relativistas y postmodernistas varios que en el mundo son prejuzgan como prepotencia de la ciencia. Su postura, como decimos prejuiciosa, se basa en supuestos y asunciones filosóficas, sin contraste con la realidad física. Es este contraste continuo con la realidad el que permite a la ciencia afirmar cosas como esta en estos términos. Los posmodernos optan por la ignorancia. Son indiscernibles de una persona religiosa, a saber, tratan sus afirmaciones como no falsables.
[2] Recordemos: la mecánica cuántica es un modelo teórico para describir los resultados de los experimentos. La realidad de los cuantos es experimental. Podrá cambiar la teoría, pero los hechos son tozudos.
[3] Hay muchísimas relaciones de incertidumbre. Nosotros, para lo que nos interesa, con estas dos para ilustrarlas nos basta y nos sobra.
[4] Su valor está fijado, por ser una de las constantes fundamentales de la naturaleza, desde 2019: 6,62607015·10−34 J·s. El kilogramo se define en función de este valor de h.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El carácter fundamental de las relaciones de incertidumbre se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El principio de incertidumbre, cuantitativamente
- El principio de incertidumbre, cualitativamente
- Construyendo la mecánica cuántica
El fraude y las malas prácticas en ciencia
Fraude y malas prácticas ha habido desde hace mucho tiempo. Hay documentados multitud de casos, incluso entre los científicos más famosos. Hay fundadas sospechas de que Ptolomeo hizo pasar por suyos datos astronómicos que en realidad eran de Aristarco de Samos. Recientemente ha ingresado en prisión Dong-Pyou Han, un investigador en vacunas, condenado por inventar datos en experimentos sobre la vacuna contra el VIH. Los casi 2000 años que separan estos sucesos han estado salpicados de otros muchos casos. Parece ser que Millikan eliminaba de su cuaderno de laboratorio las observaciones que no le interesaban, Mendel y sus guisantes también han resultado polémicos, incluso hay dudas sobre si Galileo realizó realmente los experimentos que relata en sus textos. Hay casos clásicos, como el del hombre de Pitdown, un fósil que se hizo pasar por el eslabón perdido en la evolución entre el hombre y el mono cuando realmente era un engendro creado con trozos de cráneo humano y de chimpancé. Hay multitud de casos bien documentados y diversas compilaciones, como la recientemente publicada por Ángel Abril-Ruiz que, además, se puede consultar en línea.
Resulta especialmente escandaloso oír hablar de fraude en una profesión dedicada fundamentalmente a la búsqueda de la verdad. Ese escándalo ayuda a hacerse un modelo mental de la situación en el que la inmensa mayoría de los científicos son “normales” (totalmente honrados) y una pequeña fracción son “manzanas podridas” (totalmente deshonestos). Sin embargo la realidad dista bastante de este modelo. Según algunos estudios (Fanelli (2009) y resumidas también por uno de nosotros en 2015, aquí), más de dos tercios de los científicos admite realizar algún tipo de malas prácticas y uno de cada 50 admite falsificar o inventar resultados, una de las peores prácticas imaginables. Es interesante notar que cuando se pregunta por las malas prácticas que uno conoce de los compañeros los números salen bastante más altos que cuando se pregunta por las propias.
Fischer y Zigmond (2002) incluyen entre las prácticas abiertamente fraudulentas la fabricación o falsificación de datos, el plagio, y lo que podríamos denominar el cocinado de datos (selección, manipulación y manejo). Pero también consideran como malas prácticas otras formas de proceder entre las que se encuentran lo que denominan –un tanto eufemísticamente- autoría honoraria, el no reconocimiento expreso de las fuentes, la opacidad en la metodología, la publicación fragmentada y la publicación duplicada de los mismos resultados en diferentes artículos. E incluyen malos comportamientos no solo de los autores de los trabajos, sino también de los revisores; entre estas están las revisiones sesgadas de los originales remitidos para su publicación y el uso de información privilegiada tomada de esos originales, entre otros.
De mala práctica debe ser calificada también la pesca de datos o p-hacking. Consiste en ir seleccionando datos o combinaciones de datos hasta que se acaba consiguiendo que los análisis estadísticos arrojen el resultado buscado porque los efectos que interesa destacar alcanzan el nivel de significación estadístico preestablecido. La significación estadística de un efecto se establece sobre la base del valor de p, que normalmente se establece en 0.05. En otras palabras, se considera que se produce un determinado efecto si, asumiendo la hipótesis nula, la probabilidad de obtener los datos que se tienen es inferior al 5%. Las malas prácticas consisten en descartar valores extremos por ser considerados anómalos; también se pueden agrupar de formas diferentes; o modificar el tipo de tratamiento estadístico. Una vez se alcanza el resultado “deseado”, ese es el que se publica. Judith Rich Harris, en su libro The Nurture Hypothesis ha diseccionado de forma brillante un buen número de estas prácticas que han servido para “demostrar” que la educación que proporcionan los padres a sus hijos en el hogar ejerce efectos duraderos sobre el comportamiento de estos en la vida adulta.
Podríamos ordenar un listado de prácticas cuestionables de las más graves a las que apenas suponen un problema. Entre estas últimas tendríamos cuestiones como la autoría honoraria, la opacidad metodológica o el plagio de una frase. Es a la luz de una escala de gravedad de las malas prácticas como pueden entenderse los datos de los estudios antes citados sobre la prevalencia del fraude. Muchos científicos, si no todos, podemos incurrir en malas prácticas de bajo nivel, siendo mucho menos frecuentes las prácticas moralmente más reprobables. En todo caso, cada científico deberá situar sobre una escala de prácticas cuestionables el nivel con el que se siente cómodo, el umbral de lo aceptable. Mientras ese umbral se mantenga dentro de unos márgenes socialmente aceptables, no denominamos propiamente fraude a esas prácticas. Lo que se considera opacidad metodológica, el nivel de lo estadísticamente significativo o el tamaño mínimo de una muestra, por poner algunos ejemplos concretos, son elementos convencionales que pueden variar con el tiempo, y lo que se considerarían niveles intolerables en el pasado pueden ser normales hoy (o viceversa).
Federico di Trochio (1993) estableció dos categorías de fraude, dos motivaciones muy diferentes para que un científico incurra en comportamientos mucho más allá del umbral de lo socialmente aceptable. Curiosamente, se trata de dos categorías provocadas por motivaciones que casi se podrían calificar de opuestas pero que no es extraño que concurran en los miembros de una misma comunidad. Como se ha señalado antes, a quienes nos dedicamos a la ciencia nos mueve el ánimo de ensanchar los límites del conocimiento, de descubrir nuevos hechos y de asignar a esas hechos explicaciones que les otorguen algún sentido; nos hacemos preguntas y aspiramos a responderlas, de una forma tal que las respuestas son el origen de nuevas preguntas. Pues bien, inmersos en esa dialéctica no es difícil anteponer el hallazgo de una “buena” respuesta, de una “buena” explicación o “buena” teoría al cumplimiento de los necesarios estándares de rigor. Cuando eso ocurre se abre una vía por la que no es difícil llegar cada vez más lejos, pues la tolerancia para con las trampas que hace uno mismo es mayor cuantas más hace. Es pues la obnubilación por lo que se cree una buena teoría lo que causa en última instancia esta categoría de fraude. Otro posible resultado de esa obnubilación por el propio resultado es la perseveración empecinada en el mismo incluso cuando las pruebas en su contra son ya clamorosas. A esto se le ha llamado “ciencia patológica” y se describirá en detalle más adelante.
La segunda modalidad se refiere al hecho de que la de científico es una profesión, y como tal dispone de los correspondientes sistemas de acceso, estabilización laboral y promoción. Se trata, además, de una profesión muy exigente en muchos casos, pues la necesidad de obtener resultados y de publicarlos puede llegar a ser muy acuciante. A esa necesidad obedece la expresión “publicar o perecer”, y ante esa perspectiva se puede flaquear y relajar los estándares éticos llegando al fraude en toda regla.
En resumen, en vez de asumir un modelo de manzanas podridas para el fraude, la idea de una gradación de comportamientos cuestionables y un umbral de lo aceptable (socialmente establecido) resulta más adecuada y ayuda a entender los datos sobre incidencia de malas prácticas que muestran los diferentes estudios.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo El fraude y las malas prácticas en ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Fraude científico (III). Profundizando en los dos tipos de fraude
- Fraude científico (II). La difusa frontera de la deshonestidad
- #Naukas13 Malas gráficas
Genocidio
Genocidio: “Exterminio o eliminación sistemática de un grupo por motivos de raza, etnia, religión, política o cionalidad».
Diccionario de la lengua española / RAE.
“El Nacionalsocialismo no es otra cosa que Biología Aplicada”.
Rudolf Franz Ferdinand Höss, comandante de Auschwitz.

El genocidio, como concepto, definición y delito, es una creación moderna, aunque los antecedentes han acompañado a nuestra especie en toda su historia evolutiva. El término lo utilizó por primera vez el jurista polaco Rafael Lemkin, y lo describió como un crimen de extermino. Tomó carácter oficial en los procesos de Nuremberg a los dirigentes nazis al terminar la Segunda Guerra Mundial. Aparece entre los delitos del acta de acusación de Nuremberg el 8 de octubre de 1945. Cuenta Manuel Ollé Sesé, de la Universidad Complutense, que el Convenio para la Prevención y Sanción del Delito de Genocidio se aprobó en la Asamblea General de las Naciones Unidas con fecha de 9 de diciembre de 1948, y entró en vigor el 12 de enero de 1951. El artículo 607 del Código Penal español establece que los delitos de genocidio tienen “el propósito de destruir total o parcialmente un grupo nacional, étnico, racial, religioso o determinado por la discapacidad de sus integrantes”, según Ley Orgánica aprobada el 23 de noviembre de 1995. Hay que recordar que un grupo, sean cuales sean las razones para que sea un grupo, tiene derecho a existir como una colectividad.
E s más, tal como escribió Hannah Arendt en su crónica sobre el juicio a Eichmann, “el genocidio es un ataque a la diversidad humana como tal, es decir, a una de las características de la “condición humana”, sin la cual los términos “humanidad” y “género humano” carecerían de sentido”. Llega a proponer, como término más adecuado que genocidio, que se denomine “matanza administrativa”.
El concepto de genocidio lo amplió el profesor Baruk, en 1967, cuando añadió que es la destrucción de “todo gen, de toda posibilidad de reproducción, de persistencia, de un pueblo”.
Según solicita Xaimán Aizenstadt, de la Universidad Francisco Marroquín de Guatemala, la definición de genocidio no se debe considerar cerrada sino que debe ser tan flexible e imaginativa como la capacidad humana para el mal.
Aunque el concepto, la definición y la jurisprudencia sobre genocidio comenzó después de la Segunda Guerra Mundial, la historia de nuestra especie está llena de genocidios. Sin entrar en detalles, centraremos el texto en el genocidio nazi, pero hay que recordar la destrucción de Cartago, los anasazi del suroeste del actual Estados Unidos, la cruzada albigense en la Francia del siglo XIII, el exterminio de los armenios al principio del siglo XX, las matanzas de Ruanda o Bosnia … Y, además, aún sin nombre ni concepto, la idea del genocidio viene de lejos en el tiempo y acompaña desde siempre nuestra historia. Y, también, la historia de la evolución biológica. Solo hay que recordar el título completo del libro de Charles Darwin: “Sobre el origen de la especies por medio de la selección natural, o la preservación de razas favorecidas en la lucha por la vida”.
La violación se reconoció como delito de genocidio en el Tribunal Internacional de Ruanda para hechos ocurridos en 1993 y 1994 contra refugiados tutsis. Todo acto de violencia sexual, incluyendo embarazos forzosos, pueden constituir genocidio cuando son cometidos con la intención de destruir un grupo nacional, étnico, racial o religioso.
El Tercer Reich fue un periodo en el que la violencia masiva organizada, a una escala inigualada en la historia moderna, se canalizó contra millones de seres humanos que, según la sociobiología nazi, eran política, racial, étnica y económicamente inferiores. Escribió Zygmunt Bauman que el genocidio nazi no fue un proceso bárbaro sino moderno y civilizado. Los nazis utilizaron muchos de los logros y herramientas de la era industrial –la fábrica, el tren, los productos químicos sintéticos y la organización administrativa de todo el proceso- con efectos letales, confiando en la ciencia moderna y la planificación racional, en la que todo se subordina a un único objetivo limitado y definido. Pelagia Lewinska, comunista polaca que estuvo internada en Auschwitz y sobrevivió, declaró años después que “no me queda otro remedio que admirar la habilidad con que los alemanes habían introducida en la organización de la vida del campo de Auschwitz la ciencia moderna. Habían aplicado no solo un sistema de condiciones materiales que aniquilaba a la gente, sino que empleaban también con precisión la psicología para desorganizar el alma humana, para destruir moralmente al ser racional”.
Los hombres corrientes de la Alemania nazi participaron en el genocidio porque creían que los judíos debían morir, que su aniquilación era socialmente deseable, que eran una raza inferior de infrahumanos. Para los ciudadanos corrientes, el exterminio de los judíos no era un crimen. Era la culminación del antisemitismo que existía desde hace siglos en Europa central.
Kurt Gerstein: El Espía de Dios

Nació en 1905 en Munster y murió en París en 1945. Ingeniero de minas, se afilió al Partido Nazi el 12 de mayo de 1933, y a las SS y fue destinado al Instituto de Higiene de las SS.
Por su preparación técnica fue destinado a la unidad encargada de la Solución Final y presenció las primeras ejecuciones con gas en agosto de 1942. Fue testigo del exterminio judío en los campos de Sobibor, Belzec y Treblinka y decidió transmitir la información de lo que ocurría a los aliados y a la Iglesia Católica. En Belzec, Gerstein vio morir a 5000 judíos en 1942. El texto que redactó, conocido como Informe Gerstein, fue utilizado en los juicios de Nuremberg. Por su profunda fe religiosa fue conocido como El Espía de Dios. Toda su vida, desde su afiliación al partido, fue una constante lucha entre su fe religiosa y su ideología nazi.
Protestó por la absorción de los movimientos juveniles protestantes en las Juventudes Hitlerianas. Lo hizo ante Baldur von Schirach, líder de las Juventudes, y Monseñor Müller, obispo protestante. En otra ocasión, en 1935, durante el estreno de una obra de teatro pronazi, y con un explícito mensaje anticristiano, protestó en el teatro y recibió una paliza que le costó tres dientes.
También tuvo algún enfrentamiento con las Gestapo por la organización de campamentos juveniles que mezclaban religión y nazismo. Por todo ello, en 1936 fue detenido y expulsado del Partido. Al comenzar la guerra, en 1940, se alistó voluntario en las SS.
Pasó información a diplomáticos a Suecia y Suiza, a la resistencia holandesa, autoridades religiosas e, incluso, intentó una entrevista con el Nuncio de la Santa Sede en Berlín y no lo consiguió. Nadie le creía por lo terrible de lo que contaba. Apuntaba todo lo que veía y sus notas fueron la base del Informe Gerstein.
Fue uno de los encargados de transportar el Zyklon B utilizado en las cámaras de gas. El Zyklon B lo suministraban a los campos de exterminio las empresas Degesch y Testa de I.G. Farben Konzern, y contenía ácido prúsico o ácido cianhídrico, componente esencial de insecticidas que fabricaba desde 1924. Para envenenar a una persona bastaban 0.12 miligramos por litro de aire. La muerte es casi instantánea.
En 1943, las empresas suministraron 12174,09 kilogramos y obtuvieron un beneficio de 127985,79 marcos. Se ha calculado que Gerstein, por su trabajo en el Servicio de Higiene, que incluía los gases tóxicos, suministró 3790 kilogramos de Zyklon B a los campos de Auschwitz y Oranienburg. Bastaban para matar a 450000 personas solo en Auschwitz.
Los crematorios de los campos de concentración los suministró la empresa J.A. Topf & Sohne, de Wiesbaden, que años después, el 5 de enero de 1953, obtuvo en la República Federal Alemana la patente nº 861731 para un “Procedimiento y dispositivo para la incineración de cuerpos, cadáveres y partes de los mismos”.
Desertó al final de la guerra y se entregó a los aliados el 22 de abril de 1945. Ingresó en la prisión de Cherche-Midi, en París, acusado del delito de genocidio. Apareció ahorcado en su celda el 25 de julio de 1945. En 1965 fue rehabilitado en Alemania como resistente por el Canciller Kurt Georg Kiesinger.
Y todo el esfuerzo, por lo menos en los primeros años del régimen nazi, fue contra judíos y gitanos. Ya en enero de 1939, meses antes del inicio de la Segunda Guerra Mundial, Hitler mencionó como objetivo “la destrucción de la raza judía en Europa”.
Más adelante, con la invasión de Rusia, se extendió a los eslavos. Las órdenes incluían ejecutar a los comisarios soviéticos.
De nuevo Pelagia Lewinska nos ofrece sus reflexiones cuando explica que, en Auschwitz, los alemanes “internaban a todos: a los que les parecían inútiles; a los que consideraban como un peso muerto en la obra creadora de la gran Alemania; a los que juzgaban peligrosos; a los que podían constituir una amenaza para el Estado hitleriano; o cuya muerte se hacía necesaria para proveer de oro al Tesoro alemán y procurar a los alemanes bienes y comodidades como era el caso de los judíos … Al lado de los detenidos políticos estaban gentes recogidas en la calle, en los cines, en las iglesias, en los cafés, en los trenes, en el mercado negro y en los lugares de placer. Los había que no eran culpables de actividades políticas conscientes ni contrarios al hitlerismo”.
Para Stephen Chorover, profesor del MIT y judío que perdió a gran parte de su familia en el genocidio nazi, las ideas sociobiológicas ya existentes desempeñaron una función doblemente influyente en el proceso de exterminio. En primer lugar, suministraron el aparato conceptual que médicos y científicos necesitaban para concebir, planificar y realizar la “destrucción de las vidas carentes de valor” o, si se quiere, para la eutanasia de degenerados, desviados, enfermos, … En segundo lugar, ayudaron a construir y ratificar la tesis nazi según la cual la calidad racial es el criterio para juzgar el valor de individuos y países.
Esas ideas habían comenzado con Charles Darwin y su “Origen de las especies”, Herbert Spencer y su naturaleza de “dientes y garras”, Francis Galton y la eugenesia, y tantos otros en Europa y Estados Unidos. Y, no hay que olvidar, que, desde la biología, el genocidio es siempre agresión intraespecífica, o sea, entre individuos de la misma especie.
Konrad Lorenz: El pasado del Premio Nobel

Nació en Viena en 1903 y murió en Alterberg, Austria, en 1989. Estudió medicina en la Universidad Columbia de Nueva York, y se doctoró en la Universidad de Viena. La lectura de las aventuras de Nils Holgerson, de la autora sueca Selma Lagerlof, le llevó, como a tantos otros, al interés por los animales, las aves en concreto, y al estudio de la zoología. Acepta estudiar medicina para contentar a su padre, y el contacto con los profesores Ferdinand Hochstetter, de anatomía, y Karl Buhler, de psicología, le llevan a utilizar el método comparativo para estudiar el comportamiento. Una vez graduado, en 1939, fue nombrado profesor de psicología con orientación biológica en la Universidad de Konigsberg, en Alemania.
En 1938 se afilió al Partido Nazi, Escribió, en su petición de afiliación, que “puedo decir que todo mi trabajo científico está dedicado a las ideas de los nacionalsocialistas”. Sus escritos de la época apoyaban la ideología nazi de la higiene racial con el apoyo de la terminología científica. Por ejemplo, en junio de 1940, apareció un artículo de Lorenz titulado, en traducción “Alteraciones del comportamiento propio de la raza causadas por la domesticación”. Escribe que “de la amplia analogía biológica de la relación entre el cuerpo y la úlcera cancerosa por una parte, y de un pueblo y sus miembros convertidos en asociales por deficientes por otra, se deducen grandes paralelismos, salvando las naturales diferencias … Todo intento de reconstrucción de los elementos destruidos en relación con la totalidad es, por tanto, desesperado. Por suerte, su extirpación es más fácil para el médico del cuerpo social, y para el organismo supraindividual menos peligrosa que la operación del cirujano en el cuerpo individual”. Terminaba con “la idea racial como base de nuestro estado ya ha logrado mucho en este sentido”. Lorenz jamás escondió esta publicación y repitió las ideas que escribió en muchos de sus libros.
Loren Eisenberg, de la Universidad de Harvard, añade que Lorenz fue explícito en la defensa de los conceptos nazis de pureza racial y, por ejemplo, justificó las restricciones legales al matrimonio con no-arios como medida social para corregir “la degeneración inducida por la domesticación”. Algo similar escribía Lorenz en su libro, publicado en 1975, y titulado “Los ocho pecados mortales de la Humanidad” y, sobre todo, en el capítulo titulado “Decadencia genética”, uno de los “pecados mortales” del título. Menciona que, en un péndulo de ideologías y conductas, en un extremo está que todos los hombres son iguales desde su nacimiento y, en el otro extremo, coloca, literalmente, a ”Eichmann, Auschwitz, la eutanasia y el odio racista”. Para Lorenz, en este péndulo en medio está la virtud o, si se quiere, todos los hombres no son iguales pero ello no nos debe llevar a Eichmann o Auschwitz.
En 1941, una vez comenzó la guerra, fue movilizado como médico militar destinado en Poznan, en Polonia, como neurólogo y psiquiatra, y, en 1944, enviado al frente oriental. Capturado por los rusos, fue su prisionero durante seis años. Allí conoció de primera mano el adoctrinamiento marxista y lo comparó con el nazismo, que conocía en detalle.
Hasta febrero de 1948 no pudo regresar a Austria y declaró su arrepentimiento por su afiliación al Partido Nazi. En principio, negó haber pertenecido al Partido, hasta que se demostró que era cierto. También negó haber conocido el alcance del genocidio, a pesar de su puesto como psicólogo en la Oficina de Política Racial.
Con una financiación escasa y muchos problemas, organizó, en 1949, la estación de investigación de Altenberg. Marchó a Alemania, a la estación de Buldeon, donde fundó el Instituto Max Planck de Fisiología del Comportamiento. En este centro, a comienzos de los sesenta, desarrolló su teoría del comportamiento que unía la evolución, lo innato y lo aprendido. Por todo ello, en 1973 recibió el Premio Nobel.
En su autobiografía, publicada en 1988, Lorenz recordó que, en aquellos años, “estaba asustado, como todavía lo estoy, por la idea de que procesos genéticos de deterioro puedan estar funcionando en la humanidad civilizada. Movido por este miedo, hice algo muy poco aconsejable poco después de que los alemanes invadieran Austria: escribí sobre los peligros de la domesticación y, para ser entendido, expresé mis escritos en la peor terminología nazi. No quiero presentar atenuantes de estos escritos. En realidad, creía que algo bueno vendría del nuevo gobierno … Ninguno sospechaba que la palabra “selección”, utilizada por estos gobernantes, significaba asesinato”.
La Universidad de Salzburgo le retiró, en 2015, el título de Doctor Honoris Causa, concedido en 1983. La universidad argumentó que fue la difusión, por Lorenz, de las ideas nacionalsocialista y, por declarar en aquellos años, que era “siempre un nacionalista”, y utilizar su trabajo para difundir “elementos básicos de la ideología racista del nacionasocialismo”.
Lo había definido Adolf Hitler años antes: “Hemos de crear una técnica de despoblación. Si me pregunta usted lo que entiendo yo por despoblación, le diré a usted que veo la liquidación de unidades raciales, y lo haré, puesto que veo en ella, a grandes rasgos, mi misión fundamental. La Naturaleza es cruel y, por este motivo, también nosotros podemos ser crueles. Si mando a lo mejor del pueblo alemán a la guerra sin lamentos, en ningún momento, el derramamiento de la valiosa sangre alemana en el infierno de la guerra, también tengo el derecho de destruir millones de hombres de razas inferiores, que se multiplican como los parásitos”. Detrás de estas declaraciones está la biología de la época, está el genocidio. Ya lo había expuesto Hitler en 1925 en su libro Mi lucha. Hitler trataba de crear, en el este de Europa, un “espacio vacío”, que era el lugar donde viviría la raza de señores que debía ser creada y organizada por Himmler. Es lo que afirmaba Erich Koch, comisario del Reich y responsable de la administración nazi en Ucrania: “Somos un pueblo de señores que ha de tener en cuenta que el obrero alemán más bajo es mil veces mejor, desde el punto de vista racial y biológico, que cualquier exponente de la población local”.
Detrás de esta ideología supremacista estaba lo que Alfred Rosenberg, ideólogo del Partido Nazi, declaró en el juicio de Nuremberg que “… y finalmente en Munich me especialicé en los estudios de la nueva investigación biológica”. Afirmó que el sentimiento de humanidad iba “contra el proceso de selección natural”. Por ello, consigue que el genocidio se base en la evolución. El mismo Rosenberg escribió que la humanidad trata del individuo y olvida al Estado y al pueblo. Es un concepto que niega las diferencias nacionales y raciales y considera la Humanidad sin diferencias.
Como explicó Heinrich Himmler en una conferencia en enero de 1937, la biología, según los nazis, estaba en el centro de su limpieza étnica, y “no hay mejor ilustración de las leyes de la herencia y de la raza … que un campo de concentración. En el se encuentran hidrocéfalos, bizcos, contrahechos, semijudíos y un número incalculable de productos de razas inferiores”. O, más en extenso y en un lenguaje científico y proponiendo los campos de trabajo, Hans Reiter, médico nazi con cargos en la administración y en el campo de concentración de Buchenwald, declaró en 1941 que “la legislación biológica-hereditaria se preocupa de suprimir, poco a poco, la creación de nuevas generaciones de individuos asociales … El estudio biológico del rendimiento humano debe conducir y reconducir, sin duda, a disponer en la medida de lo posible de esa mano de obra, de manera a desarraigar de una ocupación estéril o de la ociosidad para conducirla por la fuerza a un trabajo real y enteramente provechoso al pueblo y al Estado”. Antes de comenzar la guerra ya se habían esterilizado entre 350000 y 400000 personas.
Para organizar la solución final y eliminar a los judíos de Europa, Reinhard Heydrich, jefe de la Oficina Central de Seguridad del Reich, convocó a los jefes de servicio de las SS y a algunos cargos del Gobierno a una conferencia en el Lago Wannsee. Se celebró el 20 de enero de 1942. Asistieron 14 altos cargos y la presidió Heydrich. Allí se decidió la deportación al este, los trabajos forzados y el exterminio. Una de las conclusiones de Heydrich fue que “sin dudarlo, una gran parte perecerá a consecuencia de la natural disminución. Los que queden y que al final puedan resistir todo esto, que serán los más resistentes, deben ser tratados convenientemente ya que estas personas, resultado de la selección natural, son el embrión básico de un nuevo desarrollo judío”.
Adolf Eichmann: Funcionario leal

Cuando ya estaba en la cárcel israelí, en 1960, escribió:
“Me llamo Karl Adolf Eichmann, nací en Solingen el 19 de marzo de 1906, pertenezco a la raza aria y al gran Reich alemán.
No hay acontecimientos importantes en mi niñez, ni en mi primera juventud; mi verdadera vida empezó cuando, en 1931, entré a formar parte del gran Partido Nazi, para la salvación de Alemania, con el número de inscripción 899895, y más adelante ingresé en el cuerpo escogido de las SS …”.
Entró en el Partido Nazi por la amistad de su padre con Ernst Kaltebrunner, jefe del Servicio de Seguridad del Reich a partir de 1942, juzgado en Nuremberg, condenado a muerte y ahorcado en 1946. Eichmann se afilió el 1 de abril de 1932 y el mismo día entró en las SS.
Casado en 1932, tuvo cuatro hijos, el último de ellos en Argentina.
Después de su traslado a Berlín en 1934, comenzó su carrera de buen funcionario cuando le encargaron, en 1937, organizar el éxodo de los judíos de Austria, con la ayuda de organizaciones sionistas, hacia Palestina. En Solingen, en casa de un amigo judío, había aprendido yidish y hebreo, y estaba preparado para cumplir las órdenes. Consiguió el traslado de hasta 100000 judíos al mes hacia el extranjero. Para conseguirlo viajó como periodista a Palestina, desde Austria, en 1937, y conoció al Gran Mufti de Jerusalén y se convirtió en su gran amigo personal, aunque Hannah Arendt no da crédito a esta historia.
Al comenzar la guerra, en 1939, los órdenes fueron concentrar los judíos europeos en guetos en Polonia, para crear un estado judío en Europa oriental y, más adelante, llevarlos a la isla de Madagascar. Pero en septiembre de 1940 cambió el plan y comenzó el exterminio. Fue la Sección B4 de la Gestapo, dirigida por Eichmann, la que organizó las deportaciones masivas y el traslado de judíos a los campos de exterminio. En la conferencia de Wannsee, en 1942, estaba Eichmann como encargado de los transportes.
Eichmann era un hombre ordenado y, en medio de una de las tareas más terribles, siempre conservó su espíritu burocrático. Tenaz y organizado, Eichmann cumplía su deber, según las órdenes recibidas. Según declaró, era un ejecutor de órdenes superiores. Alcanzó el rango de teniente coronel de la SS. En 1944, en Budapest, comentó a un colega de las SS que “el número de judíos muertos alcanza casi los seis millones; pero esto es un secreto de Estado”.
Al terminar la guerra, Eichmann fue capturado con una identidad falsa y consiguió huir. Pasó por Austria, Suiza e Italia, y consiguió un pasaporte falso que le permitió viajar a Argentina. Llegó el 14 de julio de 1950. Su familia llegó en 1952 y, después de pasar por varias ciudades, se instalaron en Buenos Aires. Trabajó en una fábrica de Mercedes Benz.
Pero el 11 de mayo de 1960 fue capturado por el servicio secreto israelí en Buenos Aires. Fue descubierto por un judío alemán ciego, Lothar Hermann, emigrado desde 1938, y cuya hija era amiga del hijo menor de Eichmann. El Mossad, servicio secreto israelí, no dio crédito a que un ciego hubiera descubierto a Eichmann. Confirmaron la noticia y planearon su captura y transporte inmediato a Israel. Uno de los miembros del Mossad que lo capturó, lo describió como “un hombrecito suave y pequeño, algo patético, y normal, no tenía la apariencia de haber matado a millones de los nuestros … pero él organizó la matanza”. El 20 de mayo lo trasladaron a Israel.
En el juicio, Eichmann alegó, en su defensa, que actuó por obediencia debida a sus superiores. Declaró que “no perseguí a los judíos con avidez ni placer. Fue el gobierno quien lo hizo. La persecución, por otra parte, solo podía decidirla un gobierno, pero en ningún caso yo. Acuso a los gobernantes de haber abusado de mi obediencia. En aquella época era exigida la obediencia …”.
Hannah Arendt escribió que Eichmann no era un supervillano y, para ella, lo más impactante fue que, cualquier persona, en determinadas circunstancias y en el entorno adecuado, puede ser tremendamente malvado porque crea que es su obligación o, si se quiere, su trabajo a cumplir.
Fue condenado a muerte por genocidio y ejecutado, en la prisión de Ramla, en la madrugada del 1 de junio de 1962.
Sus últimas palabras fueron “Larga vida a Alemania. Larga vida a Austria. Larga vida a Argentina. Estos son los países con los que más me identifico y nunca los voy a olvidar. Tuve que obedecer las reglas de la guerra y las de mi bandera. Estoy listo”.
Más adelante, además de judíos y gitanos, otros muchos entraron en la lista de exterminio de los nazis. Himmler declaró que “lo que le suceda a un ruso o a un checo no me importa lo más mínimo. Lo que las naciones puedan ofrecernos en forma de buena sangre de nuestro tipo lo tomaremos, si es necesario secuestrando a sus hijos y educándolos con nosotros”.
En la primavera de 1942, del 75% al 80% de las que serían víctimas del genocidio nazi estaban vivas, pero menos de un año después, en la primavera de 1943, la mayoría habían muerto. Después de la Conferencia de Wansee, el genocidio tuvo una primera ola de crímenes corta e intensiva.
Pelagia Lewinska: Veinte meses en Auschwitz

Nació en 1907 y murió en 2004. Fue activista del Partido Comunista polaco en el que alcanzó cargos importantes en el área de Educación y en el movimiento scout de Polonia.
Durante le guerra pertenecía a la resistencia y fue capturada y encerrada en el campo de Auschwitz. Estuvo en un barracón con otras mujeres, gitanas, polacas, checas, rusas, francesas, incluso algunas alemanas, todas en la suciedad y la mugre del campo de exterminio.
El 23 de enero de 1943, un grupo de mujeres de la prisión de Cracovia fue trasladado a Auschwitz “después del suplicio y la tortura de los interrogatorios en las oficinas de la Gestapo”. Eran 16 mujeres del grupo de Pelagia Lewinska y 160 mujeres en total. Además, en los vagones de ganado en que las llevarían al campo montaron casi 500 hombres, sobre todo judíos. En su recuerdo está que llegaron a Auschwitz. Se detuvo el tren. Los hombres de la Gestapo las bajaron a culatazos. Orden de marcha en filas de a cinco. A lo lejos, las luces del campo sobre alambradas y torres de vigilancia. Un olor terrible sobre el paisaje. Las frauen de las SS les robaron las joyas. Y el tatuaje del número en el antebrazo sería la identidad de cada una en el campo. El de Pelagia Lewinska era 32292.
El 28 de enero fue la primera noche en el campo. Frío y oscuridad. Como literas, andamios de madera de tres alturas. Arriba, el tejado; abajo, tierra apisonada. En el bloque 26, todas mujeres judías, murieron 1800 en tres meses. Prohibido poseer cualquier cosa. Antes del amanecer, la llamada.
El bloque 25 era el de la muerte. Se cargaban camiones con mujeres. Iban y venían desde los hornos crematorios. Una y otra vez.
En Auschwitz murieron tres millones de personas. Entre las mujeres, en enero de 1943, el promedio de defunciones era de 100 mujeres al día. En febrero y marzo de 1944, un año después, el promedio llegaba a las 800, sobre una población total casi idéntica de unas 15000 detenidas. Era imposible evacuar el enorme número de cadáveres. De las 100000 mujeres tatuadas hasta agosto de 1944, solo vivían unas 11000.
“La más veterana de las internadas recorría la formación distribuyendo golpes con una porra. Los cráneos crujían, ensordecían los oídos y se hinchaban los ojos. Pero nadie podía moverse. Era indispensable permanecer inmóvil. El procedimiento de la lista no había terminado”.
En la tercera noche desde la salida de Cracovia, una gitana se puso de parto en el barracón. Una médico checa le atendió. Extrañó a las nuevas que no llegara ayuda de la enfermería del campo. Una veterana comentó que “eso no tiene importancia”.
La comida era unas patatas mal cocidas y una sopa con tronchos de berza como una piedra. Comprendieron que estaba permitido morir de hambre. Las veteranas explicaban que “esto es la tumba”.
Los médicos del campo designaban a quien debía morir.
“Todas las enfermas, verdaderos esqueletos ambulantes, desfilaban dormidas ante el, para que escogiese y designase a aquellas para quienes no había ni tiempo ni sitio adecuado para una lenta agonía. Convenía que muriesen enseguida…”
Las alambradas eléctricas fueron la liberación para muchas prisioneras. Cada mañana, un grupo de detenidas recogía cadáveres de las alambradas o, como decían, “cosechaban liberadas”.
“La verdad es que Auschwitz fue un lugar de exterminio en masa de seres humanos. Cinco trenes diarios llegaban e iban a la cámara de gas. La tierra de Auschwitz se abonaba con las cenizas de los gentes de toda Europa y daba magníficas cosechas”.
En un discurso del 4 de octubre de 1943 a altos cargos de las SS, Himmler declaró:
“La mayoría de vosotros sabéis lo que significa ver cien cadáveres yaciendo juntos, quinientos cadáveres, o mil. Habéis pasado por esto y … salvo algunas excepciones, ejemplo de debilidad humana … seguir siendo decentes, esto es lo que nos ha curtido. Esta es una página gloriosa de nuestra historia que nunca se ha escrito y nunca se escribirá”.
La evolución trata de nosotros y los otros, de altruismo y de xenofobia. Pero, además, está la cultura y la educación para modular lo que la evolución selecciona y, también, la propia evolución selecciona la cultura y la educación como bases de la flexibilidad de la especie humana. Su falta provoca rigidez en las conductas que deben ser flexibles para la adaptación a entornos nuevos y cambiantes.
Para terminar con cierta esperanza, identificar las raíces evolutivas que llevan al genocidio permitirá no tomarlo como un destino inevitable de la especie humana, sea cual sea su base cultural y sociobiológica.
Y, recordar que Jerry Fowler publicó en 2004 que el primer genocidio del siglo XXI está documentado en Darfur, en el Sudán.
Referencias:
Abad, J.J. 1976. La selección de la raza aria (Lebensborn). Círculo de Amigos de la Historia. Madrid. 286 pp.
Abos, A. 2012. Eichmann en la horca. El País 31 mayo.
Aizenstadt Leistenschneider, X.A. 2007. Origen y evolución del concepto de genocidio. Revista de Derecho Universidad Francisco Marroquín 25: 11-22.
Arendt, H. 2018. Eichmann en Jerusalén. Un estudio acerca de la banalidad del mal. Penguin Random House. Barcelona. 440 pp.
Armstrong, K. 2015. Campos de sangre. La religión y la historia de la violencia. Paidós. Barcelona. 575 pp.
Bauman, Z. 2010. Modernidad y holocausto. Ed. Sequitur. Madrid. 272 pp.
Brannigan, A. 1998. Criminology and the Holocaust: Xenophobia, evolution, and genocide. Crime & Delinquency 44: 257-276.
Brayard, F. 2002. L’humanité versus Zyklon B. L’ambiguité du choix de Kurt Gerstein. Vingtième Siècle. Revue d’Histoire 73: 15-25.
Chorover, S.L: 1985. Del Génesis al genocidio. La sociobiología en cuestión. Ed. Orbis. Barcelona. 280 pp.
Deschmann, U., 1996. Biologists under Hitler. Harvard University Press. Cambridge and London. 468 pp.
Eisenberg, L. 1972. The human nature of human nature. Science 176: 123-128.
Eisenberg, L. 2005. Which image for Lorenz? American Journal of Psychiatry 162: 1760.
Friedman, T.L. 1995. Foreign Affairs; Allies. New York Times June 7.
Fowler, J. 2004. Beyond humanitarian bandages – confronting genocide in Sudan. New England Journal of Medicine 351: 2574-2576.
Hébert, V. 2006. Disguised resistance? The story of Kurt Gerstein. Holocaust and Genocide Studies 20: 1-33.
Heydecker, J.J. & J. Leeb. 1962. El proceso de Nuremberg. Ed. Bruguera. Barcelona. 512 pp.
Jiménez Lozano, J. 2005. La historia de un espía. ABC 21 mayo.
Klopfer, P. 1994. Konrad Lorenz and the National Socialists: On the politics of Ethology. International Journal of Comparative Psychology 7: 202-208.
Lorenz, K. 1975. Los ocho pecados mortales de la humanidad. Plaza & Janés. Nabrcelona. 128 pp.
Manvell, R. 1975. SS Gestapo. Dominación por terror. Ed. San Martín. Madrid. 160 pp.
Mulisch, H. 1961. El juicio a Eichmann. Causa Penal 40/61. Titivillus. ePub base r1.2. 141 pp.
Müller-Hill, B. 1985. Ciencia mortífera. La segregación de judíos, gitanos y enfermos mentales (1933-1945). Ed. Labor. Barcelona. 272 pp.
Ollé Sesé, M. 2015. El crimen de genocidio (1): Génesis y evolución legislativa nacional e internacional. Serie Working Papers 01/2015. Fundación Internacional Baltasar Garzón. 14 pp.
Sax, B. 2007. Konrad Lorenz and the mythology of science. En “What are animals to us: Approaches from science, religión, folklore, literatura and art”, p. 269-276. Ed. por D. Aftandilian et al. University of Tennessee. Knoxville.
Staub, E. & D. Bar-Tal. 2003. Genocide, mass killing, and intractable conflicto. En “Oxford handbook of political psychology”, p. 710-751. Ed. por D.O. Sears et al. Oxford University Press. Oxford.
Stern, B. & P. Lewinska. 1960. Eichmann. Su vida. Sus víctimas. Fomento Internacional de Cultura. Barcelona. 286 pp.
Ternon, Y. & S. Helman. 1971. Historia de la Medicina SS o El mito del racismo biológico. Fomento de Cultura Ed. Valencia. 408 pp.
Wiesenthal, S. 1989. Justicia, no venganza. Ed. B. Barcelona. 441 pp.
Wikipedia. 2017. Kurt Gerstein. 20 diciembre.
Wikipedia. 2018. Pelagia Lewinska. 16 agosto.
Wikipedia. 2018. Genocidios en la historia. 29 septiembre.
Wikipedia. 2018. Konrad Lorenz. 1 octubre.
Wikipedia. 2018. Adolf Eichmann. 4 October.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Genocidio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Desmitificando: Las rubias son “tontas”
- Historias de la malaria: El charlatán y caballero Sir Robert Talbor
- Ingredientes para la receta: El kiwi