Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 53 mins 50 segs

Sociedades miniatura experimentales

Dom, 2019/08/04 - 11:59
Imagen: Gordon Johnson / Pixabay

En 2015 Amazon desarrolló un software para contratar a miles de personas para hacer pequeñas tareas para mejorar su web. Más tarde alquiló ese mismo software a otras empresas para que pudiesen hacer lo propio. Desde entonces, más de medio millón de personas han sido contratadas para trabajar en el sistema. Ese software y otros similares han resultado ser muy útiles también para hacer experimentos en campos en los que no había sido posible antes. El laboratorio dirigido por el sociólogo (y también médico) Nicholas Christakis, de la Universidad de Yale, es uno de los que ha recurrido a esos servicios para hacer experimentos sociales a gran escala. Mediante un programa desarrollado en su laboratorio han creado sociedades en miniatura cuyos integrantes son trabajadores del servicio de Amazon. Los investigadores relacionan a unos individuos con otros dentro de esas minisociedades, y manipulan variables tales como la estructura de las interacciones o su naturaleza.

En un primer experimento, a 785 personas distribuidas en 4 minisociedades se les asignaron entre una y seis relaciones sociales, de manera que cada participante tenía un esquema diferente de conexiones. En el experimento pretendían emular las condiciones para la producción de bienes públicos. Para ello, a los participantes se les daba una cantidad de dinero; y podían quedarse con todo o entregar una parte a las personas con las que estaban conectados. En este segundo caso los experimentadores entregaban al receptor una cantidad igual a la donada, de manera que este obtenía el doble. Al ejecutar rondas sucesivas del “juego”, se generaban condiciones que propiciaban reciprocidad. Esto es, cuando alguien no donaba, lo normal es que en la siguiente ronda los otros tampoco le diesen nada a esa persona. Podía ocurrir, por ello, que al cabo de varias rondas todo un grupo llegase a dejar de hacer donaciones, o lo contrario. Cuando a los participantes no se les permitía cambiar sus relaciones, lo normal es que cesase la cooperación. Pero si se les dejaba una cierta capacidad para elegir a sus “amigos”, se acababan configurando grupos formados por colaboradores, marginando a quienes no lo hacían.

En otro experimento con 1.529 personas distribuidas en 90 grupos, estudiaron cómo cambiaba el grado de cooperación en función del grado de fluidez social. Y observaron que la cooperación era mínima en las sociedades con una estructura rígida, porque en ellas no se puede evitar interactuar con individuos egoístas; pero una vez alcanzado un nivel máximo de cooperación, los grados más altos de fluidez tampoco son beneficiosos; al parecer, un cambio demasiado frecuente en las relaciones interpersonales desincentiva la cooperación.

En un tercer experimento con 1.163 individuos distribuidos en 48 sociedades, midieron la medida en qué el beneficio debía exceder al coste de la cooperación para que esta fuese posible. Hallaron que, como norma, la relación coste beneficio debía ser superior al número de relaciones de cada individuo. En otras palabras, cuantos más individuos interactúan mayor ha de ser el beneficio relativo, seguramente porque al aumentar el número de personas implicadas, también aumenta la dificultad de la cooperación. Y por último, comprobaron también que las desigualdades económicas entre los participantes no influían en el grado de cooperación, salvo que tales desigualdades fuesen visibles.

Aunque se trata de experimentos y, por lo tanto, no reflejan con total fidelidad las condiciones de la vida social real, los resultados de estos “juegos” ayudan a entender lo que ocurre en situaciones reales. Hay quien critica estos experimentos porque simplifican mucho el funcionamiento de las sociedades. Es cierto; tan cierto como que los experimentos en ciencias naturales también simplifican mucho los sistemas naturales.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sociedades miniatura experimentales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Matemáticas experimentales
  2. Comprobaciones experimentales de la relatividad general (1)
  3. Comprobaciones experimentales de la relatividad general (y 2)
Categorías: Zientzia

Fútbol, periódicos y estadísticas

Sáb, 2019/08/03 - 11:59

El fútbol es el deporte alrededor del cual orbitan, además de los miles de fieles seguidores, sectores como la hostelería, el periodismo, la publicidad o la moda. Pero, ¿hay lugar para la ciencia?

Aunque resulte difícil imaginar la relación que pueda existir entre disciplinas científicas como la física, las matemáticas o la antropología y el fútbol, cada vez son más las ocasiones en las que, sorprendentemente, la ciencia puede explicar muchos de los acontecimientos que suceden en un campo de fútbol e incidir en aspectos como la mejora del rendimiento de los jugadores y, en consecuencia, de los resultados.

La relación entre estas dos disciplinas fue el hilo conductor de un ciclo de conferencias organizado por la Cátedra de Cultura Científica con el apoyo de la Diputación Foral de Bizkaia y la colaboración de Fundación Española para la Ciencia y la Tecnología (FECYT) Ministerio de Ciencia, Innovación y Universidades”, que tuvo lugar en el Bizkaia Aretoa de la UPV/EHU de Bilbao los meses de octubre y noviembre de 2018. Enmarcado en el ciclo de conferencias “Zientziateka”, que contó con cinco conferencias impartidas por especialistas de diversos campos en las que se ilustró la conexión que existe entre diferentes disciplinas científicas y el fútbol.

Kiko Llaneras es doctor en Sistemas de Automática Industrial y consultor de visualización y ciencia de datos y habla en esta interesantísima charla, tomando como eje su experiencia personal en el diario El País escribiendo sobre fútbol y estadística, sobre si es apropiado o no hablar de predicciones y probabilidades sujetas al azar en los periódicos.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Fútbol, periódicos y estadísticas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La trama vasco-rusa que eliminó a España del Mundial 2018
  2. Fórmulas matemáticas y números: cómo ayuda la economía al fútbol
  3. Ciencia, arte y cultura callejera: física y música
Categorías: Zientzia

50 años modificando genes (en bacterias)

Vie, 2019/08/02 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Desde la expansión de la agricultura y la ganadería, que se inició en el neolítico, los humanos hemos intentado modificar la información genética de animales y plantas, en nuestro propio interés. Así lo atestiguan algunos bajorrelieves de 850 años AC, donde se aprecian dioses asirios polinizando artificialmente palmeras datileras. Hasta hace poco menos de 50 años, estas modificaciones solo podían realizarse de forma indirecta, mediante cruzamientos entre organismos de la misma especie, o de especies muy relacionadas, y la selección de aquellos descendientes que presentan los caracteres de interés (por ejemplo, un mayor tamaño, frutos más dulces, animales más dóciles, …), para realizar con ellos nuevos cruces y así, progresivamente, ir modificando la composición genética de las poblaciones, de acuerdo a nuestros intereses.

Sin embargo, en las últimas 5 décadas, se han desarrollado herramientas moleculares que permiten realizar modificaciones genéticas de manera directa. Varios grupos de investigación de la Facultad de Ciencia y Tecnología de la UPV/EHU hemos seguido muy de cerca estos avances y hemos participado activamente en algunas de sus aplicaciones. En este artículo y en los dos que le sucederán, presentamos brevemente algunos de los desarrollos más importantes en este ámbito, destacando sus aplicaciones en el campo biomédico y mencionando algunos de los debates científicos y sociales que su uso propició o que sigue generando hoy día.

El término «ingeniería genética» se acuñó a principios de los años 40 del siglo pasado. Curiosamente, los avances científicos que la hicieron posible no sucedieron hasta unos cuantos años más tarde, primero con el descubrimiento de la estructura del DNA, por Franklin,Watson y Crick en1953, y luego con el descubrimiento de la tecnología del DNA recombinante, por Cohen y Boyer en 1973 (Figura 1). La tecnología del DNA recombinante implica la unión de fragmentos de DNA, procedentes de una misma especie o de especies diferentes, para crear moléculas de DNA “híbridas” que pueden posteriormente introducirse en una célula hospedante.

Figura 1. A) Diagrama de la doble hélice de DNA propuesto por James Watson y Francis Crick en 1953 a partir de imágenes de rayos X obtenidas por Rosalind Franklin. Fuente: Watson, J. D. et. al., Molecular Structure of Nucleic Acids. Nature, 171: 737-738. B) La introducción del DNA recombinante (rDNA) híbrido (plásmido recombinante) en una bacteria permite que el DNA recombinante se replique naturalmente en la bacteria (clonación génica). Fuente: Wikimedia Commons

 

En los primeros años de la tecnología del DNA recombinante, su uso generó mucha suspicacia y preocupación, por tratarse de una manipulación de la esencia misma de la vida (recordemos que el DNA se consideró la “molécula de la vida”). Se temía que estos genes híbridos llevaran consigo capacidades incontrolables para dañar a los seres humanos. Tal es así que en 1974 los propios científicos se auto-impusieron una moratoria en sus investigaciones hasta que se celebró una reunión internacional (la Conferencia de Asilomar en 1975) para debatir si la experimentación con DNA recombinante planteaba algún peligro plausible para la salud pública. En esta reunión unos 150 científicos discutieron durante días sobre los riesgos potenciales de la nueva tecnología y sobre su regulación, y elaboraron directrices voluntarias para garantizar la seguridad de la tecnología del DNA recombinante (Figura 2). Acordaron, por ejemplo, que fuera una bacteria específica (E. coli cepa K12) la utilizada en experimentos de DNA recombinante. Se trata de una cepa no patógena, genéticamente modificada para que no pueda colonizar el tracto digestivo humano ni sobrevivir fuera del laboratorio y, tras más de 40 años trabajando con ella, podemos decir que estas medidas fueron totalmente efectivas.

Los participantes en la Conferencia de Asilomar también se esforzaron por llevar la ciencia al dominio público. Según los organizadores Paul Berg y Maxine Singer, la conferencia “marcó el comienzo de una era excepcional, tanto para la ciencia como para la discusión pública de las políticas científicas”, y cumplió el importante propósito de poner fin a muchos temores sociales con respecto a los usos responsables de las metodologías del DNA recombinante.

Figura 2. Izquierda: Algunos participantes de la Conferencia de Asilomar (Febrero, 1975). Fuente: DeWitt Stetten, Jr., Museum of Medical Research. Derecha: Debate en la Conferencia de Asilomar. De izquierda a derecha: Maxine Singer, Norton Zinder, Sydney Brenner y Paul Berg. Fuente: United States National Library of Medicine

Las pautas establecidas en la conferencia, permitieron realizar experimentos con la tecnología del DNA recombinante de una manera más regulada y con un conocimiento más profundo del proceso, e hicieron posible que, en pocos años, esta tecnología fuera considerada ya madura. En 1980, la Corte Suprema de EEUU dictaminó que los microorganismos genéticamente modificados podían ser patentados. Esto generó un entorno favorable en el ámbito industrial y académico para aprovechar la nueva capacidad científica de reorganizar la información genética creando nuevos tipos de moléculas de DNA en un tubo de ensayo.

Una de las aplicaciones de la ingeniería genética que mayor desarrollo ha experimentado es la transgénesis o creación de organismos transgénicos. La transgénesis consiste en introducir un determinado gen (denominado transgén) en un organismo de otra especie. Dado que el código genético es universal para todos los seres vivos, el organismo transgénico resultante puede expresar el gen ajeno.

La transgénesis puede usarse, por ejemplo, para producir en bacterias proteínas humanas de valor terapéutico. Para ello, el gen humano de interés debe ser insertado primeramente en un vector (típicamente una molécula circular de DNA llamada plásmido) mediante la tecnología de DNA recombinante. El plásmido recombinante que porta el gen humano, se transfiere a las bacterias, las cuales lo copian en cada división celular y lo utilizan para producir la proteína de interés. De este modo es posible obtener en muy poco tiempo un número enorme de copias del gen, y, también una gran cantidad de la proteína expresada por ese gen.

La insulina, una hormona pancreática que regula los niveles de azúcar en la sangre, fue la primera proteína humana producida en bacterias mediante técnicas de ingeniería genética (1978). Hasta ese momento, las personas diabéticas que no producían niveles adecuados de insulina debían ser tratadas con insulina aislada de cerdos. Se calcula que la empresa fabricante Eli Lilly, solo en los EEUU, necesitaba cerca de 56 millones de animales por año para satisfacer la demanda de este producto. Además del coste de producción de la insulina porcina, había otros problemas relacionados con el riesgo de infecciones y con la aparición de reacciones inmunitarias de rechazo. Todo ello promovió el desarrollo de otras formas de obtención de la insulina para uso terapéutico como, por ejemplo, obtenerla a partir de la expresión en bacterias del gen humano de la insulina.

Figura 3. Descripción esquemática del procedimiento para la producción de insulina humana por bacterias. Se construyeron dos cepas de E. coli, cada una con capacidad para sintetizar la cadena A o B de la insulina in vivo. Las cadenas peptídicas de insulina se purificaron por separado, y se unieron in vitro. Fuente: Riggs AD & Itakura K. Synthetic DNA in Medicine. Am J Hum Genet 31:532-538 (1979)

 

La insulina humana está formada por dos cadenas peptídicas, A y B, unidas entre sí por enlaces químicos llamados puentes disulfuro. Por ello, hubo que generar 2 moléculas de DNA recombinante (una para cada cadena). Cada una se transfirió a cultivos de bacterias independientes, se expresó y purificó cada cadena y, después, ambas se combinaron para formar la molécula de insulina completa, idéntica a la producida por el páncreas humano (Figura 3). Sin necesidad de depender de los animales, los investigadores podían ahora producir insulina recombinante en cantidades ilimitadas, libre de contaminantes y de agentes infecciosos animales. En 1982, la Insulina Humana Biosintética (BHI), desarrollada conjuntamente por Genentech y Eli Lilly se convirtió en el primer producto farmacéutico comercial sintetizado mediante tecnología del DNA recombinante, aprobado por la Administración de Alimentos y Medicamentos de los Estados Unidos (FDA). Actualmente, más del 95% de los usuarios de insulina a nivel mundial utilizan alguna forma de insulina recombinante.

Tras este éxito, rápidamente se aprobaron diversos medicamentos sintetizados en bacterias mediante la tecnología del DNA recombinante, incluidas la hormona de crecimiento humano (en 1985), la vacuna para la hepatitis B (en 1986), el interferón (un medicamento contra el cáncer, en 1986), o la glucocerebrosidasa, (un enzima para tratar la enfermedad de Gaucher, en 1991).

La producción y comercialización de proteínas de interés terapéutico liderada por la industria biotecnológica, no es la única aplicación de la tecnología del DNA recombinante en bacterias. Esta tecnología se utiliza de forma rutinaria en investigación experimental en la mayoría de los laboratorios de biología molecular del mundo, incluidos los de nuestra Facultad. De hecho, nuestros estudiantes de los Grados de Biociencias realizan prácticas experimentales durante su formación universitaria, en las que aprenden a utilizar estas metodologías en diferentes entornos formativos y como ejemplo de sus diversas aplicaciones.

La posibilidad de generar bacterias transgénicas inició una carrera que ha llevado al desarrollo de otros organismos transgénicos, incluyendo muchas especies de animales y plantas. En próximas reseñas trataremos algunas de ellas, como la generación, uso y aplicaciones de los animales mamíferos transgénicos generados para usos científicos y/o biomédicos, y la aplicación de la tecnología del DNA recombinante en terapia humana.

Sobre los autores: Ana I. Aguirre, José Antonio Rodríguez y Ana M. Zubiaga son profesores del departamento de Genética, Antropología Física y Fisiología Animal de la Facultad de Ciencia y Tecnología, e investigadores del grupo de investigación consolidado del Gobierno Vasco Biología Molecular del Cáncer.

El artículo 50 años modificando genes (en bacterias) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 50 años de secretos: la era de la criptografía moderna
  2. Bacterias contra bacterias
  3. La historia de la insulina, 90 años salvando vidas
Categorías: Zientzia

Los orígenes de la visualización de datos

Jue, 2019/08/01 - 11:59

Hoy en día, vivimos inmersos en gráficas, mapas e infografías de toda índole. En la era de la información, la visualización de datos se percibe como un lenguaje familiar que, además, gracias a las computadoras, resulta muy accesible. Pero no siempre fue ni tan obvio ni tan sencillo, sino que se lo debemos a unos pocos pioneros que, a base de papel y tinta, tuvieron la visión y la destreza de combinar arte y estadística para revolucionar nuestra manera de estudiar los datos.

Como resultado, las gráficas son una parte vital de la comunicación en ciencia y tecnología, además de otros muchos ámbitos como economía, educación y medios de comunicación. No es de extrañar pues que el nacimiento de las gráficas estadísticas coincidiese en el tiempo con esa nueva manera metódica de observar el mundo de los primeros científicos, también llamados filósofos naturales. Y tampoco es casualidad que los primeros gráficos se desarrollasen con el objetivo de analizar datos de tipo histórico y económico.

Hace poco más de 250 años, el filósofo natural y teólogo Joseph Priestley (1733-1804) publicaba en su obra A New Chart of History los primeros cronogramas que se conocen. Aparte de su buena reputación como científico gracias a sus escritos sobre electricidad, sus trabajos con gases (fue capaz de aislar el oxígeno e inventó la soda), Priestley era un gran pedagogo en materias muy diversas como la gramática o la historia, cuyo estudio era para él un imperativo moral. Y fue precisamente para sus clases de historia para las que diseñó un tipo de gráfica donde diferentes barras sobre una línea temporal representaban en contexto y permitían comparar diferentes períodos de tiempo, como vidas de personas o duraciones de imperios. Los cronogramas de Priestley causaron gran sensación, y su obra fue reeditada docenas de veces.

Imagen: Wikimedia Commons

Dos décadas después, inspirado por Priestley, William Playfair (1759-1823), ingeniero y economista político escocés, fue un precursor del uso de gráficos para explorar, entender y comunicar datos al inventar diversos tipos de diagramas. Concretamente en 1786 publicó su Commercial and Political Atlas, considerada la primera obra de importancia con gráficas estadísticas.

Imagen: Wikimedia Commons

En 43 maravillosas gráficas, Playfair utiliza líneas para representar la evolución a lo largo de los años de importaciones y exportaciones entre diversos países. Incidentalmente, la ausencia de datos históricos para Escocia, que le impedía reproducir ese mismo análisis, lo llevó a una segunda innovación: la gráfica de barras. Dado que disponía de datos para un único año, decidió disponer las exportaciones e importaciones en 17 pares de barras, uno por cada país con el que Escocia tenía relaciones económicas.

Imagen: Wikimedia Commons

Curiosamente, esta es la primera gráfica que se conoce que no tiene una dimensión espacial (como un mapa) o temporal (como los cronogramas de Priestley). Por primera vez en la historia, se da solución gráfica a un problema de comparación pura de datos cuantitativos. Y por si fuera poco, además de considerarse el padre de las gráficas de líneas, áreas y barras, Playfair también tiene el dudoso honor de ser el inventor de la gráfica de tarta, en su obra Statistical Breviary de 1801.

Imagen: Wikimedia Commons

No en vano, fue esta gráfica de tarta, diseñada para comparar proporciones de una manera compacta, la que inspiró a la siguiente protagonista: Florence Nightingale (1820-1910). Nightingale fue una enfermera, escritora y estadística británica, considerada la fundadora de la enfermería moderna y primera mujer en ser elegida miembro de la Royal Statistical Society en 1859. Fue un mito viviente de la Inglaterra victoriana por su importante labor durante la Guerra de Crimea (1853-1856). En el hospital militar en el que se encontraba destinada, se dedicó a llevar una contabilidad minuciosa de las causas de muerte de los soldados, y utilizó el denominado diagrama de la rosa para comunicar los resultados de su estudio.

Imagen: Wikimedia Commons

Se trata de un histograma circular que da cuenta de la estacionalidad de las diversas causas de muerte y de su impacto, destacando las muertes por enfermedades infecciosas. Gracias a esta visualización, logró convencer al parlamento británico de la necesidad de realizar una reforma drástica de las medidas de higiene en centros hospitalarios.

Por supuesto, no se puede hablar de historia de la visualización de datos sin mencionar hitos como el mapa del cólera de John Snow, el revolucionario mapa de flujo de Charles Joseph Minard sobre las pérdidas del ejército de Napoleón en la campaña de Rusia, los mapas de datos jerárquicos de Charles Louis de Fourcroy, o las primeras gráficas en 3D de Luigi Perozzo.

Imagen: Wikimedia Commons

Estos y otros pioneros han hecho de las gráficas una parte fundamental del análisis estadístico de datos, y sus innovaciones siguen estando vigentes, además de servir de excelentes modelos de claridad en la representación.

Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute.

El artículo Los orígenes de la visualización de datos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Datos que entran por los ojos
  2. Gráficas para la ciencia y ciencia para las gráficas
  3. Doce reglas para una mala gráfica
Categorías: Zientzia

El grafo de Marion (Gray)

Mié, 2019/07/31 - 11:59

 

Hace casi dos años hablamos en este Cuaderno de Cultura Científica del teorema de Marion (Walter), un bonito enunciado de geometría afín, nombrado en honor a la matemática Marion Walter –que justamente ayer cumplió 91 años–.

Hoy traemos un objeto matemático, el grafo de Marion. En este caso, la matemática que da nombre a este grafo es otra Marion, Marion Gray.

Marion Gray. Imagen: © School of Mathematics, University of Edinburgh.

Marion Gray nació en Escocia en 1902. Se interesó fundamentalmente por las matemáticas y la física. Estudió en la Universidad de Edimburgo y, tras graduarse, trabajó durante dos años como estudiante de postgrado bajo la supervisión del conocido matemático Edmund Taylor Whittaker.

En 1924 viajó a los Estados Unidos para estudiar en el Bryn Mawr College (Pensilvania). Allí aprendió matemáticas con Anna Johnson Pell Wheeler, David Vernon Widder y Marguerite Lehr. Defendió su tesis doctoral –The theory of singular ordinary differential equations of the second order– en 1926 bajo la supervisión de Anna Johnson Pell Wheeler.

Regresó a Edimburgo, donde trabajó como profesora asistente durante un año. De allí se trasladó a Londres donde trabajó como profesora asistente de matemáticas en el Imperial College durante tres años.

En 1930 regresó a los Estados Unidos y fue contratada como ingeniera asistente en el Departamento de Desarrollo e Investigación de la American Telephone and Telegraph Company de Nueva York.

En 1932, buscando “redes completamente simétricas”, descubrió el grafo que lleva su nombre, un grafo cúbico con 54 vértices y 81 aristas.

Grafo de Gray. Imagen: Wikimedia Commons.

 

Aunque Marion no publicó nada sobre este grafo –pensaba que se trataba de un resultado teórico sin aplicaciones–, el matemático Izak Zurk Bouwer lo citó en su artículo An edge but not vertex transitive cubic graph [Canad. Math. Bull.11 (1968) 533-535], en el que lo describía –fundamentalmente sus propiedades de simetría– y comentaba en una nota a pie de página:

El grafo descrito en esta nota fue descubierto por la Dra. Marion C. Gray en 1932. El autor lo ha redescubierto de manera independiente y cree que aquí aparece publicado por primera vez.

En junio de 1969, Bouwer escribió a Gray para comentarle su aprecio por el hecho de que, en un momento en que la teoría de grafos era prácticamente inexistente, ella ya había encontrado este grafo con unas propiedades tan interesantes.

¿Y cuáles son esas propiedades tan interesantes? Además de las comentadas antes, el diámetro del grafo de Gray –la distancia maximal entre dos vértices– es 6, y la longitud de su ciclo más corto es 8. Es un grafo conexo, y para desconectarlo, es preciso eliminar como mínimo tres vértices o tres aristas.

Este grafo de Gray es además semi-simétrico –fue Bouwer quien lo probó en su artículo de 1968–, es decir, es arista-transitivo –existe un automorfismo del grafo que lleva cualquier arista en otra–, regular –todos los vértices tienen el mismo grado–, y no es vértice-transitivo –no existe ningún automorfismo del grafo que lleve cualquier vértice en otro–.

Además es el menor grafo cúbico semi-simétrico, como demostraron Aleksander Malnič, Dragan Marušič, Primož Potočnika y ChangqunWang en 2002 [An infinite family of cubic edge- but not vertex-transitive graphs, Discr. Math. 280, 133-148].

Por cierto, Marion se equivocó: este grafo –y otros similares– es fundamental en teoría de redes.

¿Y qué fue de nuestra protagonista? En 1934, se unió al personal técnico de los Bell Telephone Laboratories, donde pasó más trabajando de 30 años hasta su jubilación. Durante ese tiempo publicó varios artículos de investigación y realizó cientos de revisiones de trabajos de otros. También formó parte del comité que preparó el famoso Handbook of Mathematical Functions editado por Milton Abramowitz e Irene Stegun (1964).

Después de su jubilación, en 1967, Gray regresó a Edimburgo, donde falleció en 1979.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo El grafo de Marion (Gray) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El teorema de Marion (Walter)
  2. Un grafo no planar bipartito completo… para un sexteto amoroso
  3. El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema?
Categorías: Zientzia

El impacto científico, médico y comercial de los rayos X

Mar, 2019/07/30 - 11:59
Foto: Owen Beard / Unsplash

El descubrimiento de Röntgen de los rayos X entusiasmó a los científicos de todo el mundo. Sus experimentos se repitieron y ampliaron de inmediato en muchos laboratorios de Europa y América. Las revistas científicas durante el año 1896 estaban llenas de cartas y artículos que describían nuevos experimentos o confirmaban los resultados de experimentos anteriores. El paso de la electricidad a través de los gases había sido un tema popular de estudio para los físicos; esto hizo que la experimentación generalizada fuera mucho más fácil durante los años posteriores al descubrimiento de Röntgen, porque muchos laboratorios de física tenían tubos de rayos catódicos y, por lo tanto, podían producir rayos X fácilmente.

Su utilidad en medicina generó un enorme interés en los rayos X más allá de los laboratorios de física. En los 3 meses posteriores al descubrimiento de Röntgen, el uso de los rayos X se convirtió en habitual en las intervenciones quirúrgicas de un hospital de Viena. Un uso que se extendió rápidamente. Desde la época de Röntgen, los rayos X han revolucionado algunas fases de la práctica médica, especialmente el diagnóstico de algunas enfermedades y el tratamiento de algunas formas de cáncer (porque los rayos X también pueden destruir el tejido maligno).

Los rayos X también encontraron aplicación rápidamente en otros campos de la ciencia. Entre estas aplicaciones destaca el estudio de la estructura cristalina de los materiales, incluidos los biológicos, como el ADN; el «diagnóstico industrial», la búsqueda de posibles defectos en materiales y estructuras de ingeniería; o su uso en historia del arte y restauración, donde permiten ver qué hay detrás de la superficie ópticamente visible de pinturas y esculturas; y muchos otras.

La reacción pública al descubrimiento de los rayos X también fue sensacional. Muchas personas se apresuraron a irradiar sus cuerpos con los nuevos rayos, pensando que tenían propiedades milagrosas, mientras que otros se preocuparon por el deterioro moral si la modestia tan característica del XIX daba paso a la pervertida «visión de rayos X».

Del aparato utilizado en el descubrimiento original de Röntgen, surgieron dos vías de desarrollo para la tecnología médica. Una se concentró en el fluoroscopio, la otra en mejorar la radiografía; Thomas Edison fue crucial en ambas.

¿Qué ves en esta imagen de fluoroscopio? [6]Fue la familiaridad de Edison con el tubo Crookes, en muchos aspectos similar muy similar a su bombilla de filamento de carbono de 1879 [1], lo que le permitió hacer una de las primeras mejoras en la tecnología de rayos X. Al construir un tubo con un vidrio más delgado, Edison descubrió que podían escapar más rayos X. Edison también dirigió la investigación que encontró que el tungstenato de calcio [2] podría producir una imagen más clara en la pantalla fluorescente que el platino-cianuro de bario utilizado anteriormente. Edison lo usó para la fabricación de un «fluoroscopio», un dispositivo que permitía a una persona mirar a través de una caja en una pantalla cubierta con tungstato de calcio, y ver una imagen en movimiento del interior del cuerpo de otra persona.

Operación quirúrgica empleando un fluoroscopio durante la Primera Guerra Mundial. Imagen: Wikimedia Commons

Un amigo de Edison, Michael Pupin [3], tomó esta mejora en la pantalla fluorescente y la combinó con una placa fotográfica, creando la radiografía, que reducía el tiempo de exposición del paciente de 1 hora a solo unos minutos, al tiempo que aumentaba la claridad de la imagen. Esto redujo en gran medida el peligro de daño a los tejidos. [4]

Uno de los aspectos más problemáticos de la tecnología de rayos X durante las dos primeras décadas fue la poca fiabilidad de los tubos de vidrio, que a menudo se agrietaban al calentarse. La alta incidencia de grietas se eliminó en 1913 cuando William Coolidge, mientras trabajaba para General Electric [5], inventó el tubo de rayos X de alto vacío, cátodo caliente y objetivo de tungsteno. Como parte de su investigación sobre filamentos de bombillas eléctricas, Coolidge descubrió que debido a que el tungsteno se vaporizaba menos que cualquier otro metal, podría reducir la acumulación de residuos de gas. Aplicando este conocimiento Coolidge reemplazó el platino con tungsteno en el tubo de rayos catódicos. Cuando estos «tubos Coolidge» salieron al mercado en 1913, arrasaron: podían producir duplicaciones más claras de imágenes anteriores, ajustarse con mucha más precisión y, debido a su mayor flexibilidad, podían organizarse para pasar instantáneamente de alta a baja penetración.

La Primera Guerra Mundial (1914-1918) consolidaría el uso generalizado de los rayos X en medicina y establecería la investigación sobre ellos como una prioridad médica, científica y comercial.

Notas:

[1] Con el señor Edison, cuyo mérito no discute nadie, siempre es necesario matizar cosas. Edison fue, ante todo, lo que hoy se llama un emprendedor, lo que de toda la vida ha sido un empresario. Eso no le desmerece en absoluto, pero sí es necesario tenerlo en cuenta para entender su forma de actuar, siempre con ánimo de lucro y en términos de competencia en un mercado limitado. Un equivalente más contemporáneo sería Steve Jobs, de Apple. Edison creaba, mejoraba lo que hacían otros y sobre todo, y por encima de todo, ponía en el mercado magistralmente productos revolucionarios. Todo lo anterior es para mencionar que la primera bombilla de filamento de carbono la creó Joseph Swan en febrero de 1879 (la de Edison es de octubre de ese año), quien también fue el primero en suministrarlas para un uso comercial, en concreto para iluminar el Hotel Savoy de Londres en 1881.

[2] También llamado wolframato de calcio en los ambientes. En esta casa seguimos las leyes de la termodinámica y la terminología IUPAC. El tungstenato de calcio es el mineral scheelita.

[3] Un personaje impresionante, a la altura del propio Edison, solo que con menos éxito comercial. Su vida fue tan rocambolesca y él la contó tan bien que su autobiografía ganó el premio Pulitzer en 1924.

[4] Daño que experimentaron en sus carnes los colaboradores y el propio Edison.

[5] Nombre original de la compañía Edison General Electric Company que quedó en General Electric tras la fusión en 1892 con Thomson-Houston Electric Company. Edison fundó 14 empresas. Véase Nota 1.

[6] En la imagen se ve una persona ingiriendo una papilla de bario.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El impacto científico, médico y comercial de los rayos X se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Rayos X y gamma
  2. Las partículas de los rayos catódicos
  3. Rayos X, ¿ondas o partículas?
Categorías: Zientzia

Ingredientes para la receta: El pimiento

Lun, 2019/07/29 - 11:59

También hay mucho axí, ques su pimiento, della que más que pimienta, y toda la gente no come sin ella, que la halla muy sana; puedense cargar cincuenta carabelas cada año en aquella Española”.

Diario de Colón, 15 enero 1493.

[El ají] comido con moderación ayuda al estómago para la digestión, pero si es demasiado, tiene muy ruines efectos: porque de suyo es muy cálido, humoso y penetrativo. Por donde el mucho uso de él en mozos es perjudicial a la salud, mayormente del alma, porque provoca sensualidad”.

José de Acosta, Historia natural y moral de las Indias, 1590.

La cocina picante se puede considerar como el equivalente culinario de una actividad masoquista benigna como un salto en paracaídas, un baño caliente, una ducha helada o una película de terror”.

Bernd Nilius & Giovanni Appendino, 2013.

 

Foto: RitaE / Pixabay

El pimiento pertenece al género Capsicum, de la familia de las solanáceas, con 40 especies aceptadas de las casi 200 descritas. De ellas, cinco especies se cultivan, y tal como revisan Charles Heiser y Barbara Pickersgill, de las universidades de Indiana, en USA, y de Reading, en Inglaterra, son: Capsicum annuum, C. baccatus, C. chinense, y C. frutescens.En estas especies cultivadas hay infinidad de variedades de cultivo, más de 3000 se ha calculado, sobre todo por el fruto, por su forma, color, picor, uso y procedencia. Así se citan el pimiento morrón, la ñora, la guindilla, el pimiento choricero, el del piquillo, el chile habanero y muchos más.

El género Capsicum tiene su origen en Centro y Sudamérica y crece desde el nivel del mar hasta más de 2000 metros de altura. Parece que se domesticó en varios lugares tanto en México como en Sudamérica. Bolivia podría ser uno de los Centros Vavilov de Capsicum pues allí se encuentran 27 especies. El otro centro estaría en el noreste y centro-este de México, y destaca la Península de Yucatán. Más en concreto, el origen de C. annuum y de C. frutescens estaría en México y Centroamérica y quizá se domesticó en el Amazonas, el C. chinense del norte de la Amazonia, y el C. pubescens y el C. baccatum en los Andes de Sudamérica, desde Colombia a Chile, y por el este a Brasil y norte de Argentina.

Hay restos arqueológicos de pimiento en México desde hace más de 7000-9000 años. Para entonces ya se consumía y, quizá, se cultivaba el pimiento. Del yacimiento del Valle de Tehuacán, en Puebla, se han recuperado semillas en coprolitos humanos y en vertederos de la época, aunque las más antiguas son más pequeñas que las actuales, y quizá es pimiento silvestre recolectado. En los mismos yacimientos se encontraron restos del mortero de basalto, que se sigue utilizando en la actualidad, para preparar salsa de chile.

Los restos de la cueva de Coxcatlán, de hace 7000-5500 años, llevan semillas como las actuales y, son, por tanto, chile domesticado. Y en Loma Torremole, en Cuantitlán, se han encontrado trojes para almacenar las semillas. Ya se cultivaba en extensión hace 5000-4250 años.

El grupo de Linda Perry, del Museo Nacional Smithsoniano de Historia Natural de Washington, ha identificado restos de pimientos, fechados hace 6000 años, en Lomo Alto, Ecuador, en el área de los Andes donde tiene su segundo centro de origen el pimiento. También han encontrado restos de pimiento, más recientes, en Panamá, Bahamas, Perú y Venezuela.

Cristóbal Colón trajo y entregó a los Reyes Católicos el pimiento, con plantas y semillas, a la vuelta de su primer viaje en 1493. En el Caribe encontró a los indios Arawak que cultivaban Capsicum. Lo habían traído desde el norte de Sudamérica en su migración, que había comenzado 1200 años antes y pasado por Trinidad y las Pequeñas Antillas donde, en la época de Colón, también se cultivaban especies de Capsicum. A la vez, otro grupo de especies de Capsicum llegó a las Antillas desde Centroamérica. Se llamaba chili, según el idioma de la tribu Nahuatln, denominación que todavía se utiliza en la actualidad.

Fue el 15 de enero de 1493 cuando Colón dejó, por primera vez, constancia escrita en sus diarios de la planta que, como los indios, llamó ají, término que todavía se conserva, y que sería nuestro pimiento. Colón escribió “que es su pimienta, que vale más que la pimienta”.

En México, cuando llegó Hernán Cortés, se pagaban impuestos en el imperio azteca con chiles, y los españoles siguieron cobrando impuestos igual. Bernal Díaz del Castillo, en su relato de la lucha con los aztecas, cuenta que, a su paso por Cholula camino de Tenochtitlán, los indígenas quería matarlos y “comer nuestras carnes” y “ya tenían aparejadas las ollas con sal y ají y tomates”. Añade que los aztecas comían las piernas y los brazos de los sacrificados con una salsa de chimole, hecha con chile, tomate, cebolla y sal. En quince años, los españoles que llegaron a América se hicieron a la dieta mexicana. El pimiento también aporta a la dieta minerales y las vitaminas A y C, y por ello se convirtió en una buena solución para el escorbuto en los largos viajes entre Europa y América.

El fraile dominico y cronista de Indias Bartolomé de las Casas escribió que “sin el chile, los mexicanos no creen que están comiendo”. Añade que “en todas las cosas que comían estas gentes, cocidas o asadas o crudas, echaban de la pimienta que llaman axí… la cual ya es en toda España conocida; tienese por especia sana, según acá dicen nuestros médicos…·. También Gonzalo Fernández de Oviedo en su Historia general y natural de las Indias, publicada en 1526, escribe que se utilizaban las hojas de pimiento en el caldo de la olla de carne y en salsas “tan buenas o mejor que el gusto del perexil”. Llegó el pimiento a España e Italia con tanto éxito que escribió que “en verdad, el axí es mejor con la carne e con el pescado, que la muy buena pimienta”.

Foto: Jill Wellington / Pixabay

Aunque también el pimiento presentaba problemas para algunos viajeros españoles en América. El misionero José de Acosta, a finales del siglo XVI, escribió que el chile era perjudicial para la salud en los mozos, y mayormente para la salud de su alma, pues provocaba sensualidad. Además, el chile era algo molesto pues quemaba “al entrar y al salir, también”.

Las primeras descripciones de los pimientos en Europa son de 1542. Aparecieron en De historia stirpium comentarii insignes, escrito por Leonhart Fuchs y publicado en Basilea. Describe algunas variedades de pimiento que considera vienen de la India.

Como ocurre con otras plantas que llegaron de América, su llegada a Europa provocó siglos después un debate ya conocido. El arqueobotánico sueco Hakon Hjelmqvist afirmó, en 1995, que en una excavación en Lund se había encontrado C. frutescens, variedad picante que incluye, por ejemplo, la guindilla. Proponía que había llegado desde Asia, aunque otras hipótesis plantean que ya lo conocían los romanos o que lo habían traído de América los vikingos en el siglo X.

Las variedades de México y Perú que encontraron los españoles se adaptaron bien al cultivo en las zonas templadas de Europa y el Oriente Medio. Medio siglo después de la llegada a Europa, ya se cultivaban en las costas de África y en la India, en el Asia de los monzones y el sudoeste de China, y en los Balcanes, Europa Central e Italia. En concreto, en Europa, los pimientos de citan en Italia en 1533, en Alemania, hemos visto que en 1542, en Inglaterra se cultivaba en 1548, y en Moravia, hoy en la República Checa, hay grandes sembrados en 1585, y, sin confirmar, se cultivaba en Hungría en 1526. Hay ejemplares en herbarios desde el principio del siglo XVII. Con un cultivo sencillo y semillas fáciles de almacenar, pronto se convirtió en un ingrediente barato de la dieta de pobres y ricos de medio planeta, y se sembraba en todas las huertas domésticas, cerca de la casa.

Como ejemplo de la rápida popularidad del pimiento y, también, de su uso culinario cotidiano son las guindillas que pintó Velázquez en dos de sus cuadros, fechados de 1618, y que se conocen como “Jesús en casa de Marta y María” y “La vieja friendo huevos”. En ambas obras, el entorno es humilde pues el pimiento era barato y fácil de cultivar. Seguro que ayudó a consolar muchas hambrunas. En los cuadros, Velázquez pinta guindillas, una en el primero y dos en el segundo. Según Jesús Moreno, estas guindillas son el primer producto alimentario americano que aparece en la pintura.

Quizá esta receta nos ilustre de la utilización del pimiento por todas las clases sociales, en este caso lo traemos de una sociedad gastronómica de Tolosa, tal como la recogió José Castillo, en 1973, de José Luis Pecina. Pero estoy seguro de que esta receta se aplicó del siglo XVIII en adelante siempre que fuera deseable y oportuno. El hambre manda mucho.

Fritada de burro (astoa) joven: necesitamos carne de burro joven, cebolla, ajos, aceite, pimientos rojos, tomate y guindilla. Arrimar una sartén grande al fuego con aceite y ajos fileteados, cuando se empiecen a dorar añadir los pimientos cortados en tiritas, que se vayan cocinando lentamente y añadir tomate picadito sin pellejos. Todo junto que se vaya haciendo, y sacar la sartén fuera del fuego para usarlo más tarde.

Colocar en una cazuela aceite y cebolla picada, y arrimándola al fuego añadir el burro cortado en pedazos grandes y rehogarlos bien. Cuando casi estén tiernos añadir vino tinto, echar el tomate y pimientos que están en una sartén, más algo de guindilla. Todo junto que hierva lentamente hasta que esté tierno el burro. Seguidamente se pasa todo a una cazuela de barro y se hierve un poco arrimándola al fuego”.

Como especia, el pimiento tuvo su mayor difusión en Europa durante las guerras napoleónicas, cuando el bloqueo de los puertos continentales impidió la llegada de las especias de gran uso, la mayoría de origen asiático. Por ejemplo, como ingrediente picante se usaba la pimienta, importada de Asia. Por ello, cuando Colón encontró el Capsicum en sus viajes y vio que era una planta que picaba, la bautizó con el masculino de pimienta, o sea, pimiento.

Ahora se cultiva en toda Europa, Asia Central y Oriental, Turquía, India, China, Corea o Japón, como en toda América. En 2013, la producción mundial de pimientos fue de 346 millones de toneladas. El 47% procedía de China, y es la India el primer productor de pimientos secos con 1.4 millones de toneladas. En pimiento fresco, después de China están México, Turquía, Indonesia y España con un millón de toneladas. Se ha calculado, escribe Jean Andrews, que más de un cuarto de la población mundial se alimenta con pimientos o sus derivados cada día. Es la especie y condimento más utilizado en todo el mundo.

Para ilustrar la popularidad planetaria del pimiento podemos irnos a China y cocinar una receta de su cocina, tomada de el libro de Huang Su Huei, publicado en 1972.

Col china con pimiento rojo seco y picante: Cortamos la col en trozos grandes, como de cinco centímetros, y los pimientos en tiras de unos dos centímetros. Freímos la col en aceite muy caliente hasta que se ablande. Más o menos, como un minuto. Sacamos la col y la secamos. Freímos los trozos de pimiento con unos granos de pimienta y raíz de jengibre picada. Añadimos la col y harina de maíz, salsa de hoja, vino de arroz (vale con vino blanco), aceite de sésamo (vale de oliva), azúcar y vinagre. Freír hasta que se caliente y servir”.

De Hungría viene la paprika que se obtiene al moler el típico pimiento húngaro seco. Ahora es España el primer exportador de pimiento en polvo, como pimentón o paprika, con el 60% del mercado mundial. La mayor producción de pimentón se da en Murcia, seguida de Extremadura y Valencia. Es un componente esencial de muchas recetas e indispensable, por ejemplo, en la cocina de Castilla La Vieja.

Los pimientos pican porque sintetizan y acumulan capsaicina, o (E)-N-(4-hidroxi-3-metoxibencil)-8-metil-6-nonenamida, un compuesto alcaloide sin color, ni sabor, ni olor, y lipofílico, o sea, que se disuelve en las grasas.. Su fórmula reducida es C18H27NO3. Es el compuesto que da el sabor típico picante a muchas variedades de pimiento. Su concentración varía en cada variedad y, dentro de ella, en cada planta, y va, en general, del 0.5% al 1%. La síntesis de capsaicina, según el estudio de Charles Stewart, Jr., y su grupo, de la Universidad Cornell de Ithaca, y en la especie C. chinense, la controla el gen Pun1, con su alelo recesivo pun12 en las variedades que no pican. Un 86% de la capsaicina se sintetiza en la placenta, o sea, en los soportes donde crecen las semillas y, por ello, donde más pica un pimiento es en esa zona.

Se ha propuesto que es un método de defensa seleccionado para evitar que los mamíferos ingieran el fruto. Las aves, que no son sensibles a la capsaicina, se alimentan de pimientos y, después, esparcen la semilla con las heces. Además, parece que las semillas se activan al pasar por el sistema digestivo de las aves y germinan mejor al caer a tierra.

El picor varía según las condiciones de cultivo, la edad del fruto y de la variedad de que se trate, es decir, de su genética. La falta de agua y el estrés en el cultivo aumentan el picor. Si después de recogido el fruto se le seca al aire pero a la sombra, el picor se conserva mejor.

En los mamíferos, la capsaicina activa las células sensoriales de la boca y otras zonas del digestivo que responden a aumentos de temperatura por encima de 43ºC. La información que envían estas células sensoriales al cerebro se traduce por una sensación de quemazón que avisa de que hay un peligro, de que el alimento que pasa por la boca es capaz de quemar. Además, la capsaicina estimula el apetito y la secreción de jugos gástricos y la movilidad del estómago y el intestino.

El pimiento más picante conocido es la variedad Carolina Reaper, con 2200000 unidades Scoville. También sirve como ejemplo que la capsaicina pura disuelta en 100000 partes de agua sigue provocando un fuerte picor persistente, como una quemadura en la lengua. Y, además, la capsaicina es ocho veces más picante que la piperina, el compuesto que causa el picor en la pimienta negra.

Pimientos a laventa con indicación de la escala Scoville en Houston (Texas, EEUU). Foto: WhisperToMe / Wikimedia Commons.

Cuantificar el picor es interesante para quien cultiva y comercializa estas plantas. Y a ello dedicó años de su vida Wilbur Lincoln Scoville y, de su trabajo vienen las unidades Scoville. Fue un químico estadounidense que nació en 1865 en Bridgeport, Connecticut, y murió en 1942. En 1912, cuando trabajaba para la farmaceútica Parke-Davis, desarrolló lo que se denomina Examen Organoléptico Scoville, con el que se cuantifican las unidades Scoville (en inglés SHU, Scoville Heat Units) que, a menudo, aparecen en las etiquetas de los alimentos picantes.

El Examen Organoléptico Scoville consiste en utilizar una solución concreta de extracto de la planta picante (un grano en 100 centímetros cúbicos de alcohol durante una noche) y diluirla en agua azucarada hasta que deja de picar para un comité formado, habitualmente, por cinco examinadores. El grado de dilución es la unidad Scoville para esa planta. Así, un pimiento que no pique tiene cero de unidad Scoville; por el contrario, los chiles más picantes tienen de unidad Scoville 300000, pues ese es el número de veces que hay que diluir su extracto para que deje de picar, o sea, que pica mucho. El inconveniente del método es que depende de la subjetividad de los examinadores (por eso son cinco); en la actualidad, ya se utilizan métodos cuantitativos de análisis químico en el laboratorio.

La capsaicina pura tiene de unidad Scoville 16000000; el piri piri, un C. frutescens que se desarrolló en el sureste de África, llega a 200000; la pimienta Cayena, que nos parece terrible, se queda en 50000 como mucho; el chile tabasco pica como la Cayena, entre 30000 y 60000; el jalapeño esté entre 2500 y 10000 unidades Scoville; la guindilla anda por los 1500; y el pimiento, si pica, puede llegar a 500.

La capsaicina del pimiento se une a un receptor de la membrana de la célula sensorial, cambia la permeabilidad de esa membrana y entra calcio a la célula lo que, a su vez, provoca la sinapsis con una o varias neuronas que transmiten la información al cerebro. La respuesta, frente al dolor, es la liberación de endorfinas que mitigan la sensación dolorosa y dan una sensación de bienestar y placer que, incluso, puede provocar adicción al picante, aunque hay autores, como Janet Long, que lo niega.

Los receptores que se unen a la capsaicina son los TRPV1 (Receptores de Potencial Transitorio Vanilloide 1) y que se encuentran, sobre todo en la boca y primera parte del sistema digestivo pero que, poco a poco van apareciendo en muchos otros tipos celulares. Se activa a más de 43ºC y con la capsaicina y, es curioso, hay otro termorreceptor, el VRL-1, análogo al TRPV1, que se activa a más de 52ºC pero no con la capsaicina.

Cuando el TRPV1 responde al picante entra calcio en su citoplasma pero, si el picante actúa durante un tiempo prolongado, se agota el calcio, y las células sensoriales dejan de funcionar. Así, el exceso de picante puede llevar a la insensibilidad hasta que se repone el calcio del entorno celular. La respuesta del cerebro es aumentar el ritmo cardíaco, la secreción de sudor y liberar endorfinas.

Una de las líneas de investigación más interesantes sobre estos receptores TRPV1 es su relación con células cancerosas. La revisión de Lea Weber, de la Universidad del Ruhr en Bochum, estudia la acción de la capsaicina en osteosarcoma, cáncer de colón de páncreas y de mama. En concreto, este grupo alemán estudia su acción sobre células cancerosas del cáncer de mama que, se ha encontrado que tienen los TRPV1 en su membrana celular.

Los resultados que encuentran son claros: la capsaicina inhibe el crecimiento de estas células en cultivo y provoca su muerte en tiempos que van de horas a días. Ensayan la capsaicina en nueve cultivos de células de cáncer de mama de diferentes pacientes. Los autores sugieren que la capsaicina funciona como un tóxico que activa los receptores TRPV1, provoca la entrada de calcio y la célula muere. Sería un buen objetivo terapéutico para estudiar la destrucción de células tumorales.

También la capsaicina está relacionada con el metabolismo de lípidos y, en último término, con la obesidad y el control del peso, tal como escriben Nilius y Appendino. La adición de pimento picante al desayuno inhibe la absorción de lípidos y proteínas. Parece ser que la capsaicina activa el catabolismo de lípidos y la termogénesis y, por tanto, en la utilización y metabolismo de las grasas. En general, concluyen los autores que la toma de capsaicina en la dieta activa los mecanismos metabólicos contra la obesidad.

Sin embargo, la relación entre el consumo de picante y sus beneficios para la salud no se ha demostrado de manera directa, sugerida por estudios epidemiológicos sin una demostración directa de causa y efecto. O, en algunos casos, son estudios solo con animales de laboratorio o con cultivos celulares o in vitro. Y siempre con escasa confirmación en ensayos clínicos.

El picante en los pimientos sigue siendo un enigma sin resolver por completo. Los humanos son la única especie animal que deliberada y sistemáticamente consume alimentos que pican, que queman, sin que conozcamos el significado biológico de esta conducta, ni el impacto evolutivo que supone para la especie, tal como explican Bernd Nilius y Giovanni Appendino, de las universidades de Lovaina y Novara respectivamente.

En una publicación reciente, Charles Spence, de la Universidad de Oxford, ha revisado algunas de las hipótesis que tratan de explicar esta curiosa preferencia de nuestra especie. En primer lugar, la ya mencionada hipótesis masoquista/búsqueda de emociones, con la liberación de endorfinas. Spence también menciona la hipótesis microbiana, que sugiere que el picante se añade a los alimentos porque elimina bacterias y protege de enfermedades trasmitidas por los alimentos. La siguiente hipótesis que explica Spence es la termorregulación/inducción de la salivación, con el aumento de la secreción de saliva y sudor que, a su vez, provoca la bajada de la temperatura corporal. Y la última hipótesis revisada por Spence es la que relaciona el picante con la salud, la dieta y, en general, con sus propiedades medicinales. Ya hemos repasado la influencia de la capsaicina en la destrucción de células tumorales y en el metabolismo de lípidos.

Como escriben Joshua Tewksbury y su grupo, de la Universidad de Washington en Seattle, la presencia o ausencia de picor es muy variable. En su estudio con 29 poblaciones salvajes de tres especies de Capsicum en el sudoeste de Bolivia, han muestreado el picor y su distribución geográfica.

En primer lugar, los individuos picantes y no picantes pueden convivir en la misma población. El porcentaje de individuos picantes crece con la altura. Por encima de 900 metros todos los individuos de todas las poblaciones, excepto dos, son picantes. Y de esas dos poblaciones en que hay no picantes, en una de ellas es la especie humana la responsable de la presencia de los individuos no picantes. El contenido de capsaicina sigue los mismos parámetros: a más altura, más capsaicina y, así, de 500 a 1000 metros, crece un 30%. Además, aumenta la síntesis de capsaicina con menos agua y más sol.

Tewksbury propone que la síntesis de capsaicina se basa en el coste y el beneficio que permiten a la planta, a cada individuo, sobrevivir y reproducirse. con éxito, quizá por el paso de las semillas y su activación en el sistema digestivo de aves.

La capsaicina tiene también usos fuera de la gastronomía Por ejemplo, en los sprays de pimienta que se usan como arma de defensa personal no letal. Es más antiguo de lo que pensamos pues, entre los aztecas, se castigaba a los niños con humo de una hoguera en la que se quemaban chiles picantes. Ese humo también se utilizaba como arma de guerra para rendir a combatientes cercados. Y la crema de capsaicina sirve para aliviar dolores musculares.

Como ejemplo de la utilización de la Escala Scoville para la fabricación de armas (quién lo iba a suponer) hay que mencionar que hace unos años se descubrió en la India uno de los chiles más picantes que se conoce: nada menos que 1000000. Es la variedad “Bhut Jolokia” de la especie Capsicum chinense. Lo han estudiado en detalle Paul Bosland y Jit Baral, de la Universidad del Estado de Nuevo Mexico en Las Cruces. De inmediato, los investigadores de la Organización de Investigación y Desarrollo para la Defensa de la India, en Nueva Delhi, se han interesado en el “superchili” con la intención de fabricar granadas similares a las de gas lacrimógeno para disolver manifestaciones. Incluso, en Estados Unidos, ya se ha presentado una patente para fabricar un spray de defensa personal. Seguro que no era esto lo que tenía en mente Wilbur Scoville cuando desarrolló su Examen Organoléptico.

Por cierto, unos consejos finales. Ante la sensación de picor no hay que beber agua pues la capsaicina, sustancia lipofílica que se disuelve en grasas y no en agua, no se eliminará. Es bueno masticar pan y, todavía mejor, el aceite y la leche entera. Lo más gustoso es mojar pan en aceite.

Para terminar, una receta sencilla y rápida que nos explica Rafael Castellanos en su “Cocina romántica”: es el arroz con pimientos.

En una cazuela con un poco de aceite freímos cebolla picada; cuando este pochada añadimos el arroz, se revuelve un poco y se ponen los pimientos enteros, se llena con agua la cazuela, ponemos pimienta y azafrán y se cuece. Servir”.

Abad Alegría, F. 2001. Color rojizo en nuestra historia culinaria. El especiado con azafrán, y pimentón en las cocinas hispanas. Discurso de Ingreso en la Academia Aragonesa de Gastronomía. Zaragoza.

Referencias:

Andrews, J. 2000. Chilli peppers. En “The Cambridge world history of food, Vol 1”, p. 281-288. Ed. por K.E. Kiple & K.C. Ornelas. Cambridge University Press. Cambridge. 1120 pp.

Basu, S.K. & A.K. De. 2003. Capsicum: historical and botanical perspectives. En “Capsicum. The genus Capsicum”, p. 1-15. Ed. por A.K. De. Taylor & Francis. London and New York.

Bosland, P.W. & J.B. Baral. 2007. “Bhut Jolokia”-The world’s hottest known chile pepper is a putatuve naturally occurring interspecific hybrid. HortScience 42: 222-224.

Bryant, V. & G. William-Dean. 1975. The coprolites of man. Scientific American. January.

Callen, E.O. 1967. Analysis of the Tehuacan coprolites. En “Science in archaeology”. Ed. por Brothwells & E. Higgs. Thames& Hudson. London.

Castellano, R. 1995. La cocina romántica. R & B Ed. Donostia.

Castillo, J. 1973. Recetas de 200 cocineros de sociedades vascas. Ed. del Autor. San Sebastián.

Caterina, M.J. et al. 1997. The capsaicin receptor: a heat-activated ion cannel in the pain pathway. Nature 389: 816-824.

Chayapathy, N.P.B., G. Parvatam, V. Kumar & G.A. Ravishankar. 2006. Spray formulation for pungency enhancement in Capsicum. US Patent nº.: US2006/0073121 A1.

Heiser, C.B. & B. Pickersgill. 1969. Names for the cultivated Capsicum species (Solanaceae). Taxon 18: 277-283.

Huang Su Huei. 1972. Chinese cuisine-Wei-Chuan cooking book. School of the Home Economics. Taipei, Taiwan. 181 pp.

Long-Solís, J. 1998. Capsicum y cultura. La historia del chilli. Fondo de Cultura Económica. México.

Long-Tavell, J. 2011. El Capsicum a través de la historia mexicana. En “El chile, protagonista de la Independencia y la Revolución”, p. 7-19. Ed. por K. Richterich. Fundación Herdez. México.

López Riquelme, G.O. 2003. Chili, la especia del Nuevo Mundo. Ciencias 69 marzo: 66-75.

Mathur, R., R.S. Dangi, S.C. Dass & R.C. Malhotra. 2000. The hottest chilli variety in India. Current Science 79: 287-288.

Moreno Gómez, J. 2001. Los productos americanos en la pintura: El pimiento en el bodegón de Velázquez. Isla de Arriarán 18: 289-303.

Nilius, B. & G. Appendino. 2013. Spices: The savory and beneficial science of pungency. Reviews in Physiology, Biochemistry and Pharmacology doi: 10.1007/112_2013_11

Pérez Castañeda, L.M. et al. 2015. Avances y perspectivas sobre el estudio del origen y la diversidad genética de Capsicum spp. Ecosistemas y Recursos Agropecuarios 2: 117-128.

Perry, L. et al. 2007. Starch fossils and the domestication and dispersal of chili peppers (Capsicum spp. L) in the Americas. Science 315: 986-988.

Pickersgill, B. 1961. The domestication of chilli peppers. En “The domestication and exploitation of plants and animals”. Ed. por P.J. Ucko & G.W. Dimbley. Duckorth. London.

Pickersgill, B. 1971. Relationships beetwen weedy and cultivated forms in some species of chilli peppers (Genus Capsicum). Evolution 25: 683-691.

Proctor, V. 1968. Long distance dispersal of sedes by retention in digestive tract of birds. Science 160: 321-322.

Rozin, P. & P. Schiller. 1980. The nature and acquisition of a preference for chilli pepper by humans. Motivation Emotion 4: 77-101.

Scoville, W.L. 1912. Note on Capsicums. Journal of American Pharmaceutical Association 1: 453-454.

Spence, C. 2018. Why is piquant/spicy food so popular? International Journal of Gastronomy and Food Science 12: 16-21.

Stewart, Jr., C. et al. 2007. Genetic control of pungency in C. chinense via the Pun1. Journal of Experimental Botany 58: 979-991.

Suzuki, J.I. et al. 1957. Some observations on red pepper. Food Technology 11: 100-103.

Tewskbury, J.J. et al. 2006. Where did the chili get its spice? Biogeography of capsaicinoid production in ancestral wild chili species. Journal of Chemical Ecology 32: 547-564.

Tominaga, M. & D. Julius. 2000. Capsaicin receptor in the pain pathway. Japan Journal of Pharmacology 83: 20-24.

Weber, L.V. et al. 2016. Expression and functionality of TRPV1 in breast cancer cells. Breast Cancer – Targets and Therapy 8: 243-252.

Wikipedia. 2018. Capsicum. 4 noviembre.

Yang, F. & J. Zheng. 2017. Understand spiciness: mechanism of TRPV1 channel activation by capsaicin. Protein Cell 8: 169-177.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Ingredientes para la receta: El pimiento se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ingredientes para la receta: El ajo
  2. Ingredientes para la receta: El conejo
  3. Ingredientes para la receta: El kiwi
Categorías: Zientzia

La tabla periódica en el arte: Arsénico

Dom, 2019/07/28 - 11:59

No diga veneno, diga arsénico. Pocos elementos químicos imponen tanto respeto como el arsénico. Lo usaron los Borgia para quitarse del medio a sus enemigos políticos y más de un noble para acceder a su herencia antes de tiempo. También ha servido para mandar al otro barrio a algún que otro marido y para dar de baja a todo tipo de personajes de novela negra. Pero si miramos más allá de su toxicidad, veremos que el arsénico es un elemento que ofrece un arcoíris de colores en forma de pigmentos.

Imagen 1. Un recipiente de pintura verde etiquetado como veneno. Fuente: Wikimedia Commons.

 

Cuando el verde puede matar

El sueco Carl Wilhem Scheele ocupa un lugar de honor en el Olimpo de la química. Y eso que uno de sus más grandes descubrimientos no ha servido para granjearle muy buena fama. En 1775 sintetizó un pigmento de un agradable color verde más duradero que los carbonatos de cobre ampliamente utilizados hasta esa fecha. El proceso para lograrlo no era excesivamente complicado: calentar una disolución de carbonato de sodio en la que poco a poco se disolvía óxido de arsénico, añadir sulfato de cobre, recoger el precipitado que se formaba y calentarlo. Así se obtenía el verde de Scheele (principalmente CuHAsO3), un sólido que cambiaba de tonalidad según la proporción de cobre y arsénico.

Sin embargo, había un problema: la elevada toxicidad del arsénico. Según nos cuenta la historiadora Victoria Finley, el propio Scheele estaba al tanto del problema y en 1777 escribió a un colega preocupado porque pensaba que se debía alertar del peligro a los consumidores. Como con las cajetillas de tabaco, vamos. Sea como fuere, el producto salió al mercado al año siguiente y tuvo un éxito arrollador.

Imagen 2. Un grabado del s. XIX que hace referencia a la toxicidad del arsénico. Fuente: Wellcome Images.

 

El éxito fue todavía mayor cuando, con el cambio de siglo, apareció un compuesto similar más estable (3 Cu(AsO2)2·Cu(CH3COO)2). En su preparación se empleaba ácido acético, pero la fórmula se mantuvo en secreto hasta que fue descubierta por un joven Justus von Liebig. Liebig y Scheele, dos grandes químicos unidos por el verde y por el arsénico. El pigmento tuvo muchos nombres: verde esmeralda, verde de París, verde Veronés, etc. Pero que sus evocadores nombres no nos dejen engañar. Si, además de usarse en pintura, sirve de raticida por algo será.

Estos nuevos pigmentos verdes no solo entusiasmaron a los prerrafaelitas y los impresionistas, sino que triunfaron como tinte para los vestidos de señora, para dar color a libros, velas y jabones y, especialmente, para colorear el empapelado de las casas. Ni en la más macabra trama urdida por Agatha Christie hubiera habido tanto arsénico. Ya en 1857 un doctor de Birmingham advertía en la prestigiosa The Lancet sobre los peligros del papel teñido de verde: “En una ocasión un niño chupó unas tiras de papel y apenas escapó con vida”.

Pero, ¿era necesario chupar el papel para envenenarse? En absoluto. Existen otras dos teorías para explicar el envenenamiento por el “empapelado asesino”. La primera apunta a que pequeñas partículas de pintura se descascarillaban y podían entrar en el sistema respiratorio como si fuesen motas de polvo. La segunda resulta mucho más interesante desde el punto de vista científico. En condiciones de humedad pueden aparecer ciertos mohos en la pared. Estos mohos, en su afán por sobrevivir a las altas cantidades de arsénico, lo metabolizan y forman compuestos orgánicos volátiles. De la pared al aire y del aire a los pulmones.

Podríamos recrearnos en el uso del arsénico como veneno y hablar de una de sus (supuestas) víctimas más ilustres: Napoleón. Por poético que resulte y por mucho que se repita, es muy poco probable que fuese este elemento quien asesinó Emperador. Dicho esto, hablemos de un tema más agradable: la pintura. Lo cierto es que se conocen pocas obras que contienen verde de Scheele. Básicamente porque la aparición al de poco tiempo del verde esmeralda le comió la tostada. Aun así, no podemos pasar por alto al más ilustre pintor de acuarelas de todos los tiempos: Joseph Mallord William Turner. Paradójicamente, la obra en la que se ha encontrado este pigmento es un óleo.

Imagen 3. Guildford desde la orilla del rio Wey (25×20 cm), de Turner (1805). Fuente: TATE.

 

El verde esmeralda fue uno de los verdes más importantes del s. XIX como demuestra la lista de ilustres pintores que lo usó: Manet, Monet, Pisarro, Gauguin, etc. Pero si alguien destaca sobre todos los demás, ese es van Gogh. Entre 1888 y 1889 el pintor holandés mantuvo una producción frenética en Arles. Allí realizó varios retratos a la familia Roulin, cuyos miembros posaron sin descanso mientras el artista daba espesas pinceladas de verde esmeralda. ¡Qué pensarían Joseph, Augustine, Armand, Camille y Marcelle si les hubiesen dicho que sus rostros iban a colgarse en los museos más importantes del mundo!

Imagen 4. Retrato del cartero Joseph Roulin (81×65 cm) y Madame Roulin meciendo la cuna (93×74 cm), de Vincent van Gogh (1888 y 1889). Fuente: Wikimedia Commons.

El amarillo del rey

La palabra arsénico deriva de arsenikon que en griego significa viril o macho. No parece una etimología muy apropiada hasta que no se indaga un poco más. El vocablo griego proviene a su vez del persa zarnik donde encontramos la raíz que significa oro. Esto ya empieza a cobrar sentido. Ese es el nombre que se le daba un mineral compuesto por azufre y arsénico que tiene color dorado. Hoy en día lo llamamos oropimente (As2S3), del latin auripigmentum. De hecho, los alquimistas estaban convencidos de que contenía oro y trataron por todos los medios de extraer del mineral el más preciado de los metales. Obviamente, lo único que lograron fue algún que otro envenenamiento.

Imagen 5. Oropimente en forma mineral (dorado) junto con rejalgar (anaranjado). Fuente: James St. John

El oropimente tiene un color amarillo brillante que ha hecho que se emplee como pigmento desde los tiempos del Imperio Nuevo de Egipto (s. XVI a.e.c.). En cualquier caso, tampoco ha sido el amarillo más popular, quizás porque se ennegrece en contacto con muchos otros pigmentos o porque es muy venenoso. Si Scheele se preocupaba por la toxicidad de su verde en el s. XVII, Estrabón ya hablaba de los peligros del arsénico en época de Augusto. En su Geografía cuenta cómo hace 2000 años los condenados a trabajar en las minas de Asia Menor morían por culpa de la sandáraca. Hoy sabemos que se refería al oropimente o al rejalgar, del que nos ocuparemos más adelante. En la Edad Media también eran muy conscientes de que el oropimente debía ser tratado con respeto. Ya lo advertía Cennino Cennini en su indispensable Libro del Arte “Amarillo es un color que se denomina oropimente. Dicho color es artificial y hecho de alquimia; es realmente venenoso, y de una bella tonalidad amarilla que recuerda al oro”.

Este pasaje nos transporta inevitablemente a la manufactura del pigmento dorado. Pese a que se puede obtener de forma natural del mineral homónimo, desde época medieval se produce artificialmente. La mejor receta nos la dejó el químico y farmacéutico Robert Dossie en el s. XVIII. En ella explica cómo el arsénico en polvo debe mezclarse con flores de azufre en proporción de veinte a uno. Luego se calienta la mezcla para lograr la sublimación (pasar de sólido a gas) y se recoge el oropimente. Al parecer el pigmento logrado de forma sintética se conocía como amarillo del rey y era de mayor pureza. Recuerden, lo natural no tiene por qué ser mejor.

Aunque hemos dicho que este pigmento no ha sido excesivamente empleado a lo largo de la historia (occidental), hay unas cuantas obras de gran relevancia que podemos destacar. Para reflejar la variedad de técnicas y soportes en las que se ha empleado mencionaremos el singular libro de Kells en el Trinity Collegue (s. IX), el altar de Esquius en el Museo Nacional de Arte de Cataluña (s. XII) o las pinturas de la cúpula de la mezquita Al-Aqsa de Jerusalén (s.XIV).

Imagen 6. El oropimente está presente en el Libro de Kells (Trinity College), el Altar de Esquius (Museu Nacional d’Arte de Catalunya) y las pinturas de la cúpula de la Mezquita Al-Aqsa en Jerusalén (Wikimedia Commons).

 

Pero quedémonos con un óleo barroco que muestra cómo las obras de arte están vivas y cambian con el tiempo. Jan Davidsz. de Heem pintó una guirnalda con frutas y flores en la segunda mitad del s. XVII que hoy podemos disfrutar en el Rijksmuseum de Amsterdam. Bajo la granada que muestra su apetitoso contenido cuelga un cítrico con un aspecto poco atractivo. Los análisis químicos nos han permitido saber que posiblemente el fruto fuese de un color mucho más vivo y brillante, no en vano estaba pintado con oropimente. Pero este pigmento se puede degradar a óxidos de arsénico y desvanecerse. Al analizar las diferentes capas de la pintura se observó que los óxidos habían penetrado hacia el interior del cuadro y habían reaccionado con el plomo de otros pigmentos. Todo ello dio como resultado una especie de limón que ha madurado en exceso.

Imagen 7. Guirnalda con frutas y flores (74×60 cm), de Jan Davidsz. de Heem (ca. 1665). Fuente: Rijksmuseum

El polvo de la cueva

El oropimente tiene un primo de color naranja y composición química similar conocido como rejalgar (As4S4, As2S2 o AsS). Con dicho nombre sólo puede tener origen árabe: ráhǧ alḡár “polvo de la mina”. No en vano, al igual que el oropimente, es un mineral natural que, como decíamos antes, los romanos llamaban sandáraca. Posiblemente por el parecido, esta palabra se usa hoy para una resina de color rojizo en un caprichoso cruce etimológico entre dos materiales artísticos.

Imagen 8. El rejalgar en forma mineral (arriba) y la resina sandáraca (abajo). Fuentes: Wikimedia Commons.

El rejalgar ha tenido un papel menos importante que el oropimente en la Historia del Arte, así que podemos decir que es el primo pobre. Incluso hay quien lo llamaba oropimente quemado, como si no tuviese entidad para tener su propio nombre. Eso no quiere decir que no haya tenido su momento de gloria. En China se usaba con frecuencia y en Persia e India, por ejemplo, se empleó en la elaboración de manuscritos. De hecho, en la medicina oriental tuvo un importante rol en medicina. Será por aquello de que lo que no te mata te hace más fuerte.

Dado que oropimente y rejalgar están inevitablemente unidos, pondremos el broche final a este artículo con una obra maestra en el que ambos pigmentos conviven en armonía. Se trata del retrato de Vincenzo Morosini realizado por Tintoretto, uno de los grandes exponentes de la escuela veneciana. Aquella en la que el color lo dominó todo. Y para colores los del arsénico, que además de los pigmentos verdes, amarillos y naranjas que acabamos de ver, está presente en el azul esmalte y en el violeta de cobalto.

Imagen 9. Retrato de Vincenzo Morosini (85×52 cm), de Tintoretto (1580). En la banda del personaje se ha detectado oropimente y rejalgar. Fuente: National Gallery.

 

Para saber más:

E. West FitzHugh. Artist’s Pigments: A Handbook of Their History and Characteristics. (Volume 3). National Gallery of Art (1998).

N. Eastaugh, V. Walsh, T. Chaplin y R. Siddall. Pigment Compendium: A Dictionary and Optical Microscopy of Historic Pigments. Routledge, Londres (2008).

V. Finlay. Colores. Editorial Océano, Barcelona (2004).

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo La tabla periódica en el arte: Arsénico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: Cobre
  2. La tabla periódica en el arte: Cobalto
  3. La tabla periódica en el arte: ¿Qué átomos hay en una obra?
Categorías: Zientzia

La trama vasco-rusa que eliminó a España del Mundial 2018

Sáb, 2019/07/27 - 11:59

El fútbol es el deporte alrededor del cual orbitan, además de los miles de fieles seguidores, sectores como la hostelería, el periodismo, la publicidad o la moda. Pero, ¿hay lugar para la ciencia?

Aunque resulte difícil imaginar la relación que pueda existir entre disciplinas científicas como la física, las matemáticas o la antropología y el fútbol, cada vez son más las ocasiones en las que, sorprendentemente, la ciencia puede explicar muchos de los acontecimientos que suceden en un campo de fútbol e incidir en aspectos como la mejora del rendimiento de los jugadores y, en consecuencia, de los resultados.

La relación entre estas dos disciplinas fue el hilo conductor de un ciclo de conferencias organizado por la Cátedra de Cultura Científica con el apoyo de la Diputación Foral de Bizkaia y la colaboración de Fundación Española para la Ciencia y la Tecnología (FECYT) Ministerio de Ciencia, Innovación y Universidades”, que tuvo lugar en el Bizkaia Aretoa de la UPV/EHU de Bilbao los meses de octubre y noviembre de 2018. Enmarcado en el ciclo de conferencias “Zientziateka”, que contó con cinco conferencias impartidas por especialistas de diversos campos en las que se ilustró la conexión que existe entre diferentes disciplinas científicas y el fútbol.

 

José Manuel López Nicolás, doctor en Ciencias Químicas y catedrático de Bioquímica y Biología Molecular en la Universidad de Murcia, explica en esta conferencia inaugural la importancia que tiene la multidisciplinariedad científica en el fútbol moderno. Para ello analiza las claves que llevaron a la selección española a la eliminación del último mundial, siguiendo un sorprende hilo conductor que vinculará a científicos, entrenadores y futbolistas de diferentes épocas y nacionalidades.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo La trama vasco-rusa que eliminó a España del Mundial 2018 se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Redescubriendo el primer arte vasco: nuevos hallazgos, nuevas investigaciones
  2. Las pruebas de la educación 2018: El coloquio
  3. Ciencia, arte y cultura callejera: física y música
Categorías: Zientzia

La inflación y el fondo de microondas cósmico

Vie, 2019/07/26 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Cuando pensamos en el origen del universo nos viene a la cabeza el Big Bang: una explosión en la que se creó un Universo muy caliente, el que con el paso del tiempo se ha ido enfriando y donde se han formado las galaxias, estrellas y planetas que ahora vemos en el firmamento. También nos dicen que en el Big Bang se crearon el espacio y el tiempo, así que no había “nada” antes del Big Bang, porque no había “antes”. Los cosmólogos trabajamos en entender como ocurrió el Big Bang, y si realmente hay “antes” o no.  De hecho, aunque el Big Bang explica gran parte de lo que es nuestro Universo, hay algunos problemas que no están resueltos, lo que ha llevado a lo que llamamos paradigma de la Inflación; lo que a su vez nos ha llevado a reinterpretar lo que entendemos por el Bang del Big Bang.

Para entender por qué necesitamos la inflación, y por qué estamos bastantes seguros de que realmente sucedió, tenemos que explicar un proceso físico que ocurrió en el Universo Primitivo: la Radiación de Fondo de Microondas (o CMB en inglés, “Cosmic Microwave Background”). El Universo primitivo está formado, entre otras cosas, por una sopa de electrones, protones y fotones (partículas de luz). Estos tres ingredientes los tenemos también en el Universo actual: la luz que nos llega del sol, o de una bombilla, está formada por fotones. Y casi todo lo demás de nuestro alrededor (incluyéndonos a nosotros mismos) está formado de átomos que a su vez están formados por protones y electrones (y neutrones, pero para nuestro argumento los vamos a obviar).

En el Universo primitivo, estos ingredientes existían, pero no estaban los átomos por un lado y la luz por otro: la temperatura era tan alta (la luz tenía tanta energía) que interactuaba con los átomos rompiéndolos en protones y electrones. Así que todas las partículas formaban una sopa donde todas las partículas chocaban entre ellas. Por lo tanto, las distancias que recorría una partícula de luz eran cortas, ya que nada más empezar su camino chocaba con un electrón.

Recordemos que el Universo se está expandiendo y se está haciendo cada vez más frío, o en otras palabras, las partículas de luz cada vez tienen menos energía. Llega un momento (cuando el Universo tiene más o menos 380000 años) en el que los electrones se unen a los protones, y los fotones no tienen suficiente energía para volver a separarlos. A partir de ese momento, los fotones no chocan con electrones libres, y de repente, la mayoría de fotones simplemente siguen su camino sin ningún tipo de obstáculo… hasta hoy! Ahora mismo estamos recibiendo fotones que empezaron su camino   cuando el universo tenía 380000 años, y han viajado durante más de 13000 millones de años hasta llegar a nosotros.

La primera detección del CMB (esos fotones que nos están llegando ahora) en los años 60 marca un hito muy importante en la historia de la Cosmología ya que dio el respaldo definitivo a la idea de que nuestro universo se inició en una gran explosión. Desde entonces ha habido muchos otros experimentos, como por ejemplo COBE (cuyos directores recibieron el Nobel en 2006), WMAP, y más recientemente Planck. Cada uno de estos experimentos ha obtenido una imagen cada vez más nítida, y con mayor resolución de un universo mucho más joven que el actual. Estos avances en la observación del universo primordial han abierto una nueva era, que conocemos como “Cosmología de precisión”. Gracias al apabullante éxito de estos experimentos los cosmólogos hemos podido obtener una gran cantidad de información sobre los primeros instantes del Big Bang y de la física que gobernaba el universo en esos momentos.

Arriba: Ilustración de los satélites CBE, WMAP y Planck, con una imagen muestra resolución de cada experimento. Abajo: mapa de la radiación del Fondo de Microondas obtenida con Planck. Fuente: Astronomy/OpenStax CNX.

Como hemos mencionado arriba, aunque el Big Bang explica mucho, no explica todo. Algunos de los hallazgos de los experimentos del CMB no podían ser explicados por la teoría del Big Bang que había entonces. Faltaban algunos ingredientes (como por ejemplo la materia oscura y la energía oscura). La teoría del Big Bang tampoco explica cómo y por qué ocurrió el «Bang», ni tampoco cómo se crearon las fluctuaciones (pequeñas diferencias) en los fotones del CMB que se observan y que dan lugar a las galaxias que vemos hoy en día. Todo esto requirió un cambio radical de nuestro entendimiento del principio del Big Bang para poder explicar los datos: la inflación.

La inflación es un periodo del universo primitivo en el que el Universo crece muchísimo muy rápido. Así, en un periodo de tiempo muy pequeño, el Universo se hace enorme. Eso conlleva que lo que fuera que hubiera al principio de la inflación, se diluye muchísimo; o dicho de otra manera, al final de inflación el universo está vacío. Sin embargo, ese vacío tiene mucha energía. Esto no es lo que vemos hoy en día; necesitamos un proceso para “repoblar” el Universo. A ese proceso se le llama recalentamiento (“reheating” en inglés), y es el que se encarga de “reciclar” la energía de inflación y así crear partículas para que formen galaxias, estrellas y planetas.  

Por otro lado, este periodo inflacionario predice la existencia de pequeñas perturbaciones en la energía típica en cada punto del espacio. Esto es debido al efecto de la Mecánica Cuántica durante la inflación. Esto puede parecer contradictorio ya que normalmente asociamos la Mecánica Cuántica a los procesos subatómicos, esto es, a procesos a escalas muy pequeñas. Sin embargo hay que recordar que durante la inflación el universo se expande de forma brutal. Este proceso aumenta de tamaño las pequeñas vibraciones a nivel microscópico debidas a la Mecánica Cuántica hasta hacerlas tan grandes que acaben siendo relevantes a escalas macroscópicas. Este es quizás una de las mayores aportaciones de inflación a la cosmología y pone en contacto dos áreas de conocimiento que difícilmente se encuentran, la Mecánica Cuántica y la gravedad.

 

Por lo tanto, de pensar que el Universo (y el espacio y el tiempo) se formó en el Big Bang, hemos pasado a pensar que fue el periodo de inflación el que dio lugar a ese Bang que ahora vemos como el origen de todo. Además, tenemos una buena idea de cómo se generaron las perturbaciones necesarias para dar lugar a las estructuras que vemos a nuestro alrededor. Todo esto gracias al modelo inflacionario del universo temprano.

Claro, esto nos lleva a preguntarnos ¿qué pasa antes de la inflación?, ¿cómo ocurre la inflación? Estas son preguntas que aún no tienen una respuesta definitiva. Tenemos varias ideas, ideas en las que trabajamos miembros de la Facultad de Ciencia y Tecnología, unas mejores que otras, pero aún no lo sabemos  a ciencia cierta.

Sobre los autores: José Juan Blanco-Pillado y Jon Urrestilla son investigadores en el Departamento de Física Teórica de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo La inflación y el fondo de microondas cósmico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El fondo cósmico de microondas y el espejo de feria
  2. Inflación caliente à la Higgs
  3. Defectos moleculares explicarían el fondo cósmico infrarrojo no identificado
Categorías: Zientzia

Las siliconas son seguras y útiles, pero no convienen a todos los cabellos

Jue, 2019/07/25 - 11:59

 

Fotografía de Antonio Terron para Telva

En una búsqueda rápida por internet sobre siliconas en productos capilares nos encontramos con una avalancha de informaciones alarmantes. Si estas alarmas fuesen ciertas, a cuento de qué seguirían existiendo cosméticos para el cabello con siliconas. Las siliconas ni son tóxicas, ni son plásticos. Su uso está permitido por las autoridades sanitarias y cumplen varias funciones en el producto: emolientes, emulsionantes, surfactantes, protectores… Mejoran la apariencia del pelo, le aportan suavidad, brillo, cuerpo, movimiento, facilitan el peinado y evitan el encrespamiento. Sin embargo, algunas siliconas en concreto, las llamadas siliconas no solubles, o las siliconas solubles presentes en mascarillas sin aclarado, pueden apelmazar algunos tipos de cabello, darles aspecto de suciedad y enmascarar un pobre estado de salud.

  • ¿Qué son las siliconas?

Las siliconas son una clase de polímero, es decir, son compuestos formados por unidades más simples que se agrupan en cadenas. Estas unidades se denominan siloxanos por contener silicio y oxígeno.

Las siliconas se pueden describir químicamente como cadenas de átomos alternos de silicio y oxígeno. A su vez, cada silicio está unido a dos radicales orgánicos (R). Estos radicales pueden ser diferentes. Dependiendo de la naturaleza de los radicales y la longitud de la silicona podemos encontrarnos con siliconas volátiles, líquidas, sólidas y con usos diversos. Sus propiedades físicas dependen de la naturaleza de estos radicales orgánicos y de los enlaces débiles que pueden establecer entre sí, afectando a su punto de fusión y a su solubilidad.

  • ¿Para qué se usan las siliconas en productos cosméticos como champús, acondicionadores y mascarillas?

Habitualmente las siliconas están presentes en los productos de cuidado del cabello porque funcionan como emulsionantes. Los emulsionantes son compuestos capaces de mantener una mezcla estable entre sustancias que en principio son inmiscibles. Muchos cosméticos tienen fase acuosa y fase oleosa, que serían inmiscibles (como agua y aceite), pero con la incorporación de emulsionantes las mezclas se vuelven homogéneas y estables.

Químicamente esto se logra incorporando grupos polares a los radicales orgánicos, así aumenta la solubilidad en fase acuosa. El proceso más habitual para lograr esto es la etoxilación. Así se obtienen la dimethicone sustituida con grupos epoxi como los dimethicone copolyols. La solubilidad de estas siliconas se mide de acuerdo al HLB. Cuanto mayor es el HLB de una silicona, mayor es su poder emulsionante.

También tienen función emoliente, para suavizar la piel y el cabello. Esta es una de las propiedades que mejor se percibe, ya que afecta a la sensorialidad. Contribuyen a sentir el pelo más limpio, suave y fácil de peinar, reduciendo la fricción.

Las siliconas más insolubles crean una capa protectora sobre el pelo que lo protegen de agresiones externas. Por ese motivo los productos que alargan la coloración de cabellos teñidos suelen contener alguna silicona.

También están presentes en los protectores térmicos, ya que las siliconas crean una capa protectora entre el cabello y las planchas, las tenacillas o el secador.

En champús funcionan como surfactantes y como vehículos, para garantizar la correcta distribución de los componentes del producto y facilitar su aplicación. Como correctores de viscosidad, para que el producto sea más fluido o viscoso. Y como humectantes, para mantener la hidratación del cabello y, por ejemplo, evitar el encrespado.

Ilustración de Tamara Feijoo
  • ¿Qué siliconas suele haber en los productos del cabello?

Todos los cosméticos cuentan con una lista de ingredientes. Estos se ordenan de mayor a menor cantidad en el producto. Y se nombran con un tipo de nomenclatura internacional denominada INCI. Son siliconas los compuestos que terminan en -methicone, -methiconol y -siloxysilicate, y los que contienen la palabra -siloxane-.

Las siliconas usadas en productos para el cabello se clasifican en: volátiles, solubles en agua e insolubles en agua. Esta es la clasificación que realmente debemos tener en cuenta a la hora de determinar si un producto capilar es o no conveniente para nuestro tipo de cabello.

  1. Siliconas volátiles

Las siliconas volátiles contienen radicales orgánicos cíclicos y un bajo peso molecular. Tienen una permanencia muy baja en el cabello. De hecho, si el producto requiere aclarado, las siliconas cíclicas se desvanecen con él. En productos sin aclarado, estas siliconas se volatilizan con el tiempo desapareciendo del pelo.

Estas siliconas son muy útiles para cabellos finos y con poco cuerpo, ya que aportan textura y brillo.

Son siliconas volátiles las siliconas que contienen el prefijo cyclo-: cyclopentasiloxane, cyclomethicone…

  1. Siliconas insolubles

Las siliconas insolubles son aquellas que tienen muy baja afinidad por el agua. También se consideran insolubles aquellas que tienen gran afinidad por el cabello a causa de su carga positiva. Ambas se consideran insolubles porque no desaparecen con el aclarado.

Las siliconas insolubles son útiles para dar un aspecto saludable a un cabello que está castigado. No recomponen el cabello, pero sí crean la apariencia de que cierran la cutícula, aportan brillo y movimiento. Esto puede entenderse como una virtud o como un defecto. Es una virtud que un cabello dañado pueda aparentar que está sano. Las siliconas insolubles son ideales para cabellos irrecuperables. No obstante, las siliconas insolubles pueden enmascarar un problema capilar. Es decir, el cabello puede estar dañado y las siliconas depositadas en su superficie nos impiden detectarlo.

Son siliconas insolubles la dimethicone, la amodimethicone, polydimethisiloxane…

Las siliconas insolubles no son aconsejables para cabellos con poco cuerpo, principalmente porque aumentan el peso del pelo y pueden llegar a apelmazarlo o a dar la sensación de cabello sucio. Esto lo que en peluquería se denomina buildup. Si el cabello tiene build up es indicativo de que lleva demasiado tiempo recubierto de siliconas insolubles. Además de afectar a su aspecto, afecta a la capacidad de absorción del pelo. El pelo tiene una estructura bastante abierta, por eso es relativamente sencillo que los principios activos penetren. Un cabello con build up es un cabello inerte.

No obstante, las siliconas no impiden que el pelo respire. Estas expresiones carecen de sentido, ya que el pelo no respira. El pelo está formado por una estructura desvitalizada, no contiene células vivas, así que ni se oxigena, ni respira, ni nada que se le parezca.

El build up tiene fácil remedio y también es fácil prevenirlo. Las siliconas insolubles no permanecen adheridas al pelo para siempre. Prácticamente cualquier tensioactivo es capaz de solubilizarlas y arrastrarlas, dejando el pelo libre de residuos de silicona. Los champús con sulfatos son muy eficaces para enmendar el build up.

También hay productos tipo champú+acondicionador que contienen siliconas insolubles, pero como a su vez contienen tensioactivos suficientemente potentes, las siliconas no quedan adheridas al cabello.

El consejo es que, si tenemos un pelo con poco volumen y con tendencia a apelmazarse, evitemos el uso de siliconas insolubles. En el caso de que usemos este tipo de siliconas porque tenemos el pelo muy castigado, o bien por el calor o el tinte, y solo estas siliconas nos hacen sentirlo jugoso, debemos usar champús con sulfatos al menos dos o tres veces al mes para evitar el buildup.

  1. Siliconas solubles

Las siliconas solubles en agua contienen un radical orgánico con cierta polaridad. Esto es lo que las hace solubles en agua.

Si están presentes en productos capilares que necesitan aclarado, no permanecen en el cabello, sino que se van por el desagüe. Son muy útiles a la hora de formular champús más suaves para el cabello y evitar posibles irritaciones provocadas por los tensioactivos.

Si están presentes en productos capilares de acabado, permanecerán sobre el cabello hasta el siguiente lavado, aportando brillo e hidratación sin apelmazar el pelo.

Son siliconas solubles las siliconas que tienen PEG- como prefijo, las que contienen la palabra copolyol, y las que terminan en -methiconol: PEG-3 dimethicone, PEG-10 dimethicone, PEG-11 methyl ether dimethicone, PEG-9 dimethicone, dimethilconol, dimethicone copolyol…

  • Los PEG no son todos siliconas. Los compuestos con silicio tampoco.

Una duda frecuente es si todos los ingredientes que comienzan por PEG son siliconas. No, no todos los PEG son siliconas. PEG es el polietilenglicol. Es un compuesto orgánico que puede estar contenido y enlazado a una silicona para aportarle, entre otras cosas, mayor solubilidad. El número que acompaña a la palabra PEG depende del peso molecular y a su vez está relacionado con la solubilidad.

Para saber si un PEG es una silicona hay que tener en cuenta si la palabra que lo acompaña es o no una silicona. Por ejemplo, sabemos que el PEG-10 dimethicone es una silicona porque contiene el sufijo -methicone. Sin embargo, el PEG-7 glyceryl cocoate no es una silicona.

También es frecuente preguntarse si todos los compuestos que hacen referencia al silicio son siliconas. No es así, hay compuestos con silicio usados en formulación cosmética que no son siliconas. Por ejemplo, ni los silicates ni los silanoles son siliconas. Aunque los nombres se parezcan tanto entre sí, son químicamente diferentes a las siliconas.

  • Siliconas e impacto medioambiental

Algunos consumidores rechazan la presencia de siliconas en sus productos para el cabello bajo la convicción de que todas las siliconas tardan mucho tiempo en biodegradarse y, por tanto, generan cierto impacto medioambiental. Esta creencia se hizo popular porque se ha tendido a comparar las siliconas con los plásticos. Aunque algunos plásticos nos recuerden a las siliconas, químicamente son muy diferentes. Los plásticos son un tipo de polímero hidrocarbonado, mientras que las siliconas están conformadas por siloxanos. Cualquier información en la que encontremos que llaman plásticos a las siliconas, o se diga que las siliconas contienen plástico, o algo similar, podemos dejar de leer y tachar esa información de poco fiable.

Muchas siliconas son fácilmente biodegradables, pero es cierto que otras pueden persistir en el medioambiente. Si las siliconas van a parar a la tierra, allí se descompondrán con cierta facilidad y no supondrán un problema. Sin embargo, las siliconas que van a parar al agua se acumulan con más facilidad. La preocupación por su posible impacto en el medio acuático es reciente, y por eso no se han hecho suficientes estudios científicos al respecto. Por este motivo resulta complejo posicionarse.

Sin embargo, las siliconas más difíciles de biodegradar, las siliconas insolubles, en países en los que el agua se trata en depuradoras antes de ser vertida al mar, quedan retenidas en el proceso, con lo cual no deberían suponer un problema medioambiental.

La dimethicone, el cyclotetrasiloxane (D4) y el cyclopentasiloxane (D5) han suscitado gran preocupación medioambiental, por eso son los compuestos que más se han estudiado. En la actualidad sabemos que, afortunadamente, tanto la dimeticona como el ciclotetrasiloxano se degradan biológicamente. Ambos se degradan a constituyentes inorgánicos: dióxido de carbono, ácido silícico y agua. No se han detectado efectos adversos en los organismos que habitan ambientes susceptibles de contener dimethicone y la cyclotetrasiloxane. Las concentraciones promedio tanto en agua como en subsuelo están muy por debajo del nivel de efectos adversos no observados. Por lo tanto, la evidencia científica indica que la dimethicone y el cyclotetrasiloxane son medioambientalmente amigables. No obstante, algunos laboratorios hace años que tomaron la determinación de eliminar el cyclotetrasiloxane (D4) de sus fórmulas ante la sospecha del posible perjuicio. Por ese motivo es poco frecuente encontrar ese compuesto en cosmética, aunque su uso está aprobado por las autoridades sanitarias.

Con respecto al cyclopentasiloxane (D5), se ha demostrado que cantidades significativas en productos de aplicación sin enjuague, como mascarillas y protectores térmicos, se evaporan durante el uso, con lo cual, no generan ningún impacto medioambiental. Se ha medido que la fracción de estas siliconas que llega al agua es tan pequeña y con tan baja permanencia que se considera insignificante.

  • Resumen y consejos

Las siliconas presentes en los productos capilares son seguras y cumplen varias funciones: emoliente, emulsionante, protector, surfactante… Suavizan el cabello, le dan brillo, cuerpo y además mejoran la sensorialidad de los productos, haciendo que su uso sea más gustoso. No obstante, las siliconas están contraindicadas para ciertos tipos de cabello. Si tu pelo tiende a apelmazarse, las siliconas empeorarán el problema. También, si tu cabello está dañado por el calor y el tinte, las siliconas pueden mejorar mucho su aspecto. Pero esto tiene su cara B, y es que las siliconas pueden enmascarar el verdadero estado de salud de tu pelo. Por estos motivos, si te gustan los productos con siliconas, deberías utilizar champú con sulfatos entre dos y tres veces por semana para evitar su acumulación y prevenir el temido build up.

El consejo de compra es que no hace falta descifrar la lista de ingredientes de los productos capilares. No se pretende que los consumidores sean químicos especialistas en cosmética. La realidad es que la mayor parte de los laboratorios lo ponen fácil cuando indican claramente para qué tipo de cabello está indicado su producto. Fijarse en esto debería ser suficiente.

Por ejemplo, un champú que dice aportar volumen y movimiento difícilmente va a contener siliconas que tiendan a apelmazar el cabello. En cambio, un champú para pelos rizados que dice evitar el frizz, el posible que lo logre por medio de siliconas. Evitará el frizz, pero si nuestro pelo es muy fino, quizá le reste volumen. Esto también pude suceder con los protectores térmicos o los productos de acabado que previenen el encrespado, que como consecuencia pueden crear el efecto de pelo sucio en menos tiempo del habitual.

Los champús y mascarillas reparadoras o los específicos para cabellos castigados por la coloración suelen contener siliconas porque precisamente es eso lo que nuestro pelo necesita para verse sano. Los productos que alargan la coloración también suelen contener siliconas que evitan que el pelo escupa el tinte.

Es interesante fijarse en la fórmula de los champús para entender por qué sirven para lo que sirven, pero no hace falta ir con lupa. La compra debe estar condicionada por las indicaciones para las que se ha formulado ese producto. De hecho, decantarse por un producto solo porque contenga o no siliconas, aunque no esté indicado para nuestro tipo de cabello, es un error. Como siempre ocurre en cosmética, la verdad de un producto no está es sus ingredientes por separado, sino en la fórmula completa.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Las siliconas son seguras y útiles, pero no convienen a todos los cabellos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El aguacate debería haberse extinguido, pero él no lo sabe todavía
  2. Puedes llamarlo responsabilidad, pero es censura
  3. ¿Son útiles los juguetes STEM?
Categorías: Zientzia

La geometría poética del cubo (2)

Mié, 2019/07/24 - 11:59

Hace unas semanas, como motivo de la exposición LANTEGI, José Ramón Anda, que puede verse en la sala Kubo Kutxa de Donostia-San Sebastián, del 23 de mayo al 25 de agosto de 2019, escribí una primera entrada en el Cuaderno de Cultura Científica titulada, al igual que esta, La geometría poética del cubo . Con esta entrada empezaba una pequeña serie sobre la investigación artística que el genial escultor navarro José Ramón Anda (Bakaiku, Navarra, 1949), una de las figuras fundamentales de la escultura vasca contemporánea, ha realizado de la estructura geométrica que subyace a la figura del cubo, en particular, a través de distintas descomposiciones de este objeto geométrico básico, que simboliza el espacio tridimensional.

Fotografía en la que estamos el escultor Jose Ramón Anda y yo, Raúl Ibáñez, con motivo del paseo matemático que realicé por la exposición Lantegi, organizada por Kubo Kutxa. Fotografía de Jon Pagola

En esa primera entrada, centré mi atención en dos descomposiciones singulares del cubo, formadas ambas por tres piezas con una cierta simetría, que había realizado José Ramón Anda cuando empezaba a dar sus primeros pasos en la abstracción geométrica. En particular, una de ellas fue el origen de la genial escultura Descomposición del cubo (1973) y ha sido fundamental en la obra del artista navarro, ya que a partir de la misma han surgido toda una serie de obras, aparentemente sin conexión alguna, pero basadas todas ellas en esta interesante y personal descomposición del cubo, y creadas en diferentes momentos de su carrera artística. Entre las obras que tienen como punto de partida esta descomposición del cubo están Homenaje a Juan de Antxieta (1979 – 1986), Haizean [Al viento] (1978 – 2002), Pilotara [A la pelota] (1980), Basaldeko ateak [Las puertas del bosque] (2011 – 2017), o Acotar el vacío I, II y III (2019), sobre las que puede leerse en la anterior entrada La geometría poética del cubo.

Cuatro montajes diferentes de la obra Descomposición del cubo (1973), de José Ramón Anda, con cuatro de las treinta fotografías que ha realizado el fotógrafo José Luis López de Zubiria de esta dinámica escultura

En esta segunda entrega de la serie La geometría poética del cubo vamos a seguir analizando algunas descomposiciones del cubo realizadas por el artista navarro, basadas en lo que en matemáticas llamamos policubos y que le han llevado a crear obras como la genial Zazpiak bat [Las siete, una] (1976), que veremos más adelante.

Los policubos son las figuras geométricas tridimensionales que se forman al unir dos o más cubos por alguna de sus caras, e incluso, podemos considerar un único cubo como un policubo trivial.

Sencillos policubos, realizados con el material LiveCube, con 1, 2, 3 y 4 cubos pequeños, respectivamente, unidos estos cubos pequeños, dos a dos, por alguna de sus caras

El artista José Ramón Anda realiza, de forma independiente a las matemáticas, una investigación plástica de las descomposiciones del cubo en policubos de la siguiente forma. Considera el cubo como formado por 27 cubos pequeños, es decir, cada lado del cubo está formado por 3 de estos cubos (siendo el cubo grande una estructura 3 x 3 x 3), y lo descompone en diferentes piezas que están formadas por la unión, cara a cara, de algunos de estos cubos pequeños, es decir, estas piezas son policubos.

Las dos descomposiciones del cubo vistas en la entrada La geometría poética del cubo, son dos ejemplos de descomposiciones del cubo 3 x 3 x 3 en policubos. En estos ejemplos, cada una de las descomposiciones estaba formada por tan solo tres policubos de 7, 7 y 13 cubos pequeños. Pero José Ramón Anda investigó muchas más descomposiciones. Algunas de ellas, al igual que las anteriores, de pocas piezas, como las que podemos disfrutar en las dos siguientes imágenes, que son pequeñas maquetas realizadas en buztina (arcilla, en euskera), y que forman parte del taller del escultor.

La primera descomposición, realizada en buztina, cuenta con tres piezas (policubos) de 4, 6 y 17 cubos pequeños. A diferencia, de las dos descomposiciones estudiadas en la anterior entrada, esta es completamente asimétrica, aunque de nuevo dispone de una potente pieza central, y con la particularidad de que dispone de un hueco central.

Maqueta, realizada en arcilla, de una descomposición del cubo en tres piezas, con 4, 6 y 17 cubos pequeños, realizada por José Ramón Anda. Fotografía de Raúl Ibáñez

La segunda maqueta de una descomposición del cubo que presentamos en esta entrada, también realizada con arcilla, está formada por tres piezas con 1, 8 y 18 cubos pequeños. En esta última descomposición podemos observar la búsqueda de una cierta autosimilitud, es decir, de repetición a escala, de las piezas que la conforman. La pieza más pequeña es un cubo (aunque resulta trivial, es pertinente indicar que es el cubo 1 x 1 x 1), la segunda pieza sería el cubo 2 x 2 x 2, menos la pieza anterior, es decir, menos el cubo 1 x 1 x 1, y la tercera pieza es el cubo 3 x 3 x 3 menos la unión de las dos anteriores, es decir, menos el cubo 2 x 2 x 2.

Maqueta, realizada en arcilla, de una descomposición del cubo en tres piezas, con 1 –esta no está en la imagen-, 8 y 18 cubos pequeños, realizada por José Ramón Anda. Fotografía de Raúl Ibáñez

De hecho, esta descomposición podría ampliarse a cubos más grandes de forma recurrente. Cada cubo de orden n, es decir, formado por n x n x n cubos pequeños, estaría descompuesto por las piezas de la descomposición del cubo de orden n – 1, más la pieza que consiste en todos los cubos pequeños que están en el cubo de orden n, pero no en el de orden n – 1. Por ejemplo, el cubo 4 x 4 x 4 estaría formado por 4 piezas, a saber, las tres anteriores de la descomposición de José Ramón Anda y la última sería el cubo 4 x 4 x 4 menos la unión de las anteriores, que es el cubo 3 x 3 x 3.

Descomposición del cubo 4 x 4 x 4, realizado con piezas del material LiveCube, siguiendo la idea del escultor José Ramón Anda

Sin embargo, otras descomposiciones del cubo en policubos, investigadas por José Ramón Anda, estaban formadas por más piezas. En particular, el artista navarro estaba interesado en descomposiciones con siete piezas. El motivo era la realización de una escultura que materializara el lema “zazpiak bat” (las siete, una), que reivindica la unión política de los siete territorios en los que se manifiesta la cultura vasca. Como indica la Auñamendi Eusko Entziklopedia, esta expresión toma cuerpo en el siglo XIX, aunque tiene sus antecedentes en el siglo XVIII y se populariza en el siglo XX. En concreto, en referencia directa al lema podemos leer: “el Zazpiak Bat como lema y divisa empieza a perfilarse ya en un poema acróstico de Felipe Casal del año 1891 titulado Ama Euskarari. Zazpiak Beti bat, «A la madre euskera. Las siete (provincias) siempre unidas«; y será al año siguiente en las Grandes Fêtes Internationales du Pays Basque, organizadas por el municipio de San Juan de Luz bajo el patronazgo de Antoine d’Abbadie, cuando aparece ya en los carteles el escudo de las siete provincias”.

A continuación, mostramos una maqueta de buztina con una descomposición del cubo en siete policubos, los cuales están formados por 1, 3, 3, 3, 4, 6 y 7 cubos pequeños. Tres de las piezas son policubos iguales, formados por 3 cubos pequeños y con forma de L y otras tres piezas son “esquinas” con diferente número de piezas cada una, 4, 6 y 7, las cuales se completan con un policubo trivial.

Maqueta, realizada en arcilla, de una descomposición del cubo en siete piezas, con 1, 3, 3, 3, 4, 6 y 7 cubos pequeños, realizada por José Ramón Anda. Fotografía de Raúl Ibáñez

Aunque, José Ramón Anda investigó muchas otras descomposiciones, en particular, la que dio lugar a la escultura Zazpiak bat [Las siete, una] (1976), realizada en madera de roble, que mostramos en la siguiente imagen.

Escultura Zazpiak bat [Las siete, una] (1976), de José Ramón Anda, en la posición en la que las siete piezas de la obra forman un cubo. Escultura realizada en roble y de unas dimensiones de 18 x 18 x 18 cmEscultura Zazpiak bat [Las siete, una] (1976), de José Ramón Anda, con las siete piezas desplegadasEn la anterior imagen se puede distinguir bien la estructura geométrica de cada una de las piezas que componen la escultura. Son siete piezas formadas por 1, 2, 4, 4, 5, 5 y 6 cubos pequeños, pero todas ellas piezas distintas entre sí.

En esta escultura podemos apreciar de nuevo, ya lo comentamos en la anterior entrada para la escultura Descomposición del cubo (1973), tres características fundamentales de la filosofía artística del escultor navarro. La primera es que José Ramón Anda concibe sus esculturas para que sean tocadas, para que pueda percibirse la forma, la textura o los materiales de cada escultura, no solo a través de la vista, sino que también mediante el tacto. Además, Zazpiak Bat [Las siete, una] (1976) es también una obra dinámica, que puede tomar diferentes formas en función de la persona que interaccione con la escultura, una de ellas el cubo tridimensional que a partir de cuya descomposición se genera. Y, además, el escultor de Bakaiku no elige una forma fija para la escultura, sino que la pieza encierra en sí misma, el germen de todas las posibles formas que se generan a partir de ella.

Aunque en esta pieza encontramos un par de diferencias significativas respecto a la escultura Descomposición del cubo (1973). La primera es que, al disponer de más piezas, se produce la curiosa circunstancia de que ya solo el intentar montar el cubo generador a partir de las siete piezas separadas es un pequeño reto, que convierte a esta escultura dinámica en una especie de puzle geométrico, de juego. De esto ya se dio cuenta José Ramón Anda, que hizo dos versiones de Zazpiak bat para una ikastola de la zona en la que tiene su taller, la ikastola Andra Mari de Etxarri Aranatz, para que los niños y niñas de la misma jugaran con ella. La segunda diferencia también está relacionada con el hecho de tener más piezas, ya que esto ofrece una mayor versatilidad en las formas que se pueden generar a partir de ella.

Mi propia versión del cubo de José Ramón Anda, realizado con las piezas del material LiveCube, para poder jugar, manipularla y crear diferentes montajes de la escultura

La investigación plástica que realiza José Ramón Anda del cubo se produce al margen de las matemáticas. Sin embargo, cuando algunas personas del ámbito de las matemáticas observamos una escultura como Zazpiak bat (1976), no podemos dejar de relacionarla con algunos puzles geométricos que han sido creados dentro de la matemática recreativa, como el cubo soma (véase la entrada Cubo soma: diseño, arte y matemáticas), que también está formado por 7 piezas, los 7 policubos irregulares con 4, o menos, cubos pequeños, o el cubo de Steinhaus, formado por 6 piezas.

Las siete piezas del cubo soma, en la versión a color y magnética que ha sacado la empresa Lúdilo bajo el nombre cubimag

Este es un nuevo ejemplo de cómo dos investigaciones paralelas, una artística y otra matemática, puede llevar a resultados relacionados.

En esos últimos años de la década de 1970, José Ramón Anda realiza otra versión muy interesante de la escultura Zazpiak bat, que podemos relacionar con otro objeto matemático, los fractales (concepto matemático que el escultor desconoce cuando realiza esta creación artística), o más concretamente, con una de sus propiedades, la autosemejanza, es decir, la repetición a escala.

La nueva versión de la escultura Zazpiak bat [Las siete, una], también realizada en madera de roble y con un tamaño de 18 x 18 x 18 cm, toma como base la anterior descomposición del cubo en siete piezas, pero montado de tal forma que el policubo trivial, es decir, la pieza con un solo cubo pequeño, está en una esquina superior. Y sobre este pequeño cubo, José Ramón Anda realiza de nuevo la descomposición en siete piezas. Es decir, la nueva escultura Zazpiak bat está formada por dos descomposiciones del cubo a diferentes escalas. Esta escultura fue expuesta, y vendida, en una exposición individual organizada en la Librería Axular, de Vitoria-Gasteiz, en 1979, pero no se conserva ninguna imagen de la misma. Por este motivo, he realizado un sencillo modelo de la escultura con el programa SketchUp.

Modelo, realizado con el programa SketchUp, de la versión fractal de la escultura de José Ramón Anda, Zazpiak bat (década de 1970), realizada originalmente en madera de roble y de un tamaño de 18 x 18 x 18 cm

La investigación geométrico-plástica que realiza el escultor José Ramón Anda de la figura del cubo, no se limita a las descomposiciones mediante policubos, sino que también investiga otras propiedades de este objeto geométrico. Por ejemplo, una de ellas está relacionada con las secciones del cubo, empezando por un vértice, que consisten en triángulos y hexágonos. Precisamente, la escultura que ya mostramos en La geometría poética del cubo, titulada Nahi eta ezin [Querer y no poder] (1975), está relacionada con esta propiedad geométrica.

Sin embargo, me gustaría terminar esta entrada del Cuaderno de Cultura Científica con una hermosa maqueta, realizada una vez más con buztina, de una gran riqueza geométrica y plástica, que analiza la existencia de un tetraedro regular dentro del cubo.

Maqueta de buztina del escultor José Ramón Anda, basada en la existencia de un tetraedro regular dentro de un cubo. Fotografía de Raúl Ibáñez

Como se puede apreciar en la anterior imagen, los seis lados del tetraedro (recordemos que un tetraedro es uno de los cinco solidos plátónicos, es decir, poliedros regulares, que existen y que está formado por cuatro caras triangulares –podemos decir que es una pirámide de base triangular-, seis lados o aristas y cuatro vértices) son las seis diagonales del cubo, luego todas de la misma longitud, en el que está incluido el tetraedro.

Fotografía de las esculturas de José Ramón Anda, Obelisco (1999-2003), en madera de roble, 79 x 16 x 19 cm, y Obelisco II (2000-2001), en madera de boj, 37 x 10,5 cm, en la exposición LANTEGI, José Ramón Anda, en la sala Kubo Kutxa de Donostia-San Sebastián. Fotografía de Raúl Ibáñez

Bibliografía

1.- Jose Ramón Anda (escultor), Javier Balda (comisario), Lantegi, José Ramón Anda (catálogo), Sala Kubo Kutxa (Donostia-San Sebastián), 23 de mayo – 25 de agosto de 2019, Kutxa Fundazioa, 2019.

2.- Página web de la Sala Kubo Kutxa

3.- Página web del artista José Ramón Anda

4.- Jose Ramón Anda (escultor), Javier Balda (comisario), José Ramón Anda. Causa formal y materia – Kausa formala eta materia, Museo Oteiza (Alzuza, Navarra), 21 de junio – 1 de octubre de 2017, Fundación Museo Oteiza, 2017.

5.- Jose Ramón Anda (escultor), Javier Balda (comisario), José Ramón Anda, Denboraren aurkako formak, Formas contra el tiempo, Museo de Bellas Artes de Bilbao, 7 de mayo – 9 de septiembre de 2012, Museo de Bellas Artes de Bilbao, 2012.

6.- Auñamendi Eusko Entziklopedia: zazpiak bat

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo La geometría poética del cubo (2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La geometría poética del cubo
  2. El cubo soma: diseño, arte y matemáticas
  3. Arte y geometría del triángulo rectángulo: Broken Lights
Categorías: Zientzia

Rayos X, ¿ondas o partículas?

Mar, 2019/07/23 - 11:59
Primera difracción de rayos X efectuada por el CheMin (rover Curiosity) del suelo marciano. Fuente: NASA/JPL-Caltech/Ames

Un problema que despertó un gran interés tras el descubrimiento de los rayos X se refería a la naturaleza de estos rayos misteriosos. A diferencia de las partículas cargadas (electrones, por ejemplo), no se desviaban por los campos magnéticos o eléctricos. Por lo tanto, parecía que tenían que ser partículas neutras u ondas electromagnéticas.

Era difícil elegir entre estas dos posibilidades. Por una parte, no se conocían partículas neutras de tamaño atómico (o más pequeñas) que tuvieran el poder de penetración de los rayos X. La existencia de unas partículas así sería extremadamente difícil de probar, porque no había manera de interactuar con ellas [1]. Sin embargo, se encontró que los rayos X tenían propiedades cuánticas, lo que significaba que también exhibían un comportamiento similar a las partículas. Por ejemplo, pueden causar la emisión de electrones de los metales. Estos electrones tienen mayores energías cinéticas que los producidos por la luz ultravioleta [2]. Por lo tanto, los rayos X también requieren de la teoría cuántica para explicar algunos de sus efectos.

Por otro lado, si los rayos X eran ondas electromagnéticas, tendrían que tener longitudes de onda extremadamente cortas porque solo en este caso, según la teoría, podrían tener un alto poder de penetración y no mostrar efectos de refracción o interferencia con aparatos ópticos ordinarios como era el caso. Como vimos al hablar de ondas, las propiedades claramente ondulatorias se hacen evidentes solo cuando las ondas interactúan con objetos, como las rendijas en una barrera, que son más pequeños que varias longitudes de onda. Las longitudes de onda hipotéticas para los rayos X tendrían que ser del orden de 10-10 m. Por lo tanto, para demostrar de su comportamiento como onda requeriría una rejilla de difracción con hendiduras separadas aproximadamente 10-10 m. La teoría cinética y la química del XIX apuntaban a que os átomos tenían precisamente del orden de 10-10 m de diámetro. Parecía razonable, por tanto, que los rayos X pueden ser difractados de forma medible por cristales en los cuales los átomos forman capas ordenadas separadas 10-10 m.

Estos experimentos tuvieron éxito en 1912. Las capas de átomos actuaron como redes de difracción, y los rayos X sí actuaron como cabía esperar de una radiación electromagnéticas de longitud de onda muy corta (como la luz ultravioleta). Estos experimentos son más complicados de interpretar que la difracción de un haz de luz mediante una rejilla óptica bidimensional única. El efecto de difracción se produce en tres dimensiones en lugar de dos. Por lo tanto, los patrones de difracción son mucho más elaborados [3].

Walter Friedrich y Paul Knipping (del departamento de Arnold Sommerfeld en la Universidad de Munich), comprobaron la existencia de un patrón de difracción de rayos X en un cristal de sulfuro de cinc (ZnS). La explicación de este hallazgo llevaría a que un jovenzuelo llamado William Lawrence Bragg ganase el premio Nobel de física con solo 25 años.

La comunidad científica estaba ante otro hecho sorprendente: como le ocurre a la luz, los rayos X tienen propiedades de onda y de partícula.

Notas:

[1] Un problema parecido formalmente al que existe en la actualidad con la naturaleza de la materia oscura, que no interactúa con la radiación electromagnética y de la que solo se detectan efectos gravitatorios.

[2] La ionización de los gases por rayos X es también un ejemplo del efecto fotoeléctrico. En este caso, los electrones se liberan de los átomos y las moléculas del gas.

[3] Aunque tampoco es para tanto. En Generación X dimos una introduccion muy simple a la idea.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Rayos X, ¿ondas o partículas? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las partículas de los rayos catódicos
  2. Reflexión de ondas: rayos
  3. Rayos X y gamma
Categorías: Zientzia

Por qué es tan difícil investigar la depresión en modelos animales

Lun, 2019/07/22 - 11:59
Foto: Pixabay

Existe una prueba muy común en la investigación sobre procesos depresivos y medicamentos antidepresivos llamada el test de natación forzada. En esta prueba se suelta a un ratón del laboratorio en una cubeta con agua dos veces en días cercanos y se mide cuanto tiempo tarda en rendirse y dejar de nadar en ambas ocasiones. Se considera que una reducción de ese tiempo de un experimento al siguiente está relacionada con un mayor riesgo de síntomas depresivos, una suerte de desesperanza vital, de apatía y sentimientos negativos que se relacionaría con el riesgo de depresión en seres humanos.

Como decimos, es un test común en las investigaciones que tratan de encontrar y mejorar terapias para tratar la depresión y otras enfermedades mentales relacionadas. Se ha empleado con resultados eficaces, por ejemplo, en el desarrollo de un tipo de medicamentos antidepresivos llamados ISRS (inhibidores selectivos de la recaptación de serotonina): los ratones que recibían estos compuestos luchaban por mantenerse a flote más tiempo que los que no los tomaban.

Foto: Wikimedia Commons

¿Y si los ratones dejan de nadar por otros motivos?

Sin embargo, esta prueba está en el centro de un debate más amplio, que cuenta aquí la revista Nature, que se cuestiona si realmente sirven estos modelos animales a la hora de tratar enfermedades mentales tan complejas como la depresión.

Las dudas sobre la prueba de la natación forzada comienzan con la propia naturaleza de la prueba. Algunos críticos señalan que si el animal se rinde pronto en la segunda zambullida quizá no sea tanto por una mayor presencia de síntomas depresivos sino por mero aprendizaje: después de la primera experiencia sabe que cuando deje de nadar el investigador le sacará del agua antes de ahogarse y, por tanto, para qué invertir tanta energía. En ese caso, las diferencias entre uno y otro bañito no se deberían tanto a los efectos de tal o cual medicación sino a una posible adaptación al entorno.

Esto lleva aparejado el debate ético ya clásico sobre lo oportuno de la investigación biomédica con animales, porque si resulta que esta prueba ofrece resultados cuestionables, ¿qué necesidad hay de hacer pasar a los ratones por ella? Incluso aunque no sufran daño ni dolor (en la prueba correctamente realizada no se deja que se ahoguen), sí deben superar un momento de angustia y estrés que algunos activistas en contra de la experimentación animal, y también algunos científicos del área consideran innecesario si no se obtienen con ello datos fiables.

La depresión, una enfermedad compleja que no todos sufren igual

Pero el debate va más allá de la posible adaptación de los ratones y entra en el terreno de la propia salud mental, al plantear la cuestión de cómo crear un modelo que represente de forma adecuada y eficaz qué es realmente la depresión y cómo evoluciona, mejora o empeora. ¿Es posible y útil pretender que un modelo animal puede representar la complejidad de una enfermedad de este tipo, como lo sería un test que trata de medir su “desesperanza” o su “tendencia a los sentimientos negativos”? ¿O sería más realista fijarse en síntomas más específicos, como por ejemplo la pérdida de apetito hacia su alimento preferido, algo que a menudo padecen los pacientes con depresión?

Quizá esta segunda alternativa tendría más sentido si tenemos en cuenta que la depresión no tiene siempre el mismo aspecto en humanos y que los mismos tratamientos no funcionan para todo el mundo.

¿Cómo modelizar el componente social de la depresión?

Pero hay algo más que eso. Cada vez hay menos deudas de que la salud mental tiene un importante componente social difícil de trasladar a un modelo animal, y que tomar medidas que reduzcan la precariedad y la desigualdad a nivel colectivo tendría un impacto mayor sobre la salud mental de los individuos que poner el énfasis en la medicación y la terapia como principales soluciones como se lleva haciendo en las últimas décadas.

Esa era la principal conclusión de un informe elaborado por Dainius Pūras, psiquiatra y Relator Especial para la salud física y mental de la ONU. Según sus palabras, recogidas aquí por el periódico The Guardian, hacer frente a la discriminación y la desigualdad “sería la mejor vacuna contra la enfermedad mental, y desde luego sería mucho mejor que el uso excesivo de medicación psicotrópica que estamos viendo”.

En cualquier caso, Pūras no pide sacar de la ecuación la medicación, sino dejar de darle el papel único y central en el tratamiento de estos problemas. “La mejor forma de invertir en la salud mental de los individuos es crear un entorno de apoyo en los distintos ámbitos, tanto familiar como laboral. Después, los servicios terapéuticos pueden ser necesarios, por supuesto, pero no deberían estar basados de forma excesiva en el modelo biomédico”.

En su opinión, se ha puesto hasta ahora demasiado énfasis en curar las enfermedades mentales, como la depresión, igual que las enfermedades físicas, a través de la medicina pura, sin pensar en los factores sociales que causan o intervienen en muchas de esas enfermedades, y señala como ejemplo el recetado de antidepresivos que se ha disparado en el mundo desarrollado en los últimos 20 años.

Ante este enfoque más social de la salud mental, de nuevo el debate sobre los modelos animales para tratar la depresión quizá necesite ser reenfocado, más allá de la prueba de la natación forzada en concreto. No porque no sea necesario encontrar nuevos y mejores tratamientos químicos para la depresión y sus síntomas, así como para otras enfermedades mentales, que pueden ayudar a las personas que las padecen, sino porque parece que estas enfermedades son, por decirlo de alguna forma, especialmente humanas, con una dimensión colectiva y social difícil de trasladar a los ratones del laboratorio.

Referencias

Depression researchers rethink popular mouse swim tests – Nature

Right of everyone to the enjoyment of the highest attainable standard of physical and mental health – Organización para las Naciones Unidas

Austerity and inequality fuelling mental illness, says top UN envoy – The Guardian

Animal models of depression – Wikipedia

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Por qué es tan difícil investigar la depresión en modelos animales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Quién llorará por los animales feos cuando desaparezcan?
  2. ¿Cuánto cuesta realmente investigar en biomedicina?
  3. La difícil tarea de persuadir
Categorías: Zientzia

Nivel formativo y transición demográfica

Dom, 2019/07/21 - 11:59
Foto: Jonny McLaren / Unsplash

La fecundidad ha descendido o está descendiendo rápidamente en la mayoría de países del mundo. Como consecuencia, la población humana crece cada vez menos y es muy posible que a partir de un determinado momento llegue a disminuir. A ese cambio en la fecundidad y sus consecuencias poblacionales se denomina “transición demográfica”. Desde un punto de vista estrictamente evolutivo es un fenómeno difícil de entender porque, en principio, cuanto mayor es la cantidad de recursos de que dispone una pareja, mayor es la descendencia que puede sacar adelante. Pero las cosas no ocurren de acuerdo con ese esquema.

En Europa, la transición demográfica se inició en algunas regiones de Francia hace casi dos siglos, alrededor de 1830, pero en Normandía y Bretaña no llegó hasta casi un siglo después. En Valonia empezó alrededor de 1870, pero en Flandes lo hizo cuatro décadas más tarde. En Gran Bretaña y algunas regiones de Alemania llegó en 1880, pero en otras de este mismo país se inició en 1910 y tan tarde como en 1930 en las demás. Esas disparidades, sobre todo las que se observan en diferentes zonas de un mismo país, sugieren que en el fenómeno pueden influir factores de naturaleza cultural. De hecho, el descenso de la fecundidad suele ir ligado al acceso de las mujeres a la educación y a trabajos económica y socialmente valorados.

Un estudio realizado en una zona de Polonia en plena transición demográfica puso de manifiesto que, efectivamente, cuanto mayor es el nivel de estudios de una mujer, menor tiende a ser el número de hijos que tiene. Pero el dato más interesante de ese estudio fue que, tanto o más que del nivel de cada mujer de forma individual, la fecundidad depende del nivel de formación de las mujeres de su entorno social. O sea, las mujeres de bajo nivel educativo que se relacionan con otras de nivel alto tienden a copiar el comportamiento reproductivo de estas, generalizándose de esa forma al conjunto del entorno social.

En un principio, las mujeres con un alto nivel de formación tienden a posponer la maternidad porque pueden así dedicar más tiempo y esfuerzo a adquirir los conocimientos y capacidades que facilitan el progreso profesional y proporcionan un estatus más elevado; y el retraso de la maternidad conlleva un descenso en la fecundidad. Como esas mujeres y sus parejas suelen tener un nivel socio-económico más elevado, son imitadas por el resto de mujeres o parejas de su entorno. La imitación puede implicar el dedicar más tiempo a adquirir formación y empleos socialmente deseables; en ese caso, la fecundidad también disminuye. Pero puede ocurrir que lo que se imita sean simplemente las decisiones reproductivas. Se trata de un fenómeno bien conocido de tranmisión cultural que se basa en dos sesgos psicológicos muy poderosos, el de prestigio y el de conformidad.

En virtud del sesgo de prestigio tendemos a imitar el comportamiento de los individuos de mayor éxito. Y en virtud del de conformidad, tendemos a hacer lo que hace la mayoría del grupo al que pertenecemos. El efecto combinado de ambos sesgos provoca la transmisión rápida de normas culturales que propician el descenso de la fecundidad. Es un fenómeno que se autoalimenta y que conduce a tasas de natalidad muy bajas en periodos de tiempo relativamente breves.

En la transición demográfica seguramente actúan otros factores también, pero si se quieren revertir sus efectos más indeseados, seguramente ha de tenerse en cuenta la forma en que el nivel formativo de la población y las expectativas profesionales de las jóvenes parejas ejercen sobre las decisiones reproductivas.

Fuente: H. Colleran, G. Jasienska, I. Nenko, A. Galbarczyk y R. Mace (2014): “Community-level education accelerates the cultural evolution of fertility decline.” Proc. R. Soc. B 281: 20132732.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Nivel formativo y transición demográfica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Tener hijos o no tenerlos?
  2. La compleja transición de cazador-recolector a agricultor
  3. Una consecuencia inesperada de la longevidad
Categorías: Zientzia

Pizza y terraplanistas

Sáb, 2019/07/20 - 11:59

Es razonable pensar que la Tierra tiene forma de pizza. Y puede ser muy complicado convencer a una persona que crea que esto es así de lo contrario. Salvo que intervengan las matemáticas y la definición de curvatura. Alberto Márquez, de la Universidad de Sevilla, lo explica.

Quizás sea el número más famoso de la historia. Lo cierto es que el número Pi, representado por la letra griega π, es una de las constantes matemáticas más importantes que existen en el mundo, estudiada por el ser humano desde hace más de 4.000 años. La fascinación que ha suscitado durante siglos es tal que el popular número cuenta con su propio día en el calendario, así el mes de marzo se celebra el Día de Pi en todo el planeta.

Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien lanzó en 1988 la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática. (3-14 martxoaren 14 en euskara / 3-14 march, 14th en inglés) y además, la celebración coincide con la fecha del nacimiento de Albert Einstein. En 2009, el congreso de EEUU declaró oficialmente el 14 de marzo como el Día Nacional de Pi.

Actualmente, el Día de Pi es una celebración mundialmente conocida que sobrepasa el ámbito de las matemáticas. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.

Este 2019 nos unimos de nuevo al festejo con el evento BCAMNAUKAS, que se desarrolló a lo largo del 13 de marzo en el Bizkaia Aretoa de UPV/EHU. BCAM-NAUKAS contó durante la mañana con talleres matemáticos para estudiantes de primaria y secundaria y durante la tarde con una serie de conferencias cortas dirigidas al público en general.

Este evento es una iniciativa del Basque Center for Applied Mathematics -BCAM, enmarcada en la celebración de su décimo aniversario, y de la Cátedra de Cultura Científica de la Universidad el País Vasco.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Pizza y terraplanistas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sigue al conejo blanco
  2. Matemáticas modernas
  3. Diagnóstico de enfermedades: una cuestión de probabilidades
Categorías: Zientzia

Barbacoas, ciencia y salud

Vie, 2019/07/19 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

 

Foto: Victoria Shes / Unsplash

Que Bilbao fuera galardonada como la mejor ciudad gastronómica del mundo no sorprendería a muchos, máxime cuando ha sido elegida como la mejor ciudad europea en 2018. Y como las ciudades las hacemos los ciudadanos pues nos congratulamos por la parte que nos toca. Ciertamente es Bilbao cuna de la ‘fine cuisine’ vasca, europea y mundial, con grandes maestros de los fogones y una elevada concentración de restaurantes en la Guía Michelín.

Sin embargo, no todo en la cocina debería orientarse a la obtención de nuevos y sofisticados sabores para alegrarnos el paladar. Alimentos muy dorados, flambeados o incluso parcialmente quemados realzan su sabor y por ello se utilizan con frecuencia en las recetas más sofisticadas de los mejores restaurantes. Pero esta ganancia en sabor tiene su precio. Una gran parte de las propiedades nutritivas de los alimentos tratados de esta manera se pierden, al mismo tiempo que se generan moléculas no deseadas, a menudo tóxicas para el organismo.

Los alimentos muy cocinados (a temperaturas de 120 º C o superiores), sobre todo los que requieren contacto directo con la llama, a la brasa o cocinados sobre planchas metálicas cambian sus características químicas (organolépticas) convirtiéndose en serias amenazas para la salud. Vamos con algunos ejemplos…

Cada vez son más típicas las barbacoas entre amigos, o los asados de carne, o pescados a la plancha en nuestras mesas. Y uno podría pensar que si esto fuera acompañado de un buen arroz socarrado, formado por los granos de arroz caramelizados en el fondo de la paella, sería el acompañamiento perfecto de una comida ideal. Exquisito sabor sin duda alguna, pero con toda seguridad estaríamos introduciendo una cantidad muy elevada de moléculas perjudiciales para la salud.

Concretamente, el almidón del arroz y el de todos los alimentos ricos en este tipo de polisacárido vegetal (fécula de pata, pan simple…), está formado por unidades de glucosa enlazadas y son muy susceptibles de formar acrilamida cuando se calientan a temperaturas relativamente elevadas (120 °C o superiores). Lo mismo ocurriría con el polisacárido de reserva animal, el glucógeno, el cual también está formado por unidades de glucosa. Muchos estudios realizados con animales de laboratorio han demostrado que la acrilamida es altamente cancerígena. La acrilamida se forma al reaccionar las unidades de glucosa de los polisacáridos con el aminoácido asparragina, el cual está presente en las proteínas tanto vegetales como animales.

Sin duda alguna la manera de cocinar los alimentos tiene un impacto muy importante sobre los niveles de acrilamida que pueden generarse. Los alimentos poco cocinados (poco dorados) o sometidos a temperaturas más bajas que las indicadas anteriormente tendrán mucha menor concentración de acrilamida que los alimentos muy cocinados o sometidos a temperaturas elevadas. Dado que la acrilamida es altamente carcinogénica, los científicos no se atreven a establecer un nivel ‘tolerable’ de esta sustancia en nuestra dieta. Por otra parte, hay que tener en cuenta que los niños son más vulnerables a los efectos de la acrilamida debido a su menor peso corporal.

No obstante, a día de hoy, todos los estudios realizados sobre la toxicidad de la acrilamida se han llevado a cabo utilizando animales de laboratorio y no existen estudios epidemiológicos exhaustivos en humanos. A título simplemente orientativo la Figura 1 muestra cuatro niveles de tostado que van desde un nivel recomendable al no recomendable para el consumo. Nivel 1: recomendable; nivel 2: aceptable; nivel 3: poco recomendable; nivel 4: no recomendable.

Figura 1. Cuando cocines alimentos piensa siempre en blanco o en dorado, nunca en negro o marrón. Así se reducirá la formación de sustancias tóxicas para la salud.

Al igual que los alimentos ricos en hidratos de carbono, las carnes, los pescados y las verduras cocinadas a elevadas temperaturas también dan lugar a la formación de sustancias tóxicas para el organismo. Concretamente, la carne demasiado hecha puede contener dos tipos de sustancias químicas carcinogénicas: hidrocarburos aromáticos policíclicos (HAPs) y aminas aromáticas heterocíclicas (AAHs). Los HAPs se generan, por ejemplo, por contacto directo de la carne o el pescado con la llama o cuando la carne o el pescado a la parrilla gotean sobre el fuego o sobre el dispositivo de calentamiento. Muchas de estas toxinas son volátiles y pueden ser transportadas por el humo acabando de nuevo sobre la carne o el pescado que nos vamos a comer, agravando así el problema. Igualmente, los alimentos ahumados pueden poseer cantidades importantes de este tipo de moléculas tóxicas.

Tanto los HAPs como las AAHs son sustancias mutagénicas, es decir, que producen cambios químicos importantes en el ácido desoxirribonucleico (ADN) de las células contribuyendo así al desarrollo de diferentes tipos de cáncer. En cuanto a los vegetales, tampoco conviene cocinarlos a temperaturas altas, ya que esto daría lugar a la formación de benzopireno, otro potente agente carcinogénico perteneciente a la familia de los HAPs. Al igual que para la acrilamida, no se pueden establecer límites de tolerancia de estos compuestos en la dieta debido a su elevado potencial carcinogénico.

Algunos consejos para reducir la formación de sustancias nocivas cuando cocinamos

1. Cocinar los alimentos en presencia de diferentes tipos de especias (albahaca, ajo, jenjibre, pimienta, tomillo, romero, salvia, orégano) o marinados en vinagre, lima, limón, vino o cerveza. Las especias se conocen desde muy antiguo. Ya en el siglo I las utilizaban griegos y romanos en sus recetas culinarias, como se describe en el tratado de botánica ‘Dioscórides’. Las especias no solo realzan el sabor de los alimentos o se suman a sus características organolépticas sino que resultan indispensables para proteger a los alimentos contra la formación de moléculas tóxicas que afectan seriamente a nuestra salud.

2. Cocinar carne magra, evitando las carnes grasas para prevenir el goteo sobre la fuente de calor.

3. Cuando cocines piensa en dorado, nunca en negro ni en marrón. Asegúrate siempre de que los alimentos no sobrepasen los límites de color por la acción del calor. Y si te pasas, siempre puedes rascar o eliminar las partes más quemadas.

Sobre el autor: Antonio Gómez Muñoz es catedrático en el Departamento de Bioquímica y Biología Molecular de la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo Barbacoas, ciencia y salud se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Salud: ciencia y comunicación (seminario)
  2. Curso de verano “Las dos culturas y más allá”: La ciencia al servicio de la salud humana, por Icíar Astiasarán
  3. Ciencia para todos a través del cine y la literatura de ciencia ficción
Categorías: Zientzia

El sonido del viento

Jue, 2019/07/18 - 11:59

Cuando se habla de los orígenes del arte, o de “Arte Prehistórico”, la primera imagen que se nos viene a la cabeza se suele parecerse mucho a una pintura: las Cuevas de Altamira por ejemplo, de 18 mil años de antigüedad, ocupan un lugar privilegiado en el imaginario colectivo. En algunos casos, habrá también quienes piensen en esculturas paleolíticas, como la Venus de Willendorf de 28 mil años de antigüedad. Es mucho menos habitual pensar en otras formas artísticas y, sin embargo, se han encontrado flautas de hueso de hace 43 mil años que sitúan a la música en los orígenes mismos del pensamiento simbólico humano en Europa.

La cifra resulta apabullante y aún así se piensa que la primera música que hicieron los humanos debe de ser todavía más antigua. Lo más probable es que los primeros músicos no fuesen flautistas, sino cantantes. Para producir melodías, los humanos comenzamos por controlar nuestra voz y luego, probablemente, añadimos algo de percusión (como palmadas, o golpes contra cualquier objeto). Pero estas voces y estas palmadas, evidentemente, no se ha conservado, así que hoy la primera evidencia que tenemos de la música son huesos perforados: huesos de buitre o de oso que, con toda probabilidad funcionaron como flautas.

Esto nos da una pista de por qué son precisamente los instrumentos de viento los más antiguos conservados. Para empezar, pueden fabricarse usando materiales rígidos, no perecederos (al contrario que las cuerdas, por ejemplo, que suelen estar hechas con tripas o pelo de animal). Pero además, son muy fáciles de construir. Para fabricar un instrumento de viento sólo se necesita viento (claro) y un tubo. El viento lo llevamos todos de serie en los pulmones y para conseguir un tubo, basta con encontrar un hueso de animal o alguna caña hueca y rígida. En realidad, la única función de este tubo es la de “contener” el aire, dando cabida a ciertas longitudes de onda, su material y forma exacta son poco cruciales. Toda la magia de los instrumentos de viento tiene lugar más allá del tubo, en uno de sus extremos: el lugar donde el aire se “excita” y comienza a vibrar.

Existen distintas maneras de poner en marcha esta vibración y cada una de ellas da lugar a un timbre característico. Por eso, la forma en que se excita el aire es el verdadero criterio que distingue a las familias de instrumentos de viento. Es muy probable que todos hayáis oído hablar de instrumentos de viento madera y viento metal. La paradoja de estas etiquetas es que poco tienen que ver con el material de que están hechos los instrumentos. Las flautas traveseras de las orquestas contemporáneas, por ejemplo, suelen estar hechas de plata u oro incluso y, sin embargo, la flauta pertenece a la familia del viento madera. Por su parte, dentro del viento metal, encontramos instrumentos tan poco dúctiles o brillantes como las caracolas o las vuvuzelas.

Steve Turre tocando un instrumento de viento metal… poco convencional.

Lo que caracteriza en realidad a los instrumentos de viento metal es que el sonido procede de la vibración de los labios del instrumentista. La presión procedente de la boca fuerza al aire a pasar por un mínimo hueco que se abre y cierra constantemente gracias a la elasticidad de los labios. Lo que viene siendo una pedorreta. O lo que sucede cuando dejamos escapar el aire de un globo mientras estiramos la goma junto a la salida: la membrana flexible lucha por recuperar su posición mientras el aire sale intermitentemente. Esa intermitencia puede ser más rápida o más lenta, según lo tensa que esté la goma. Por eso, cuanto más estiramos el globo, más agudo es el sonido resultante (mayor es la frecuencia de las oscilaciones de la presión). Del mismo modo: los trompetistas, trompistas y demás instrumentistas de viento metal, pueden modificar la tensión de sus labios para obtener distintas notas.

Dentro del viento madera, por su parte, encontramos distintas maneras de romper el aire. La flauta, por ejemplo, funciona mediante un bisel: una pieza rígida y afilada que fuerza al aire a desviarse en un sentido u otro, generando nuevamente una oscilación periódica de la presión más comúnmente conocida como sonido.


También son instrumentos de viento madera los que utilizan lengüetas para sonar. La lengüeta (o caña) es una pieza semirígida que interrumpe el paso del aire de manera intermitente gracias al principio de Bernoulli: cuando el aire fluye junto a ella, la presión disminuye y atrae a la lengüeta. Al ser esta flexible, se curva en la dirección del flujo e interrumpe su paso, la velocidad del aire disminuye y la presión vuelve a aumentar. Esto devuelve la lengüeta a su posición inicial y así el ciclo vuelve a empezar.

Existen distintos tipos de cañas y lengüetas, pero generalmente se clasifican como simples, dobles o libres, dependiendo de si se apoyan contra una superficie rígida, contra una segunda caña o si oscilan libremente obstruyendo por sí mismas el flujo del aire. Algunos instrumentos dentro de este grupo son el saxofón (lengüeta simple), la gaita (lengüeta doble) o la armónica (lengüeta libre). Los timbres, como puede verse, son enormemente diferentes pero si he de elegir uno, yo me quedo con la dulzura y la enorme versatilidad del clarinete.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El sonido del viento se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La física del sonido orquestal
  2. Máquinas inteligentes (I): Del molino de viento al test de Turing
  3. En Marte el viento crea montañas
Categorías: Zientzia

Kaisa-talo, geometría en la biblioteca

Mié, 2019/07/17 - 11:59

 

Esa fuerza interior se transmite de forma brillante hacia fuera en las dos fachadas, especialmente en la que da a la calle Kaisaniemenkatu. Una trama de pequeñas ventanas cuadradas dan una luz muy tamizada interrumpida por unos grandes ventanales de formas parabólicas por la que se introduce la luz hacia el espacio central.

Alberto Corral

La biblioteca de la Universidad de Helsinki es la biblioteca universitaria multidisciplinaria más grande de Finlandia. Funciona como un instituto independiente e incluye la Biblioteca Central –llamada Kaisa-talo, es decir, casa Kaisa en finés– y las bibliotecas de los campus de Kumpula, de Meilahti y de Viikki.

Fachada principal (este) de Kaisa-talo. Fotografía: Inés Macho Stadler.

Kaisa-talo reúne las colecciones de libros y documentos de las facultades de arte, derecho, teología y ciencias sociales de la Universidad de Helsinki; está situada en el centro del campus. El solar que alberga esta biblioteca estaba antes ocupado por un centro comercial –construido en dos fases en 1973 y 1984 y posteriormente demolido– que era poco respetuoso con el paisaje urbano debido a su fachada de cemento. Los niveles subterráneos, antes ocupados por los aparcamientos, han sido conservados y forman parte de la biblioteca como zona de mantenimiento y almacenaje.

La firma de arquitectos Anttinen Oiva de Helsinki se presentó en 2007 a un concurso para diseñar el nuevo edificio que iba a alojar la biblioteca central de la universidad de esta ciudad, y lo ganó. En 2011 la propuesta de Anttinen Oiva comenzó a construirse como parte de La Capital de Diseño Mundial, un proyecto de promoción de ciudades patrocinado por el Consejo Internacional de Sociedades de Diseño Industrial (International Council of Societies of Industrial Design, World Design Organization) en el que la ciudad elegida – en el año 2012 fue Helsinki– tiene la oportunidad mostrar sus logros de innovación en diseño y sus estrategias urbanas. Kaisa-talo fue inaugurada el 3 de septiembre de 2012.

Fachada oeste de Kaisa-talo. Fotografía: Inés Macho Stadler

El exterior del edificio es de ladrillo rojo –caracteriza el modernismo finlandés– y respeta la altura de los edificios colindantes, lo que le ayuda a integrarse en su entorno. Situado en una cuesta, Kaisa-talo tiene forma de L y siete pisos. Su entrada principal está en el lado este, dos pisos por encima de los accesos a las tiendas situadas en la fachada opuesta. La fachada este posee un arco catenario que ocupa cuatro pisos y otro similar invertido aparece en la fachada oeste. Las paredes exteriores albergan grandes ventanales curvos y también numerosas ventanas pequeñas y cuadradas que forman una retícula uniforme que contrasta con la zona curvilínea.

Small Worlds (2012). Imagen: Wikimedia Commons.

Ya en el interior del edificio, en el hall de entrada se sitúa un mural de 18 metros, donado por el Consejo de Arte del Estado: Small Worlds realizado por las artistas Terhi Ekebom y Jenni Rope. Esos Pequeños mundos, algunos de ellos enlazados mediantes estrechos caminos, quizás aludan a los muchos espacios interconectados en la biblioteca.

Una impresionante escalera en forma de espiral comunica los pisos principales de la biblioteca, exceptuando el centro logístico y las instalaciones de mantenimiento bajo tierra a los que se accede fundamentalmente por ascensor.

Escalera interior en forma de espiral. Fotografía: Inés Macho Stadler

En la entrada principal, se observan dos grandes vacíos: unos en forma de elipse –que van disminuyendo su tamaño al subir de piso en piso– y otros en forma de parábola e hipérbola –que van aumentando a medida que se sube en el edificio–. Ambos proporcionan luz natural además de comunicar las diferentes alturas del edificio.

Vacío interior en forma de elipse. Fotografía: Inés Macho Stadler

En las referencias pueden verse numerosas fotografías en las que se aprecian los detalles descritos anteriormente. El siguiente video del arquitecto Alberto Corral realiza un buen recorrido por el interior del edificio.

Nota: Un especial agradecimiento a mi hermana Inés por hablarme de Kaisa-talo y cederme las fotografías utilizadas en esta anotación.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Kaisa-talo, geometría en la biblioteca se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La geometría de la obsesión
  2. El tamaño sí importa, que se lo pregunten a Colón (o de la geometría griega para medir el diámetro de la Tierra)
  3. Quad: pura geometría
Categorías: Zientzia

El descubrimiento de los rayos X

Mar, 2019/07/16 - 11:59
Fuente: Wikimedia Commons.

En 1895, Wilhelm Konrad Röntgen hizo un descubrimiento que lo sorprendió primero a él y luego a todo el mundo. Al igual que el efecto fotoeléctrico, no encajaba con las ideas aceptadas sobre las ondas electromagnéticas y, finalmente, también requirió la introducción de los cuantos para una explicación completa. Las consecuencias del descubrimiento de los rayos X para la física atómica, la medicina y la tecnología fueron enormes.

El 8 de noviembre de 1895, Rontgen estaba experimentando con los nuevos rayos catódicos, al igual que muchos físicos de todo el mundo. Según un biógrafo [*]:

. . . había cubierto el tubo de cristal en forma de pera [un tubo de Crookes] con trozos de cartón negro, y había oscurecido la habitación para probar la opacidad de la cubierta de papel negro. De repente, a aproximadamente un metro del tubo, vio una débil luz que brillaba en un pequeño banco que sabía que estaba cerca. Muy emocionado, Rontgen encendió una cerilla y, para su sorpresa, descubrió que la fuente de la misteriosa luz era una pequeña pantalla de platino-cianuro de bario depositada en el banco.

El platino-cianuro de bario, un mineral, es uno de los muchos productos químicos que se sabe que producen fluorescencia (emiten luz visible cuando se ilumina con luz ultravioleta). Pero no había ninguna fuente de luz ultravioleta en el experimento de Röntgen. Se sabía además que los rayos catódicos viajan solo unos pocos centímetros en el aire. Por lo tanto, ni la luz ultravioleta ni los propios rayos catódicos podrían haber causado la fluorescencia. Röntgen dedujo que la fluorescencia involucraba la presencia de rayos de un nuevo tipo. Los llamó rayos X, ya que los rayos eran de naturaleza desconocida.

En una intensa serie de experimentos sistemáticos durante las siguientes 7 semanas Röntgen determinó las propiedades de esta nueva radiación. Informó de sus resultados el 28 de diciembre de 1895 en un artículo cuyo título (traducido) es «Sobre un nuevo tipo de rayos». El artículo de Röntgen describía casi todas las propiedades de los rayos X que se conocen.

Hand mit Ringen (mano con anillos). Impresión de la primera radiografía médica tomada por Wilhelm Röntgen usando rayos X. Corresponde a la mano de su mujer y fue tomada el 22 de diciembre de 1895. Röntgen se la regaló a Ludwig Zehnder del Physik Institut de la Freiburg Universität el 1 de enero de 1896.

Röntgen describió el método para producir los rayos y probó que se originan en la pared de vidrio del tubo, donde los rayos catódicos lo golpean. Demostró que los rayos X viajan en línea recta desde su lugar de origen y que oscurecen una placa fotográfica. Informó detalladamente de la capacidad variable de los rayos X para penetrar en diversas sustancias como el papel, la madera, el aluminio, el platino y el plomo. Su poder de penetración era mayor en los materiales “ligeros” (papel, madera, carne) que en los materiales “densos” (platino, plomo, hueso). Describió y exhibió fotografías que mostraban «las sombras de los huesos de la mano, de un conjunto de pesas dentro de una pequeña caja, y de un pedazo de metal cuya inhomogeneidad se hace evidente con los rayos X.» Dio una descripción clara de las sombras proyectadas por los huesos de la mano sobre la pantalla fluorescente. Röntgen también informó que los rayos X no se desviaban por la presencia de un campo magnético. Tampoco constató reflexión, refracción o interferencia usando aparatos ópticos ordinarios.

Experimentando con rayos X. Fuente: William J. Morton & Edwin W. Hammer (1896) «The X-ray, or Photography of the Invisible and its value in Surgery», American Technical Book Co., New York, fig. 54 / Wikimedia Commons

J.J. Thomson descubrió una de las propiedades más importantes de los rayos X uno o dos meses después de que los rayos se diesen a conocer. Encontró que cuando los rayos pasan a través de un gas, lo convierten en un conductor de electricidad. Thomson atribuyó este efecto a «una especie de electrólisis, la molécula se divide o casi se divide por los rayos de Röntgen». Hoy sabemos que los rayos X, al pasar a través del gas, liberan electrones de algunos de los átomos o moléculas del gas. Los átomos o moléculas que pierden estos electrones se cargan positivamente. Siguiendo con el símil electrolítico a estas moléculas cargadas se las llamó iones porque se parecen a los iones positivos de la electrólisis, y de ahí que se diga que el gas está “ionizado”. Además, los electrones liberados pueden unirse a átomos o moléculas previamente neutros, cargándolos negativamente.

Röntgen y Thomson descubrieron, independientemente que los cuerpos electrificados pierden sus cargas cuando el aire a su alrededor se ionizado por los rayos X. (Ahora es fácil ver por qué: el cuerpo electrificado atrae iones de la carga opuesta presentes en el aire ionizado). La velocidad de descarga depende de la intensidad de los rayos (ya que de ella depende la cantidad de ionización). Por lo tanto, esta propiedad se usó, y se sigue usando, como un medio cuantitativo conveniente para medir la intensidad de un haz de rayos X. Este descubrimiento implicaba, pues, que se podían realizar mediciones cuantitativas cuidadosas de las propiedades y efectos de los rayos X.

Nota:

* Hay varias versiones del descubrimiento. Incluso existe una de consenso que no es más válida que la que ofrecemos. Lo cierto es que la única persona presente era Röntgen, él no lo contó a nadie que tomase notas de ello de forma fidedigna y fiable y dejó dicho que sus notas de laboratorio, que podrían haber arrojado algo de luz [nótese el ingeniosísimo juego de palabras], se destruyesen a su muerte. La cuestión es que los elementos fundamentales de todas las narraciones (tubo de Crookes, cartón negro y pantalla de platino-cianuro de bario) están presentes.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El descubrimiento de los rayos X se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La luz se propaga en línea recta pero los rayos de luz no existen
  2. Rayos X y gamma
  3. El tubo de rayos catódicos, auge y caída de una pieza clave del siglo XX
Categorías: Zientzia

Páginas