Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 1 hour 33 min ago

El sistema de la difusión social de la ciencia: 1. Introducción

Mon, 2017/01/23 - 08:00

La difusión social de la ciencia, objeto de debate

Empieza con esta anotación una serie de siete entregas en las que se presentará la noción de “sistema de la difusión social de la ciencia” y se describirán los elementos que lo conforman, así como las relaciones funcionales que se establecen entre ellos.

Como seguramente ocurre con otros, el mundo de la difusión científica y aledaños es pródigo en debates. Sus términos y las materias objeto del mismo son, a la vez, variados y recurrentes, surgen una y otra vez. Muestra del interés que suscitan en la comunidad que conforman quienes se dedican, como profesionales o como aficionados, a este tipo de actividades son los artículos que se publican al respecto, principalmente en medios digitales. A continuación recojo unas muestras de lo mucho que se ha publicado, con el único propósito de proporcionar algunas referencias e ilustrar la amplitud de las reflexiones pero –quede claro- sin ninguna intención de ser exhaustivo.

Sobre la relación entre el mundo del periodismo y el de la ciencia han escrito Ana Ribera. Pampa García Molina, Francis Villatoro, Lourdes López y Pere Estupinyá lo han hecho sobre el periodismo científico (y sus limitaciones y problemas). Francis también se ha referido al dilema entre periodistas científicos y científicos divulgadores, a la divulgación como actividad propia e irrenunciable del personal científico y a ciertas licencias que se permiten los divulgadores científicos.

Pere Estupinya se muestra crítico con algunas facetas de la divulgación, tanto en lo concerniente a sus aspectos formales, como a la virtual ausencia de evaluación del impacto de las actividades de divulgación (un punto de vista diferente, aquí).

Manuel Herman ha reflexionado acerca de la importancia creciente de internet en la divulgación científica. José Manuel López Nicolás ha tratado sobre la gran potencialidad de los blogs universitarios como herramientas de divulgación. El papel de las universidades y de sus unidades de cultura científica e innovación en la comunicación científica ha sido motivo de reflexión por parte de Elena Lázaro. Y José Luís Vicente también ha escrito acerca de la importancia de difundir los resultados de la investigación que se realiza en universidades y centros de investigación.

La noción de sistema

Hace tres años publiqué aquí el que podría considerarse primer intento por mi parte de sistematización de las actividades de difusión social de la ciencia. Aquella primera aproximación sirvió para iniciar una línea de reflexión que ha dado lugar a diferentes presentaciones públicas en cursos y seminarios (UEU, UPV/EHU, UPNA-Planetario y Universitat de Vic). Y han sido esas presentaciones y el contraste con puntos de vista diferentes las que han conducido a la preparación del texto cuya primera entrega es esta anotación. Aunque quizás no resulte evidente en primera instancia, creo que la sistematización a que he aludido y que considero útil –no me atrevo a calificarla de necesaria- será de ayuda a la hora de clarificar los debates a que he aludido antes. Con esa confianza me he animado a redactar este texto.

La difusión social de la ciencia se produce mediante flujos de información y conocimiento (contenidos científicos) que ocurren en un determinado ámbito (geográfico, cultural, administrativo, etc.) y en un tiempo determinado. A tal ámbito puede dársele la consideración de sistema, en el sentido que se utiliza esa palabra en ecología, por ejemplo. El sistema lo forman dos tipos de elementos, los agentes (o emisores) y los receptores. Los agentes actúan en virtud de unas motivaciones y, haciendo uso de los medios de los que disponen, transmiten unos contenidos (información y conocimiento) al público receptor. La transmisión de esos contenidos ejerce unos efectos que no tienen por qué corresponder a las motivaciones que impulsan estas actividades.

————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El sistema de la difusión social de la ciencia: 1. Introducción se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sobre la difusión social de la ciencia y su función
  2. Presentación del estudio “Percepción social de la ciencia y la tecnología en el País Vasco”
  3. La responsabilidad social de la investigación
Categories: Zientzia

El futuro ya no es lo que era

Sun, 2017/01/22 - 11:59

futuro

A estas alturas desconozco si fue Niels Bohr, Enrico Fermi o el mismísimo Yogi Berra quien dijo que “hacer predicciones es muy difícil, sobre todo las del futuro”. Pero fuese quien fuese, acertó de pleno.

Son especialmente conocidas las predicciones negativas que resultaron fallidas. El británico Sir John Eric Ericson, cirujano de la Reina, dijo en 1873 que “el abdomen, el pecho y el cerebro estarían para siempre vedados a la intrusión del cirujano sabio y humano”. De ser ciertas todas las que se le atribuyen, el físico británico William Thomson (Lord Kelvin) se lleva la palma de predicciones incumplidas: sostuvo que la radio no tenía futuro, que era imposible que volaran máquinas más pesadas que el aire, y que se acabaría demostrando que los rayos X eran falsos. Einstein dijo en 1932 que “no hay el más mínimo indicio de que pueda llegar a obtenerse energía atómica; significaría que podría desmenuzarse el átomo a voluntad”. Y sir Harold Spencer Jones, Astrónomo Real del Reino Unido afirmó, en 1957 que “los viajes espaciales eran un disparate”; dos semanas después el Sputnik orbitaba la Tierra.

Lo anterior viene a cuento de las listas que han publicado los primeros días de enero numerosos medios de comunicación con lo que será noticia en ciencia y tecnología en 2017. No deja de sorprenderme, porque aunque es cierto que hay temas –tecnológicos, sobre todo- acerca de los cuales es posible aventurar logros, no es raro que surjan imponderables que impidan que se cumplan las expectativas. Antes hemos visto algunas predicciones negativas incumplidas. También se hacen predicciones positivas que acaban resultando fallidas; al contrario que con las anteriores, rara vez se comprueba su cumplimiento, por lo que no solemos tener constancia de ellas.

En realidad, el mismo hecho de hacer predicciones en estos ámbitos es contradictorio con la naturaleza del progreso científico. El motor de la ciencia es la ignorancia. Cuando se aborda una investigación y tras las observaciones o experimentos se obtiene lo que se esperaba, el conocimiento experimenta un pequeño avance. El físico Enrico Fermi decía a sus estudiantes que un experimento que verifica una hipótesis es una medida, y el que no la verifica, un descubrimiento. Así es: un des-cubrimiento de nueva ignorancia. Es cuando se obtienen resultados inesperados cuando realmente se abren nuevos caminos para el progreso del saber. Porque los resultados inesperados iluminan el límite que separa lo que conocemos y lo que ignoramos, y por lo tanto, muestran áreas desconocidas en las que podemos aventurarnos en busca de aspectos ignotos de la realidad.

Cuando los medios informan de “grandes descubrimientos científicos”, lo que hacen normalmente es dar cuenta de la verificación de hipótesis célebres o de algún desarrollo tecnológico de consecuencias espectaculares. En alguna ocasión han informado de resultados que cuestionan nociones sólidamente establecidas (neutrinos supuestamente superlumínicos, por ejemplo). Y rara vez lo harán de alguna conjetura revolucionaria, cuya comprobación, quizás años más tarde, abra nuevos caminos. Sospecho que ningún medio informó en 1928 de que Paul Dirac había desarrollado una ecuación que describía la dinámica del electrón en términos de la mecánica cuántica, incluyendo también los efectos relativistas. La ecuación predecía además la existencia de antielectrones (positrones), o sea, de antimateria. Y desde luego, a nadie se le ocurrió entonces que aquella ecuación, aparte de iluminar una nueva frontera del conocimiento, acabaría siendo el origen de una técnica de diagnóstico médico tan útil como la tomografía por emisión de positrones (PET). Y es que, como dijo Yogi Berra, “el futuro ya no es lo que era”. De hecho, nunca lo fue.

—————————————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————————————–

Este artículo fue publicado en la sección #con_ciencia del diario Deia el 15 de enero de 2017.

El artículo El futuro ya no es lo que era se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Se puede predecir el éxito futuro de un científico?
  2. Otra ventana al futuro
  3. Por qué no podemos recordar el futuro
Categories: Zientzia

#Naukas16 Drogas y falsas promesas

Sat, 2017/01/21 - 11:59

Escuchar a Ohiana Iturbide hablar de adicción a la droga impresiona. No importa el número de veces que lo hayas hecho. En los diez minutos de esta charla el público presente no rio, no aplaudió, no tuiteó, no se movió. Solo guardó un atentísimo silencio.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas16 Drogas y falsas promesas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas15 Falsas memorias
  2. #Naukas16 ¿Que te chupe la qué?
  3. #Naukas16 Cuando Indiana Jones se hizo astrónomo
Categories: Zientzia

El hidrógeno en el Universo (I): La emisión del hidrógeno neutro a 21 cm.

Fri, 2017/01/20 - 12:00
 Ángel R. López-Sánchez (AAO/MQU), Sergio Simón-Díaz (IAC) y Jorge García-Rojas (IAC).

Imagen en falso color de la Nebulosa de Orión, M 42, y la Nebulosa de Marian, M 43, usando datos obtenidos con el Telescopio Isaac Newton, de 2.5m, en el Observatorio del Roque de los Muchachos en la isla de La Palma (España) usando el instrumento de gran campo Wide Field Camera (WFC). Las líneas verticales negras corresponden a la separación entre distintas CCDs. El color rojo codifica la emisión del hidrógeno ionizado, Hα 6563 Å, mientras que en verde de muestra la emisión de oxígeno dos veces ionizado, [O III] 5007 Å. En color azul sólo se muestra el campo estelar. Esta imagen es la típica que se obtiene mediante CCD o película fotográfica sin filtros, donde destaca especialmente el hidrógeno de la nebulosa. Crédito de la imagen: Ángel R. López-Sánchez (AAO/MQU), Sergio Simón-Díaz (IAC) y Jorge García-Rojas (IAC).

El hidrógeno es, con diferencia, el elemento químico más abundante del Universo. Creado durante los procesos que sucedieron al Big Bang, particularmente durante la recombinación de los núcleos atómicos (protones en su mayoría) con los electrones unos 380 mil años después del inicio del Cosmos, el hidrógeno es el “padre” del que provienen el resto de elementos químicos. La transformación del hidrógeno en otros elementos ocurre sobre todo dentro de las estrellas (por fusión termonuclear, por ejemplo formando núcleos de helio a partir del hidrógeno, que luego se fusiona en núcleos de oxígeno, silicio, azufre o hierro en las estrellas más masivas) o por la acción de éstas en sus alrededores (explosiones de supernova, que típicamente producen los elementos químicos más pesados que el hierro). Así, deberíamos esperar que los astrofísicos invirtieran gran parte de su esfuerzo en conocer dónde se encuentran las nubes de hidrógeno dentro de las galaxias y dentro de la estructura a gran escala del Cosmos, y qué características tienen.

Pero la cosa no es sencilla. Desgraciadamente los telescopios convencionales no pueden detectar el hidrógeno neutro y frío. Los átomos de hidrógeno sólo pueden emitir luz en los colores “visibles” cuando son excitados por radiación energética (particularmente emisión ultravioleta emitida por estrellas masivas, enanas blancas, y otros procesos violentos). Es así como “vemos” las nebulosas difusas de emisión, nubes gigantescas constituidas sobre todo de hidrógeno, como la Gran Nebulosa de Orión (Figura 1). El color rojizo que típicamente domina estas nubes de gas proviene de la emisión del hidrógeno ionizado (línea H-alpha). Pero, obviamente, este tipo de excitación del hidrógeno no ocurre en las frías profundidades del espacio, particularmente en el casi vacío espacio extragaláctico.

 La emisión de 21cm (1420 MHz) del hidrógeno atómico ocurre cuando se produce el cambio del espín del electrón de ser paralelo al espín del protón (arriba) al ser anti-paralelo al protón (abajo). La estructura hiperfina del nivel 1s del átomo de hidrógeno indica que en el primer caso se tiene un poco más de energía (5.9 x 10-6 eV) que en el segundo.

La emisión de 21cm (1420 MHz) del hidrógeno atómico ocurre cuando se produce el cambio del espín del electrón de ser paralelo al espín del protón (arriba) al ser anti-paralelo al protón (abajo). La estructura hiperfina del nivel 1s del átomo de hidrógeno indica que en el primer caso se tiene un poco más de energía (5.9 x 10-6 eV) que en el segundo.

Sin embargo, se da la peculiaridad de que el hidrógeno neutro sí emite cierto tipo de luz. Esta radiación no ocurre en los “colores” que nosotros vemos sino en el dominio de las ondas de radio. La emisión del hidrógeno neutro en radio sucede como consecuencia de la transición atómica entre los dos niveles hiperfinos del estado fundamental del hidrógeno.

¿Qué quiere decir esto? La energía del átomo de hidrógeno, que consta de un protón y un electrón, es ligeramente diferente dependiendo si el espín (análogo al “giro”) del protón y del electrón están en la misma dirección (un poco más de energía) que en direcciones opuestas (un poco menos de energía). Un átomo de hidrógeno en el que el protón y el electrón tengan sus espines paralelos puede emitir un fotón (liberar energía) para pasar al estado en el que ambos espines apuntan en direcciones opuestas (Figura 2). Como la diferencia de energía es muy pequeña (5.9 x 10-6 eV), el fotón emitido tiene una frecuencia baja (1420.4 MHz) y, por tanto, una longitud de onda relativamente larga (21.1 cm).

A esta emisión en radio se la designa como “H I”, la emisión del hidrógeno atómico a 21 cm. No obstante es muy raro que ocurra en un átomo en concreto: la vida media del estado excitado es de unos 10 millones de años. Así, cuando en 1944 el astrónomo holandés Hendrik van de Hultz propuso por primera vez que se usaran radiotelescopios para captar la emisión del H I a 21 cm y así detectar nubes de gas hidrógeno en la Vía Láctea no muchos le hicieron caso. Pero, en realidad, como hay tal enorme cantidad de hidrógeno aún disponible en el Cosmos, la emisión a 21 cm del hidrógeno atómico es, en efecto, no sólo observable, sino fundamental para la Astrofísica contemporánea.

 Ángel R. López-Sánchez (AAO/MQU).

Radiotelescopio de Parkes (NSW, Australia), de 64 metros de tamaño, durante la puesta de Sol. Crédito: Ángel R. López-Sánchez (AAO/MQU).

No fue hasta 1951 cuando los astrónomos Harold Ewen y Edward Purcell de la Universidad de Harvard (EE.UU.) detectaron por primera vez la emisión a 21 cm del hidrógeno atómico, que fue rápidamente corroborada por observaciones independientes desde Europa y Australia. En la actualidad, este tipo de observaciones son rutinarias y otorgan a los astrofísicos piezas claves a la hora de entender nuestro Universo.

Precisamente, una de las grandes ventajas que propiciaban las observaciones en la línea de 21 centímetros del hidrógeno atómico es que, al estar en el rango de las ondas de radio, la extinción de la luz por el polvo y gas interestelar es completamente despreciable. Esto no ocurre en “los colores que nosotros vemos” (el rango óptico del espectro electromagnético), que son fuertemente absorbidos por el polvo y el gas difuso. Así, las observaciones en HI a 21 centímetros permitieron por primera vez “ver” la Vía Láctea en su totalidad.

Fue así como, en 1952 y tras conseguir los primeros mapas de la Galaxia, se encontró que la Vía Láctea tiene una estructura espiral. En este punto hay que insistir en que las observaciones radioastronómicas en la línea de 21 cm no son imágenes, sino espectros. Es una línea de emisión más, y como tal no sólo su intensidad máxima (su brillo) sino también otras propiedades, como la anchura, la velocidad o un análisis de componentes, pueden estudiarse en detalle.

Las observaciones en H I permiten, por efecto Doppler, calcular las distancias a las galaxias o inferir a qué velocidad relativa se mueve el gas dentro de una galaxia. Y, en efecto, ha sido usando observaciones H I a 21 cm de otras galaxias (normalmente el gas es mucho más fácil de observar en las partes externas de las galaxias que las estrellas) como se confirmó definitivamente que las partes externas se movían extremadamente rápido contabilizando la cantidad de masa (estrellas, polvo y gas difuso incluyendo hidrógeno atómico) que contenían, necesitando la componente extra de un amplio pero homogéneo halo de materia oscura para poder mantener las galaxias como entidades estables.

 Benjamin Winkel & the HI4PI Collaboration.

Mapa de todo el cielo observando en la línea de 21 cm del hidrógeno atómico, HI, mostrando la emisión de gas neutro de nuestra Galaxia y las Nubes de Magallanes y la velocidad con la que lo vemos moverse (en color). Esta fantástica imagen ha sido conseguida en la colaboración HI 4π survey (HI4PI), que usa datos obtenidos con el cartografiado Effelsberg-Bonn HI Survey (EBHIS), que usa el radiotelescopio Effelsberg (Alemania), de 100 metros de tamaño, y los datos del cartografiado Galactic All-Sky Survey (GASS), que usa “The Dish”, el radiotelescopio de Parkes (Australia), de 64 metros de tamaño. Crédito: Benjamin Winkel & the HI4PI Collaboration.

El mapa más profundo de la Vía Láctea usando la emisión del hidrógeno atómico a 21 centímetros fue obtenido recientemente mediante la colaboración “HI4PI” (acrónimo de “H I 4π”), que usa datos obtenidos por dos de los radiotelescopios más potentes de la Tierra: el radiotelescopio Effelsberg (Alemania), de 100 metros de tamaño, y el famoso radiotelescopio de Parkes, ”The Dish”, (Australia), de 64 metros de tamaño (Figura 3). En esta proyección de todo el cielo, el plano de la Vía Láctea se encuentra en el ecuador, mientras que el centro de nuestra Galaxia corresponde al amasijo de gas brillante hacia la derecha.

La espectacular imagen del hidrógeno atómico de la Vía Láctea obtenida por la colaboración HI4PI (Figura 4) no sólo muestra la distribución de gas difuso (muy asimétrica) sino que codifica en colores la velocidad a la que se mueve dicho gas. Colores azules indican gas que se acerca al observador, mientras que los colores verdosos corresponden a gas que se aleja. Así se puede apreciar la misma rotación de la Vía Láctea, pero aparecen estructuras más complicadas: filamentos, burbujas, grumos, huecos, capas de gas, que narran la dinámica evolución de nuestra Galaxia. Muchos de los huecos, por ejemplo, corresponden a zonas liberadas de gas por explosiones de supernova. El mismo Sol se encuentra cerca de una de estas zonas irregulares, la Burbuja Local, que brilla particularmente en rayos X. La Burbuja Local, de al menos 300 años luz de tamaño. se originó hace poco tiempo (pocos millones de años, algunos estudios apuntan que incluso menos).

Por otro lado, la mayor densidad de gas corresponde precisamente a las regiones donde se están formando las estrellas. Las nebulosas de emisión aparecen justo en estas zonas donde el gas difuso está condensando para crear nuevos soles. Estas regiones de formación estelar se localizan sobre todo si se mira cerca del centro galáctico

Los colores de la imagen también muestran algo muy interesante: aparecen nubes de gas difusas en colores violetas y amarillos (altas velocidades). Estas “nubes de alta velocidad” corresponden a gas que está cayendo sobre la Vía Láctea (quizá por acreción de alguna galaxia enana) o es gas que ha sido expulsado del disco de nuestra Galaxia por las explosiones de supernovas. La más evidente de estas nubes de alta velocidad es la que corresponde a las galaxias enanas satélite de la Vía Láctea, las Nubes de Magallanes (abajo derecha, en colores naranjas). La imagen de la colaboración “HI4PI” permite distinguir que ambas galaxias enanas se encuentran dentro de esta gigantesca nube de hidrógeno neutro. Es más, permite apreciar su estructura alargada apuntando al centro de la Vía Láctea, además de muchas otras de sus características.

Las observaciones tanto de la Vía Láctea como de otras galaxias usando radioastronomía para “ver” la línea de 21 cm del hidrógeno atómico está proporcionando enorme información a los astrofísicos a la hora de entender la formación de las estrellas, la estructura de las galaxias, la interacción con su entorno, la evolución de las galaxias y la propia evolución del Universo. Sin embargo, quizá porque las imágenes en radioastronomía muchas veces no son atractivas para nuestros ojos (o, pensando mal, que la radioastronomía es el único rango espectral que la Agencia Espacial Estadounidense, NASA, no lidera), muchos de estos detalles no suelen conocerse por el público. En próximas entregas indagaremos en algunos de los sorprendentes detalles que, gracias a la radioastronomía y a la línea de H I a 21 cm, hemos conseguido arrancar al Universo.

Este post ha sido realizado por Ángel López-Sánchez (@El_lobo_rayado) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo El hidrógeno en el Universo (I): La emisión del hidrógeno neutro a 21 cm. se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La fusión a un paso gracias al hidrógeno líquido
  2. Hidrógeno a partir de cualquier biomasa
  3. El grafeno distingue entre isótopos del hidrógeno
Categories: Zientzia

#Naukas16 La fiesta de las moléculas

Thu, 2017/01/19 - 17:00

Los químicos, algunos, son frikis, pero muy frikis. Daniel Torregrosa es de estos últimos y nos trae una colección de moléculas bautizadas o sintetizadas por químicos frikis.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas16 La fiesta de las moléculas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas16 Astrofotografía
  2. #Quantum13 Moléculas en el espejo
  3. #Naukas16 Exoplanetas: mundos de ciencia ficción
Categories: Zientzia

Ciencia y tecnología

Thu, 2017/01/19 - 11:59

Aunque se las suele confundir o al menos tratar por igual el objetivo de las ciencias y el de las tecnologías no es el mismo, y eso hace a la verdadera ciencia más resistente a interferencias de poderes externos de lo que pudiera parecer. Buena parte de los ataques a las ciencias en realidad lo que están rechazando es alguna determinada tecnología, o incluso decisiones que no son técnicas sino políticas y económicas. Por eso quizá convenga separar con claridad conceptos y campos de actuación, para delimitar las responsabilidades.

Las ciencias y las tecnologías se diferencian en su objetivo final, que es clara y contundentemente diferente. Las ciencias buscan comprender el universo y su funcionamiento; dilucidar las reglas, los procedimientos y sistemas que hacen que el cosmos exista tal y como es. Son descriptivas en el sentido de que contemplan los fenómenos existentes e intentan explicar sus mecanismos; todas sus intervenciones (experimentos) tienen por objeto ayudar al entendimiento, y por tanto en condiciones ideales las modificaciones que se introducen en el funcionamiento natural están reguladas y son mínimas. El resultado final de las ciencias son las teorías que explican qué hay ahí fuera y de qué manera funciona.

Las tecnologías, sin embargo, no describen el mundo, sino que lo modifican para adaptarlo a las necesidades humanas. Su objetivo no es entender el universo, sino moldearlo para hacerlo mejor para nosotros; el conocimiento que buscan y emplean tiene como objetivo su aplicación en este empeño, no el conocimiento mismo. Las tecnologías siempre son ‘para’ algo: crear vías de comunicación u otras obras públicas, curar enfermedades, extraer minerales, fabricar objetos. La finalidad es utilitaria, y la razón de su existencia es en última instancia mejorar la existencia de la Humanidad.

La relación entre ambos campos es íntima, retorcida y a veces mal entendida; la extensión de conceptos como ‘ciencia aplicada’ no hace más que complicarla todavía más. Las tecnologías emplean el conocimiento del universo generado por las ciencias para mejorar sus técnicas, mientras que la ciencia precisa echar mano de la tecnología más avanzada (y a veces impulsarla más allá de sus límites) para poder llevar a cabo sus experimentos. Hay veces que la investigación científica en una dirección concreta o en un campo específico es dirigida y favorecida para ayudar a resolver una cuestión tecnológica, como ocurre con la biología celular y la cura del cáncer. Otras veces nuevas tecnologías aparecen de pronto surgidas de avances científicos relativamente recónditos o incluso inesperados, como acaba de ocurrir con la ingeniería genética y el sistema CRISPR-Cas. Cuando se habla de ‘ciencia aplicada’ se mezclan conceptos y se diseñan actividades que están a medio camino entre ambas orillas.

Pero se trata de empeños diferentes con objetivos distintos, y mezclarlos conceptualmente tiene consecuencias que pueden ser graves. Porque si en la tecnología entra, por definición, la economía y por tanto la política, en ciencia no es así. Un chiste de ingenieros dice que a la pregunta ‘¿Esto se puede hacer?’ la respuesta siempre es: ‘Depende del presupuesto’, porque en cualquier ámbito tecnológico la clave para la toma de decisiones es la rentabilidad y el acceso a los recursos. En muchas ocasiones las discusiones sobre temas de tecnología no analizan la posibilidad de hacer algo, sino si la solución elegida es la mas conveniente, económica, interesante, rentable: no se discute si es o no posible, sino la conveniencia de hacerlo. No es una decisión sobre hechos, sino sobre política, y así es como debe ser.

El problema surge cuando las cuestiones políticas saltan desde las tecnologías a las ciencias y se intenta doblegar el conocimiento para adaptarlo a las necesidades de la conveniencia social. Se puede (se debe) discutir cuál es la mejor manera de poner límites al cambio climático, si una determinada decisión política será suficiente, o si no habrá otras tecnologías que puedan resolver el problema de modo más económico, ya que hablamos de una cuestión tecnológica (cambiar la realidad). Lo que no es razonable es negar la existencia del calentamiento global medido por la ciencia (describir la realidad). Es posible analizar si los actuales calendarios y sistemas de vacunación son los más eficientes para mantener a raya a las enfermedades contagiosas, pero para ello es absurdo afirmar que las vacunas tienen efectos secundarios que no se han descrito. La decisión política de usar o no usar Organismos Modificados Genéticamente para mejorar el rendimiento de la agricultura debe ser discutida en público para determinar si es la más conveniente o qué sacrificios y de quién estamos dispuestos a hacer para emplearla o no, pero sin usar en la discusión acusaciones infundadas y hechos falsos. La tecnología y en especial sus componentes económico y político siempre puede, y deben, discutirse con pasión, porque todas las decisiones de actuar sobre la naturaleza tienen costes además de beneficios y contrapesarlos es derecho y deber de una sociedad libre.

Lo que no quiere decir que los hechos, los datos, los conocimientos de la ciencia sobre el funcionamiento del universo sean maleables: la ciencia no cambia porque sus resultados sean inconvenientes para una postura política u otra. El planeta se calentará o no; las vacunas causarán autismo o no, y los OMGs serán dañinos o no, y a esa pregunta debe contestar la ciencia y su respuesta debe ser respetada. Después la tecnología determinará si podemos hacer algo para reducir las emisiones de CO2 y cómo, si es mejor vacunar a una edad u otra o si el mejor modo de acabar de una vez con el hambre en el mundo es usar OMGs o no, y la política asignar recursos económicos a la decisión que la sociedad tome. Pero partiendo de una descripción lo más certera posible de la realidad, es decir, de la mejor ciencia disponible. Porque si permitimos que la ideología o la rentabilidad determinen los hechos a partir de los cuales tomamos decisiones nos estaremos haciendo trampas al solitario, que es el modo más estúpido de autoengañarse que existe. Si confundimos la ciencia con la tecnología y ésta con la política no sólo nos irá mal en el futuro, sino que nos habremos merecido que nos pase.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo Ciencia y tecnología se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Presentación del estudio “Percepción social de la ciencia y la tecnología en el País Vasco”
  2. Visión de los jóvenes vascos sobre la ciencia y la tecnología
  3. Ciencia, poder y comercio
Categories: Zientzia

La fascinación del oro

Wed, 2017/01/18 - 17:00

Este espejo del futuro telescopio espacial James Webb está recubierto de oro

Desde comienzos del año el oro está subiendo de precio forma sostenida. Eso es indicio de que la incertidumbre aumenta y los inversores buscan refugio en el metal amarillo. Increíblemente es su mera posesión lo que da tranquilidad financiera, aunque el oro no produzca intereses, ni dé nada que se pueda comer, su uso industrial sea limitado, y solo aparezca espectacularmente en naves y sondas espaciales como recubrimiento capaz de reflejar la radiación infrarroja. El oro fundamentalmente encarna la importancia que los humanos damos a los simbólico.

Y es que el oro es un metal raro. De entrada se puede encontrar en estado puro en la naturaleza, ya que hoy sabemos que no se combina con el oxígeno, por lo que es más difícil que entre a formar parte de compuestos como los que forman las rocas. No solo eso, encima es amarillo, brilla y mantiene ese brillo con el tiempo, coloración que no ocurre con ningún otro metal; el cobre es rojo, pero se oxida fácilmente. Por si esto fuese poco, el oro es maleable, por lo que se pueden hacer adornos complejos y fundirlo para hacer monedas. No es de extrañar la fascinación de los humanos con el metal noble desde tiempos inmemoriales.

Corona de Kritonios, s. IV a.e.c.

Pero las maravillas del oro solo aumentan cuando intentamos comprender sus características.

De entrada, su color amarillo está íntimamente relacionado con la teoría de la relatividad de Einstein; son los llamados efectos relativistas debidos a las altísimas energías de los electrones en estos átomos. Estos mismos efectos son los que complican los cálculos teóricos de las propiedades electrónicas del oro. De hecho, los teóricos que se han dedicado durante décadas a intentar describir las características del metal desde primeros principios han encontrado muy difícil explicar las discrepancia entre sus predicciones y las observaciones experimentales. Ahora, un equipo de investigadores ha conseguido resolverlas con un nivel de precisión desconocido incorporando la existencia de interacciones “quíntuples” entre 5 electrones.

Estructura electrónica simplificada del oro

Calcular las propiedades electrónicas de un átomo nunca es fácil, especialmente para los átomos pesados en los que el elevado potencial de Coulomb implica que existen niveles de energías de los electrones para los que la teoría de la relatividad es de aplicación. En el caso del oro, los efectos relativistas son la causa de que exista un salto de energía más pequeño entre los orbitales (regiones en las que puede encontrarse un electrón en un átomo) 6s y 5d, lo que explica que el oro absorba las frecuencias más azules del espectro, y el resultado sea que refleje los tonos amarillo-rojizos.

Pero no todo es tan fácil de explicar. Los cálculos de la energía de ionización (la energía necesaria para arrancar un electrón del átomo) y la afinidad electrónica (la energía necesaria para incorporar un electrón) han resultado siempre en valores inferiores a los experimentales en decenas de mili-electrón-voltios, una discrepancia significativa, aunque no escandalosa.

El equipo que encabeza Lukas Pašteka, de la Universidad Massey (Nueva Zelanda), han conseguido realizar los cálculos más precisos conocidos hasta la fecha para el oro. Su modelo incorpora los efectos relativistas, las correlaciones entre electrones y la electrodinámica cuántica. Las correlaciones entre electrones incluyen todas las interacciones electrón-electrón que tienen lugar en un átomo que tiene 79 electrones.

Una de las principales novedades de este estudio está precisamente en que, a la hora de estudiar estas correlaciones se asumía que un electrón interaccionaba con otros 2, interacciones triples. Pašteka y sus colaboradores lo han ampliado a cuádruples y quíntuples. Al hacerlo así han reducido la discrepancia en las energías de ionización y la afinidad electrónica a tan solo unos pocos de milielectronvoltios, mejorando los resultados anteriores en 10 veces.

Esta metodología, que puede aplicarse a otros átomos pesados, es un indicio de hasta qué punto una creciente capacidad de cálculo nos puede permitir comprender mucho mejor el funcionamiento de la materia y poder predecir características en materiales que ahora son inimaginables.

Referencia:

L. F. Pašteka, E. Eliav, A. Borschevsky, U. Kaldor, and P. Schwerdtfeger (2017) Relativistic Coupled Cluster Calculations with Variational Quantum Electrodynamics Resolve the Discrepancy between Experiment and Theory Concerning the Electron Affinity and Ionization Potential of Gold Phys. Rev. Lett. doi: 10.1103/PhysRevLett.118.023002

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo La fascinación del oro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 30 milésimas por encima del cero absoluto, electrónicamente
  2. La suave piel del núcleo
  3. Un minuto eterno: pares de Majorana y computación cuántica
Categories: Zientzia

Círculo vicioso

Wed, 2017/01/18 - 11:59

Tomen un círculo, acarícienlo, y se hará un círculo vicioso.”
Eugène Ionesco, La cantante calva

Círculo vicioso

Etienne Lécroart es un artista del cómic. Ya hablamos de uno de sus magníficos trabajos en Interpretando mensajes cifrados.

Es miembro, y uno de los pilares, del grupo OuBaPo (Ouvroir de Bande dessinée Potentielle, Obrador del Tebeo Potencial), que crea sus cómics obedeciendo determinadas trabas formales (muchas de ellas matemáticas), al igual que hace con sus textos el grupo OuLiPo.

Lécroart es un maestro del tebeo; basta con recorrer su trabajada página web para observar sus dotes creativas, sus grandes dosis de humor y sus sorprendentes juegos. Destacan los cómics en los que la lectura puede realizarse en horizontal, en vertical y oblicuamente, o en los que se puede progresar según la numeración de la página o en sentido inverso.

En mi opinión, Cercle Vicieux (Círculo vicioso) es una joya dentro de esta familia de tebeos. Es un enorme palíndromo, es decir, Cercle Vicieux puede leerse desde la primera viñeta hasta la última, o viceversa… y la historia narrada es exactamente la misma en cualquiera de los dos sentidos.

El tebeo tiene treinta páginas, con seis viñetas en cada una de ellas. La última viñeta de la página 15 (la número 90) es la que marca el punto de inflexión de este magnífico palíndromo: la imagen que aparece es simétrica respecto al eje vertical, y marca el centro de este enorme palíndromo.

La viñeta central de Cercle Vicieux, con el ayudante del científico protagonista.

A partir de esta viñeta central se observa que la casilla 91 (página 16) es la misma que la 89 (página 15), y se van comprobado sucesivamente estas identificaciones entre viñetas: 92 (página 16) = 88 (página 15), 93 (página 16) = 87 (página 15), …, 100 (página 17) = 80 (página 14),…, 179 (página 30) = 1 (página 1), hasta llegar a la casilla final, la 180 (página 30), que se reserva para la palabra FIN ¿o es el principio?

He puesto el signo de igualdad entre los números de las viñetas, para insistir en que son idénticas, tanto la imagen como el texto sobre ellas.

La historia trata de un sabio un tanto excéntrico y nervioso que trabaja en su laboratorio diseñando una máquina del tiempo. Le acompañan su paranoico asistente y su ingenua secretaria.

En las quince primeras páginas de Cercle Vicieux se habla de la máquina del tiempo, que el profesor y su ayudante no consiguen poner en marcha; quieren invertir el tiempo para salvar a la secretaria que ha sufrido un colapso. El nerviosismo y la desesperación son las claves en esta primera mitad del tebeo. Los mandos de la máquina envían mensajes extraños, uno de los interruptores de la máquina está apagado… Pero algo sucede de repente –exactamente en la viñeta 90, de las 180 de las que consta el tebeo–, algo que hace cambiar el ritmo y el tema de la trama.

En efecto, la acción de la viñeta central tiene lugar en una hora capicúa, son exactamente las 12h21, y como se ha indicado, el cómic empieza a escribirse en sentido inverso. La desesperación lleva a la calma, la secretaria ‘resucita’, aparece la atracción entre el sabio y la mujer…

Insistimos en que Lécroart narra la segunda parte de la historia invirtiendo el sentido de las viñetas, pero sin ningún otro cambio, ni en las imágenes ni en los diálogos. El autor consigue crear una historia coherente, tanto en la primera parte como en la segunda, como en su conjunto: a partir de la página central se construye una trama diferente, ‘deshaciendo’ el camino trazado al ir recorriendo las viñetas en sentido inverso…

Si leyéramos la historia desde el final –casillas 179, 178, 177, etc.– comenzaríamos de nuevo la historia del sabio que dice desesperado a su secretaria que no consigue poner en marcha su máquina del tiempo… se trata, sin duda, de un auténtico Círculo Vicioso…

Referencias

 

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Círculo vicioso se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ” El círculo de los nueve puntos “, una sociedad científica singular
  2. Repasando algunos objetos matemáticos notables
  3. Interpretando mensajes cifrados
Categories: Zientzia

#Naukas16 Tiene bigote, carga eléctrica y no lleva gafas

Tue, 2017/01/17 - 17:00

Partículas. Ilustración de Raquel Garcia Ulldemolins.

Mario Herrero Valea nos explica cómo se juega a un quién es quién muy particular.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas16 Tiene bigote, carga eléctrica y no lleva gafas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas16 La transferencia de conocimiento, ¿nos lleva a la pobreza?
  2. #Naukas16 Si Rajoy fuese nutricionista
  3. #Naukas16 Conviviendo con robots
Categories: Zientzia

El oscurecimiento de la alquimia

Tue, 2017/01/17 - 11:59

Todo hacía presagiar que Europa estaba lista para progresar rápidamente, pero no sería así para la química. El comienzo del siglo XIV supuso un estancamiento de 200 años en la alquimia europea, no así fuera del continente. ¿Por qué?

Los ciudadanos de Tournai (Bélgica) enterrando a las víctimas de la plaga. De “Las crónicas de Gilles Li Muisis” (1352)

El siglo XIV comenzó con una serie de hambrunas que se llevaron por delante muchas vidas, pero lo realmente grave empezó en los años cuarenta del siglo: la peste bubónica, la muerte negra. En unas pocas décadas casi la mitad de la población de Europa murió. Las ciudades, especialmente vulnerables a la enfermedad contagiosa, fueron abandonadas. Los nuevos centros del saber y nuevas ideas tuvieron que cerrar sus puertas. El progreso se detuvo.

Eduardo III contando los muertos tras la batalla de Crécy (1346)

Como si esta locura no fuese suficiente, los gobernantes añadieron la suya propia: la guerra fue continua en el continente entre 1337 y 1453. Los principales protagonistas fueron los Plantegenet ingleses y los Valois franceses y la excusa la sucesión en el trono de Francia, pero los reinos cristianos de la península ibérica también se vieron involucrados en uno y otro bando. En esta llamada Guerra de los Cien Años, bandas de ingleses se dedicaron a rapiñar la campiña francesa, matando y violando, hasta que una muchacha iletrada, Juana de Arco, empujada por su misticismo, consiguió revitalizar el bando francés.

Esta guerra continental terminó derivando en Inglaterra en una guerra interna, la Guerra de las Rosas, entre 1455 y 1487. En la península ibérica la guerra continuó contra los moros hasta 1492.

Pero todos estos males y penurias no podían dejarse pasar sin explicación. La mente racionalizadora de los humanos, que no racional, echó mano de sus sesgos y encontró una base para tanto desastre: era el demonio y sus secuaces los que sembraban el mal y la destrucción en todos los territorios. Una población ya religiosa y supersticiosa se convirtió en aún más religiosa y supersticiosa en los siglos XIV y XV.

Batalla de Nájera (1367) durante la primera guerra civil castellana

Formas extremas de penitencia, como la autoflagelación, se volvieron mucho más comunes. La Inquisición se estableció en Castilla para mantener a raya a herejes y conversos. La vida de un judío valía menos que la de una oveja y hubo estallidos de violencia generalizados. Especialmente relevante, quizás, sea el de 1391 en Castilla, Aragón y Navarra, consecuencia directa de la primera guerra civil castellana. El lema de uno de los grandes predicadores de la revuelta antijudía, Vicente Ferrer (santo de la Iglesia Católica), “bautismo o muerte”, se convertiría en la base de la política para con los no cristianos. El paroxismo llegó con la expulsión de los judíos de Castilla y Aragón en 1492.

La Europa cristiana se volcó en una guerra sin cuartel contra los paganos, las brujas, hechiceros, judíos, musulmanes y contra cualquiera que hiciese cualquier cosa fuera de las normas imperantes y las supersticiones anexas.

Quema de una mujer en Willisau (Suiza) en 1447

Fuera de los grupos étnicos, las mujeres fueron las que más sufrieron esta persecución. A las “brujas” se las cazó, torturó y ejecutó de las formas más salvajes, muchas veces durante campañas de limpieza. En muchas ocasiones las víctimas eran parteras y sanadoras, receptoras del conocimiento existente sobre medicina y química, pero se creía que aquellas personas con “poderes” para sanar tenían necesariamente que haber aprendido esos conocimientos de la boca del mismísimo Belcebú; y, si podían sanar, podían usar esos poderes para hacer daño.

Juan XXII

El papa Juan XXII había prohibido la práctica alquímica fraudulenta en 1317 en el decreto Spondent Pariter. No es de extrañar que la alquimia optase por oscurecerse.

Los alquimistas europeos (serios, no los que se dedicaban a estafar) de esta época fueron extremadamente cautelosos, por tanto, y no muy dados ni a la imaginación ni a los experimentos espectaculares. Si bien se produjeron algunos manuscritos alquímicos, se dedicaron a recoger el conocimiento existente y, en todo caso, a adornar el lenguaje de tal manera que se volviese impenetrable salvo para el iniciado. El simbolismo y el misterio se convirtieron en un arma de defensa, más que una forma de guardar “el gran secreto”, que no era otra cosa que lo que ya circulaba libremente en siglos anteriores. Esta oscuridad servía también como cortina frente a las acusaciones de falta de ortodoxia. No te podían acusar de nada concreto si todo era interpretable…

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El oscurecimiento de la alquimia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Alquimia musulmana
  2. Calculadoras (I)
  3. Cuatro páginas para un nobel
Categories: Zientzia

Historias de la malaria: El árbol de la quina

Mon, 2017/01/16 - 17:00

Paludismo: Enfermedad febril producida por un protozoo, y trasmitida al hombre por la picadura de mosquitos anofeles. Del latín palus·, –adis “laguna”, “pantano” e –ismo.

Malaria: Del italiano “malaria”, de mal, malo, y aria, aire.

“Tomar una onza de la mejor corteza de los jesuitas, raíz de serpentaria de Virginia, corteza de naranja, de cada mitad una onza; agítelo todo junto, y guarde durante cinco o seis días en una botella de brandy, de ginebra de Holanda, o de cualquier otro licor; después separe el líquido limpio y tome un vaso de vino dos o tres veces al día.”
William Bucham en 1791, quizá la primera cita del gin-tonic.

En una revisión publicada en 2012, Christopher Murray y su equipo, de la Universidad de Washington, en Seattle, estudiaron la mortalidad global provocada por la malaria entre 1980 y 2010, o sea, en nuestra época. Fueron entre 1200000 y 2780000 al año los fallecidos por esta enfermedad, con un aumento de casi el 25% en tres décadas. Es una enfermedad, por tanto, de triste y apremiante actualidad. Pero el informe de la OMS para 2015 es más esperanzador y menciona 214 millones de enfermos y entre 236000 y 635000 fallecidos. Las cifras descienden un 48% entre 2000 y 2015.

"Plasmodium" en el interior de una célula en la saliva de un mosquito hembra.

“Plasmodium” en el interior de una célula en la saliva de un mosquito hembra.

El paludismo o malaria se ha definido como una enfermedad infecciosa provocada por protozoos del género Plasmodium que infectan los glóbulos rojos de la sangre y se transmiten por las picaduras de las hembras infectadas de varias especies de mosquitos del género Anopheles. La enfermedad se caracteriza por periodos intermitentes de fiebre alta provocados por la reproducción del protozoo. Además, la destrucción de los glóbulos rojos provoca anemia y debilidad general.

Según los últimos datos conocidos en la evolución de la malaria, la enfermedad apareció en África, en la región de Etiopía, en primates y pasó a nuestra especie y se desarrolló y extendió debido a la gran movilidad de nuestros antepasados. Desde el valle del Nilo llegó al Mediterráneo y, después, a Asia y, hacia el norte, a Europa. A América se cree que llegó con los españoles y, para principios del siglo XIX, ya estaba la malaria en todo el planeta.

Papiro Ebers, uno de los tratados médicos más antiguos conocidos

Se describe en el papiro de Ebers, en el antiguo Egipto de hace casi 4000 años y también quedan pruebas documentales en China fechadas hace casi 6000 años, y en Mesopotamia y la India. Escriben y enseñan sobre la malaria Hipócrates, Herodoto y Homero en la Grecia clásica. Y en Roma era temida por las marismas y pantanos que rodeaban la ciudad imperial, estupendo criadero de mosquitos. Hace unas semanas se ha probado la presencia del plasmodio en los cadáveres de tres cementerios de las cercanías de Roma, enterrados entre los siglos I y III de nuestra era.

Entonces no conocían ni el protozoo que provoca la enfermedad ni sabían que los mosquitos la contagian, pero temían las miasmas, esos efluvios malignos que desprenden las aguas estancadas y que se consideraban la causa de las fiebres intermitentes y que, además, son la base del nombre en italiano para la enfermedad, “malaria”, compuesta de “mal” y “aria”, es decir, el “mal aire” que provoca las miasmas.

En los siglos XVII y XVIII era conocida y temida en todo el planeta. Por ejemplo, se escribió sobre ella en Gran Bretaña, con datos de fallecimientos, que ahora se han recuperado, en Escocia o en Inglaterra. También provocaba gran mortandad en países muy separados geográficamente como Holanda y España. En el resto de Europa, hasta los países escandinavos, la situación era la misma.

En nuestra Península solo en 1964 recibió España el certificado de la OMS de la erradicación del paludismo. Para ello se utilizaron todos los métodos conocidos: eliminación de los mosquitos, sobre todo desecando pantanos y con DDT, y eliminando el plasmodio de los portadores con la prescripción de la quinina y de drogas sintéticas anti-malaria.

Pero, como decía, en el siglo XVIII era una enfermedad muy extendida, sobre todo en Andalucía, Valencia, La Mancha, Cataluña, Baleares y Murcia. Hubo brotes fuertes en Aragón, Navarra y, sin confirmar, en las zonas orientales de Álava y Guipúzcoa. En toda la Península, la mortandad fue terrible en 1751, 1783 y 1802, en lo que ahora llamamos la Pequeña Edad del Hielo. No hay que olvidar que todos los lugares llamados “Fadura” o “Padura” vienen de “pantano” en latín y que también están en el origen del término “paludismo” para esta enfermedad. Todavía hace un siglo era un mal habitual y en el sur y el este de la península, con casi 2000 fallecidos en España por el paludismo en el año 1919, y con unos 200.000 enfermos en todo el país y por año.

Detalle del árbol de la quina

En este ambiente, con las llamadas fiebres intermitentes sufridas desde siempre y sin tratamiento conocido, las buenas noticias llegaron desde América. Fue en 1635 cuando el jesuita Bernabé Cobo publicó su “Historia del Nuevo Mundo”, y allí escribía:

En los términos de la ciudad de Loja, diócesis de Quito, nace cierta casta de árboles grandes que tienen la corteza como de canela, un poco más gruesa, y muy amarga, la cual, molida en polvo, se da a los que tienen calenturas y con sólo este remedio se quitan.”

Es la primera descripción escrita del árbol de la quina. Cobo añade que sus polvos ya son conocidos en Europa y que, incluso, se envían a Roma. Se conocían como el “polvo de los jesuitas”.

Unos años más tarde, en 1639, Felipe IV nombra al Conde de Chinchón, Luis Jerónimo Fernández de Bobadilla y Mendoza, Virrey del Perú. Dos meses después de la toma de posesión del Virrey en Lima, llegó su joven y bella esposa Doña Francisca Enríquez de Rivera. Pasaron los días y la joven Condesa cayó en unas fiebres intermitentes tercianas agotadoras.

El jesuita y confesor del Virrey, Diego Torres de Vásquez, le habló de los polvos que usaban los indios contra la fiebre. La Virreina, con unas pocas dosis de corteza de quina, curó rápidamente. Así, también se conocería a la quina como los “polvos de la condesa”. Hay que añadir que esta historia de la Condesa cada vez provoca más dudas entre los expertos en la historia del árbol de la quina.

Los primeros datos constatados de sus efectos sobre los enfermos de paludismo los escribió el médico sevillano Gaspar Caldera de Heredia en 1663. Se basa en los resultados que consiguió en enfermos sevillanos, hacia 1640, con la corteza que trajo del Perú Juan de la Vega, el médico del Virrey.

“Cinchona officinalis” en “Medicinal Plants” (1880) de Robert Bentley y Henry Trimen. Wellcome Images.

El primer informe científico sobre el árbol de la quina que llegó a Europa, con la descripción y los primeros esquemas, lo envió Charles-Marie de La Condamine. Se publicó en París en 1740. Recibió Linneo muestras y escritos de La Condamine y, con ellos, clasificó el árbol de la quina y le asignó el género Cinchona en 1742 y lo publicó en 1753, en honor de la bella y joven Condesa de Chinchón, con errata incluida y nunca corregida.

Durante años la única quina que llegaba a Europa la traían y distribuían los jesuitas según su criterio. Entraba por España y Roma y, poco después, llegó a Inglaterra y a Francia. Y ya en 1667, la quina estaba incluida en la farmacopea de Londres como medicamento oficial.

José Celestino Mutis

José Celestino Mutis nació en Cádiz en 1732 y murió al comienzo del siglo siguiente, en 1808, y en otro continente, en Santa Fé de Bogotá, en Colombia. Fue sacerdote, botánico, geógrafo, matemático, médico y profesor universitario. Ahora nos interesa como viajero, explorador y botánico por su relación con el árbol de la quina. Fue quien aclaró definitivamente la confusión entre varias especies de Cinchona y estableció cuales eran eficaces contra la malaria y cuales no la aliviaban.

La Real Expedición Botánica del Nuevo Reino de Granada, auspiciada por Carlos III y dirigida por Mutis, comenzó en 1783 y se prolongó por 30 años. El Herbario que se acumuló quedó depositado en el Real Jardín Botánico de Madrid. Como un resumen dedicado al árbol de la quina, Mutis escribió “El Arcano de la Quina”, que se publicó en 1828, después de la muerte del autor, aunque ya se conocía en Bogotá desde 1791.

Primera página de la edición original de “El arcano de la química” de José Celestino Mutis

En realidad, hasta que los botánicos europeos, como La Condamine, Linneo o Mutis, trabajaron en la clasificación de las especies del género Cinchona hubo mucha confusión con las muchas especies del árbol de la quina que, además, tenían en la corteza distintas concentraciones de quinina. Durante muchas décadas fue fácil engañar con lo que se conocía como “polvos de los jesuitas”.

De la corteza de quina se extrajo en 1820 el alcaloide quinina que era el compuesto que actuaba contra las fiebres. Lo consiguieron los químicos franceses Pierre Joseph Pelletier y Joseph Bienaimé Caventou. Este alcaloide fue durante más de un siglo el único alivio del paludismo.

A mediados del siglo XIX, y después de conspiraciones y aventuras, los holandeses consiguieron semillas del árbol de la quina y establecieron enormes plantaciones en sus colonias en Indonesia, sobre todo en la isla de Java.

Fueron naturalistas y exploradores, más bien espías industriales, como los ingleses Clements Markham y Charles Ledger o el holandés Justus Hasskarl, los que viajaron a los Andes en busca de ejemplares y semillas del árbol de la quina. Entre 1860 y 1870 consiguieron llevar las muestras a sus colonias y resembrar los árboles. Las consiguió el inglés Charles Ledger en Bolivia y las llevó a Londres. Ofreció su venta al gobierno inglés que no demostró gran interés en hacerse con ellas. Fue el cónsul de Holanda quien pagó por las plantas y las envió a su país. Fueron el origen de las plantaciones en Java a partir de 1852. En honor de Ledger, esta especie que crecía en Java se llamó Cinchona ledgeriana. De allí procedía la quina que las empresas farmacéuticas utilizaban para extraer la quinina que comercializaban en todo el mundo. El 90% del comercio mundial de la corteza y de la quinina, entre 1890 y 1940, venía de las colonias holandesas en Indonesia.

“Cinchona ledgeriana” en “Das Pflanzenreich Hausschatz des Wissens” (1900) de Ernst Gilg y Karl Schumann

Con la quinina a su disposición, los médicos la recetaron y popularizaron en la lucha contra la malaria. Europa, entonces, pudo colonizar los países con malaria en Asia y África y construir sus imperios. En fin, que la toma de muestras para sembrar el árbol fuera de su área geográfica original fue, a medio plazo, una empresa colonial y, en definitiva, imperial. Se dio quinina en cantidades masivas a los ejércitos europeos en las colonias de África y en el sur y sudeste de Asia. Y, además, fue un gran negocio para las farmacéuticas.

La quinina no era agradable de tomar. Como la corteza original, era muy amarga y de un gusto muy desagradable. Desde que empezó a utilizarse se buscaron muchos trucos para hacer pasable aquel mejunje, por otra parte tan beneficioso y necesario. Estaba la mezcla de William Bucham, el bebedizo secreto del inglés Richard Talbor o, y ha llegado a nuestros días, la popular bebida victoriana, inventada en la India, y que conocemos como gin-tonic. La primera agua tónica, con quinina, se fabricó en 1858 y, ahora, tiene mucha menos quinina, más o menos una décima parte que la necesaria como dosis terapéutica para aliviar la enfermedad.

Corteza de “Cinchona officinalis”

Así ocurrió hasta 1940, cuando comenzó la Segunda Guerra Mundial y los japoneses conquistaron Java y sus plantaciones de quina. De inmediato, los aliados se quedaron sin quinina y padeciendo la malaria en muchas de las zonas de combate. Desde siempre la malaria suponía uno de los mayores riesgos para los ejércitos en guerra. Por ello, su utilización en la medicina militar cambió el curso de la historia. Es lo que intentaron los japoneses en 1940. El uso más antiguo que se conoce del uso de la quina en guerra fue en el sitio de Belgrado en 1717.

Estados Unidos promovió plantaciones del árbol de la quina en Centro y Sudamérica pero fueron las compañías farmacéuticas las que fabricaron en cantidad suficiente drogas sintéticas anti-malaria. Para el ejército de Estados Unidos, solo el Proyecto Manhattan de desarrollo de la bomba atómica superó las prioridades de la investigación y fabricación de drogas sintéticas anti-malaria. Fueron la atebrina o la cloroquina los fármacos que sustituyeron, en parte pues se seguía y sigue utilizando, 400 años después de su descubrimiento por la ciencia europea, la quinina.

Solo ha aparecido una débil resistencia del protozoo a la quinina en áreas geográficas muy concretas. Se han propuesto tres hipótesis para explicar la eficacia de la quinina durante tanto tiempo. En primer lugar, que el blanco de la acción anti-plasmodio sea tan específico que la mutación que lo anula aparece muy raramente. O que las cepas actuales del plasmodio sean otras que las conocidas en los siglos anteriores y, quizá, la resistencia sea diferente. Y, finalmente, que la quinina no se haya utilizado en tanta cantidad y el tiempo suficiente como para crear resistencia en el plasmodio, todo ello a pesar de lo que nos pueda parecer después de cuatro siglos.

La quinina es uno de los mayores candidatos a ser el medicamento que ha aliviado de sus sufrimientos a más personas en la historia de nuestra especie. Sabemos que destruye al Plasmodium dentro de los glóbulos rojos pero, todavía, se desconoce el mecanismo.

Referencias:

Achan, J. et al. 2011. Quinine, an old anti-malarial drug in a modern world: role in the treatment of malaria. Malaria Journal 10: 144.

Amaya, J.A. 1986. Mutis. Ed. Debate. Madrid. 77 pp.

Balduque Álvarez, A. 2009. Los polvos de la condesa. Historia del paludismo en Madrid. Blog Escritores en Red. 2 septiembre.

Bayliss, J.H. 1985. Epidemiological considerations of the history of indigenous malaria in Britain. Endeavour 9: 191-194.

Bruce-Chwatt, L.J. 1988. Cinchona and its alcaloids: 350 years. New York State Journal of Medicine June: 318-322.

Castejón Porcel, G. 2015. Paludismo en España en los siglos XVIII-XIX: Distribución espacial y erradicación. En “Análisis espacial y representación geográfica: innovación y aplicación”, p. 69-78. Ed. por J. de la Riva et al. Universidad de Zaragoza.

De Buen, S. 1922. El paludismo en el campo. Calpe. Madrid. 32 pp.

Earle, D.P. 1979. A history of malaria and its ironies. Transactions of the American Clinical and Climatological Association 90: 1-26.

Goss, A. 2013. Building the world’s supply of quinine: Dutch colonialism and the origins of a global pharmaceutical industry. Endeavour 38: 8-18.

Granjel, L.S. 1978. La medicina española del siglo XVII. Universidad de Salamanca. 252 pp.

Greenwood, D. 1992. The quinine connection. Journal of Antimicrobial Chemotherapy 30: 417-427.

Klein, W. & T. Pieters. 2016. The hidden history of a famous drug: Tracing the medical and public acculturation of Peruvian bark in early modern western Europe (c. 1650-1720). Journal of the History of Medicine and Allied Sciences doi: 10.1093/jhmas/jrw004

La Condamine, C.M. de. 1738 (1740). Sur l’arbre du quinquina. Memoires de l’Academie Royale 226-243.

López Piñero, J.M. et al. 1976. Materiales para la historia de las ciencias en España: s. XVI-XVII. Pre-textos. Valencia. 314 pp.

Marciniak, S. et al. 2016. Plasmodium falciparum malaria in 1st-2nd century CE Southern Italy. Current Biology 26: R1220

Meshnick, S.R. 1997. Why does quinine still work after 350 years of use? Parasitology Today 13: 89-90.

Murray, C.J.L. et al. 2012. Global malaria mortality between 1980 and 2010: a systematic analysis. The Lancet 379: 413-431.

Neghina, R. et al. 2010. Malaria, a journey in time: In search of the lost myths and forgotten stories. American Journal of the Medical Sciences 340: 492-498.

OMS. 2016. Informe mundial 2015 sobre el paludismo. Resumen. Ginebra. 32 pp.

Ortiz Crespo, F.I: 1994. La Cinchona antes y después del Virreinato del Conde de Chinchón. Interciencia 19: 130-136.

Pagès, F. 1953. Le paludisme. P.U.F. Paris. 114 pp.

Philip, K. 1999. Global botanical networks, political economy, and environmentalist doscourses in Cinchona transplantation to British India. Revue française d’histoire d’outre-mer 86: 119-142.

Puente Veloso, S. 1985. Historia de las quinas de Nueva Granada. Anales de la Real Academia Nacional de Medicina 102: 305-335.

Riera, J. 1984. Fiebres y paludismo en la España ilustrada. Universidad de Valladolid. 75 pp.

Schlagenhauf, P. 2004. Malaria from prehistory to present. Infectous Disease Clinics of North America 18: 189-205.

Shanks, G.D. 2016. Historical review: Problematic malaria prophylaxis with quinina. American Journal of Tropical Medicine and Hygiene 95: 269-272.

Sorní Esteva, J. 1991. El quino, la quina y la quinina. Crónica Filatélica 79: 91-93.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Historias de la malaria: El árbol de la quina se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una buena colección de historias maravillosas
  2. Los matemáticos también mueren (Historias de muerte y matemáticas 2)
  3. Muerte entre las ecuaciones (Historias de muerte y matemáticas 1)
Categories: Zientzia

Los bimbaches de Punta Azul (El Hierro)

Mon, 2017/01/16 - 11:59

El Hierro es el verdadero finis terrae de España, un territorio donde el aislamiento marca a sus habitantes desde hace siglos, incluso desde los tiempos de sus primeros pobladores, cuyo ADN sugiere que descienden de la primera oleada de bereberes que se aventuró a colonizar Canarias.

Las investigadoras Concepción de la Rua Vaca y Montse Hervella Afonso del Departamento de Genética, Antropología Física y Fisiología Animal de la Facultad de Ciencia y Tecnología de la UPV/EHU, junto con las investigadoras Alejandra C. Ordoñez, Rosa Irene Fregel, A. Trujillo-Mederos, y Matilde Arnay de la Rosa de la Universidad de la Laguna, han publicado en Journal of Archaeological Science un estudio genético de los antiguos bimbaches, a partir del análisis del ADN de 61 de las 127 personas enterradas en la cueva de Punta Azul, un yacimiento del siglo XII.

Sus conclusiones no solo corroboran los lazos genéticos que unen a los aborígenes canarios con las poblaciones bereberes del norte de África -algo ya apuntado por varios estudios-, sino que sugieren que El Hierro se pobló en tiempos antiguos de una sola vez, por un grupo humano que probablemente no volvió a tener contactos con el exterior casi hasta la llegada de los primeros conquistadores europeos.

El trabajo recuerda que Canarias es el único archipiélago de la Macaronesia (región que incluye también a Madeira, Azores y Cabo Verde) que fue habitado antes de la llegada de los colonos europeos, en tiempos que se remontan a mediados del primer milenio antes de Cristo en el caso de Tenerife (época a la que pertenece la datación de carbono 14 más antigua) y al siglo I de la era moderna para el resto de islas.

Los estudios genéticos que se han publicado hasta la fecha indican que Canarias fue poblada en al menos dos oleadas del norte de África que luego se quedaron aisladas del resto del mundo en buena parte de los casos hasta la llegada de los españoles, portugueses y normandos en el siglo XV, incluso sin apenas contacto entre islas, como relatan las crónicas europeas de la conquista.

Organización matriarcal de los aborígenes canarios

Los análisis de ADN realizados por los investigadores de la UPV/EHU y de La Laguna indican que todos los individuos enterrados en la cueva de Punta Azul (al menos los 61 analizados) comparten un mismo linaje en el ADN mitocondrial; o lo que es lo mismo, tienen un ancestro materno común, algo que los autores atribuyen a la organización matriarcal descrita entre los aborígenes canarios.

Y se trata de un linaje considerado “fundador”, ya que está presente en toda la población actual de Canarias (con una incidencia global del 1,8%) y se ha encontrado también en los aborígenes antiguos de Tenerife, La Palma y La Gomera.

El trabajo revela asimismo, esta vez a través del cromosoma Y, que la gran mayoría de esos individuos proceden de dos linajes paternos: uno autóctono del norte de África (halogrupo E-M81) y otro de raíces europeas, pero también presente desde hace siglos en el norte de África (R-M29), aunque también hay un individuo con marcadores originarios del África Subsahariana (E-M33).

Para ahondar más en el código genético de los bimbaches de Punta Azul, los investigadores también han analizado los marcadores STR (pequeñas secuencias que se repiten en el ADN y que permiten establecer parentescos), con un resultado que apunta en la misma línea: esas personas no tienen diferencias genéticas significativas con los antiguos bereberes.

.

Dificultad para llegar a la isla

“Probablemente, a El Hierro le alcanzó la primera oleada migratoria y luego se quedó aislada. Esta hipótesis concuerda con la dificultad que existe para llegar a la isla”, escriben los autores, que recuerdan que se trata de la isla más meridional de Canarias y la más alejada de la costa de África, con unas condiciones de vientos y corrientes que hacen complejo navegar hasta ella.

El artículo subraya que el aislamiento “ha marcado el comportamiento de los herreños durante toda su historia” y que los bimbaches tuvieron que enfrentarse al llegar a la isla a duras condiciones naturales que probablemente les llevaron “un cuello de botella”, aunque su ADN no muestra signos que indiquen que tuvieran problemas de endogamia.

Referencia:

A. C. Ordoñez, R. Fregel, A. Trujillo-Mederos, M. Hervella, C. de-la-Rúa, M. Arnay-de-la-Rosa, Genetic studies on the prehispanic population buried in Punta Azul cave (El Hierro, Canary Islands) Journal of Archaeological Science 78 (2017) 20e28. doi: 10.1016/j.jas.2016.11.004

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Los bimbaches de Punta Azul (El Hierro) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Nanopartículas de hierro contra el lindano
  2. Y el Sol se volvió azul
  3. Hubo una migración de vuelta a África en el Paleolítico
Categories: Zientzia

“Laboratorium”, el museo del Real Seminario de Bergara

Sun, 2017/01/15 - 11:59

Tras largos años de investigar, clasificar, conservar y restaurar una antigua colección de objetos científicos, en septiembre de 2015 se inauguró el Museo Laboratorium, en Bergara (Gipuzkoa, País Vasco). El objetivo fundamental del museo es difundir la importancia de la innovación, la ciencia y la educación como base para el avance y el desarrollo. ¿Por qué este nuevo museo? Porque Bergara fue la sede del Real Seminario, una institución única en el País Vasco cuya excelente trayectoria histórico-científica y cuya colección científica constituyen la base del nuevo proyecto. ¿Conoces el Real Seminario? ¿Y sus colecciones?

Palacio de Errekalde, sede del museo Laboratorium

El Real Seminario (en su origen Real Seminario Patriótico Bascongado) constituye la cuna de la ciencia en el País Vasco. Fundado en 1776 por la Real Sociedad Bascongada de Amigos del País, sus primeros años resultaron espectaculares. El químico francés L.J. Proust (uno de los fundadores de la química moderna, recordado por haber propuesto la ley de las proporciones definidas) fue profesor en el Seminario y montó el excelente Laboratorium chemicum del centro. En sus instalaciones, los hermanos Elhuyar descubrieron en 1783 un nuevo elemento químico, el wolframio; y aquí también se encontró el método para lograr la maleabilidad del platino, lo que permitió el uso del valioso metal. En el siglo XIX, aunque muy condicionado por las guerras, el centro mantuvo su importancia. Se convirtió en Escuela Industrial para la formación de ingenieros (primera en el País Vasco), y durante años fue el único instituto existente en Gipuzkoa. Su infraestructura científica seguía siendo de primer orden: laboratorios de Química, gabinetes de Física, jardín botánico, colecciones de zoología, observatorio meteorológico.

Los rectores del Real Seminario, en el período 1776-1892 sobre todo, acudieron a los principales productores y comercios europeos de equipamiento científico a adquirir el material necesario para equipar las instalaciones de Bergara. Reunieron gran cantidad de utensilios científicos modernos y de calidad, para hacer e impartir ciencia. Ese es el origen de los objetos científicos que constituyen la base de la colección del museo.

Se trata de una colección única en el País Vasco, tanto por la relevancia histórico-científica de la institución que la creó, como por la riqueza de las distintas secciones científicas que la componen, por su antigüedad, y por albergar piezas únicas y extraordinarias. La colección está compuesta hoy por tres mil objetos científicos, entre instrumental de Física, de Química, minerales, fósiles, modelos de anatomía humana y ejemplares de zoología; la mayoría de ellos del siglo XVIII y sobre todo del XIX.

Puedes conocer con mayor detalle la historia del Real Seminario y parte de sus colecciones en la sede del museo, en el palacio de Errekalde de Bergara. Este palacio está estrechamente vinculado a los inicios de la ciencia en el País Vasco, ya que a finales del siglo XVIII residió en él Xabier María Munibe, VIII Conde de Peñaflorida, quien fuera durante años director del Seminario en la época de la Ilustración. Te aseguramos que la visita merece la pena.

Imagen de la exposición permanente

Pero la actividad del museo Laboratorium no se va a limitar solamente a la colección expuesta. Ni mucho menos. Actualmente está ya muy extendido el concepto de la “Nueva Museología”, corriente museológica en la que se incluye este museo. La clave de esta nueva museología está en ampliar los parámetros del museo tradicional, democratizándolo; es decir, cuando pasamos del museo tradicional al museo nuevo, sin limitarnos a las colecciones del museo, nos adentramos en el Mundo del Patrimonio (patrimonio cultural y natural); sin olvidar al público que acude al museo, tomamos como eje a la sociedad, a la comunidad; sin menosprecio del edificio del museo, nos expandimos hacia el territorio.

Y en esa expansión, surgió la generosa oferta de la Cátedra de Cultura Científica de la UPV/EHU para que este Cuaderno sea una de las ventanas del Laboratorium. A través de la misma, partiendo del Real Seminario de Bergara como eje, vamos a contar historias sobre la ciencia y la sociedad, historias que ocurrieron en los siglos XVIII y XIX, y que esperamos compartir contigo.

Autor: Equipo técnico del museo Laboratorium

Museo Laboratorium. Palacio Errekalde, Juan Irazabal s/n, 20570 Bergara

Contacto: 943 769 003; laboratorium@bergara.eus.

El artículo “Laboratorium”, el museo del Real Seminario de Bergara se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Salud: ciencia y comunicación (seminario)
  2. Una luz para el siglo XXI, por Aitor Bergara
  3. Visión de los jóvenes vascos sobre la ciencia y la tecnología
Categories: Zientzia

#Naukas16 Pianos, torpedos y lo inesperado

Sat, 2017/01/14 - 11:59

Hedy Lamarr

Beatriz Sevilla , aunque no lo parezca al comienzo, narra, cual moderna trobairitz, la historia sin par de Hedy Lamarr.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas16 Pianos, torpedos y lo inesperado se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas16 ¿Cifras o encriptas? Siempre con la ayuda de tus primos
  2. #Naukas16 ¿Que te chupe la qué?
  3. #Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna
Categories: Zientzia

25 años de planetas extrasolares

Fri, 2017/01/13 - 12:00

Impresión artística de Próxima b, el planeta extrasolar más cercano a la Tierra

Esta semana se han cumplido 25 años de la publicación en la revista Nature del artículo A planetary system around the millisecond pulsar PSR1257 + 12 (Un sistema planetario alrededor del púlsar de milisegundo PSR1257 + 12) por A. Wolszczan y D. A. Frail. En su resumen decía esto:

Los púlsares de radio de milisegundo, que son viejas (~109 años) estrellas de neutrones en rápida rotación aceleradas por acrecimiento de materia de sus compañeras estelares, se encuentran por lo general en sistemas binarios junto con otras estrellas degeneradas.

Usando el radiotelescopio de Arecibo para hacer mediciones precisas de los pulsos del recientemente descubierto púlsar de 6,2 milisegundos PSR1257+12 demostramos que, en lugar de estar asociado con un objeto estelar, el púlsar es orbitado por dos o más cuerpos del tamaño de un planeta.

Los planetas detectados hasta el momento tienen masas de por lo menos 2,8 M☉ y 3,4 M☉, donde M☉ es la masa de la Tierra. Sus distancias respectivas al púlsar son de 0,47 ua y 0,36 ua, y se mueven en órbitas casi circulares con periodos de 98,2 y 66,6 días. Las observaciones indican que puede haber al menos otro planeta en este sistema.

La detección de un sistema planetario alrededor de una estrella vieja y cercana (~500 pc), junto con el reciente informe acerca de un compañero planetario del púlsar PSR1829–10 plantea la posibilidad de que una fracción no despreciable de las estrellas de neutrones observables como púlsares de radio puedan tener cuerpos similares a planetas en órbita alrededor de ellas.

Los planetas a los que se referían Wolszczan y Frail en su artículo, conocidos hoy como Phobetor y Poltergeist, son los dos primeros planetas extrasolares de cuya existencia tuvimos confirmación, aunque hacía cientos de años que sospechábamos que, dado lo enorme que es el universo, tenía que haber planetas más allá de nuestro sistema solar. La existencia del tercer planeta cuya existencia insinúan, recientemente bautizado como Draugr, fue confirmada en 1994.

La última frase del resumen del artículo, además, ha resultado ser profética, ya que desde la publicación de ese histórico trabajo hemos descubierto unos 3.500 planetas extrasolares más, aunque en órbita alrededor de todo tipo de estrellas, no sólo de púlsares, Alfa Centauri, la más próxima a nosotros, incluída. Y hay otros miles esperando observaciones adicionales que confirmen –o no– su existencia, ya que detectar exoplanetas es un proceso muy delicado. De hecho a Phobetor y Poltergeist les podía haber quitado el puesto HD 114762 b, un planeta extrasolar que fue descubierto en 1989, de no ser porque su existencia no fue confirmada hasta muy recientemente, ya que había serias dudas de que no se tratara de una enana marrón.

En cualquier caso lo que ha quedado claro una vez que hemos sido capaces de comprobar que en efecto hay planetas más allá del sistema solar, y es que hay un número enorme de estrellas con planetas. Hay estimaciones que hablan de la enorme cifra 160.000 millones de planetas extrasolares sin salir de nuestra galaxia. De ellos unos 17.000 millones son de tamaño similar al nuestro.

Muchos de los exoplanetas cuya existencia hemos podido confirmar son además mucho más extraños de lo que podíamos haber imaginado: desde planetas con tres soles a planetas en los que llueven rocas a planetas que son un gran diamante, por citar algunos casos. Y por si eso fuera poco algunos de ellos han venido a poner en duda muchas ideas que teníamos acerca de cómo se forman los sistemas planetarios… pero es que a fin de cuentas sólo conocíamos un sistema solar.

La más que aparente abundancia de planetas extrasolares hace además que sea inevitable plantearse la posibilidad de que haya vida más allá de nuestra pequeña esquina del universo, algo que apoya el hecho de que cada vez vamos encontrando más planetas extrasolares potencialmente habitables. Y eso que de nuevo sólo manejamos un ejemplo de lo que es la vida, así que no sería de extrañar que nos estuviéramos confundiendo a la hora de estimar qué planetas extrasolares son potencialmente habitables.

Pero en cualquier caso lo que parece claro es que si no existiera vida más allá de la Tierra, y parafraseando la doctora Ellie Arroway, la protagonista de Contact, el universo sería un enorme desperdicio de espacio.

De planetas extrasolares y del origen de la vida en la Tierra –o puede que más allá– hablaremos, entre otras cosas, en Naukas Coruña 2017, que se celebrará el próximo 25 de febrero bajo el título La vida, el universo y todo lo demás.

Este post ha sido realizado por Javier Pedreira (@Wicho) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo 25 años de planetas extrasolares se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Veinte años de dinosaurios con plumas
  2. Que 100 años no es nada… o por qué aún no tenemos una central nuclear de fusión
  3. La historia de la insulina, 90 años salvando vidas
Categories: Zientzia

#Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna

Thu, 2017/01/12 - 17:00

Nuestra lengua materna nos hace alucinar. Literalmente. Idoia Ros nos los explica.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas16 Sandman, tócala otra vez
  2. #Naukas16 Dedos de zinc para el baile de San Vito
  3. #Naukas16 ¿Que te chupe la qué?
Categories: Zientzia

NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)?

Thu, 2017/01/12 - 11:59

venus-brillando-sobre-el-pacifico

Venus brillando sobre el Pacífico

Decía Mecano que nunca hemos ido a Venus en un barco, y tenía razón. Pero sí que fuimos varias veces vez a bordo de naves espaciales (no tripuladas, lo de “fuimos” es una forma de hablar). La última vez nos llevó la sonda Magallanes. La misión partió de la Tierra en 1989 y orbitó en torno a nuestro planeta vecino hasta 1994, cuando terminó su tarea y se precipitó hacia su superficie, desintegrándose parcialmente por el camino.

La semana pasada la NASA anunciaba cuáles serían sus próximas misiones de exploración del sistema solar: la sonda espacial Lucy será lanzada en octubre de 2021 y explorará seis asteroides de los alrededores de Júpiter de 2027 a 2033, mientras que Psyche, cuyo lanzamiento está programado para octubre de 2023, visitará en la misma zona un asteroide metálico llamado Psyche 16.

Los dos proyectos han sido seleccionados entre los cinco que pasaron el corte final en 2015. Entre los tres descartados había uno que proponía volver a Venus. Se llamaba Investigación de los Gases Nobles, la Química y las Imágenes de la Atmósfera Profunda de Venus (lo que en inglés daba como resultado el poético nombre DAVINCI porque a la NASA, a marketing, no le gana nadie), y su objetivo era justamente ese: estudiar la composición química de la atmósfera venusiana durante un descenso de 63 minutos para responder preguntas como si quedan volcanes activos en Venus o cómo interacciona la atmósfera con la superficie del planeta.

Otra vez será, queridos astrónomos especializados en Venus. Unos astrónomos, por cierto, que empiezan a mosquearse porque opinan que la NASA se ha olvidado de ‘su’ planeta. Ni una sola misión ni plan de exploración en casi 30 años, tres décadas en las que se ha intensificado el estudio del sistema solar, años en los que por visitar, hemos visitado hasta el lejanísimo Plutón. Y para Venus, ni una triste sonda, ni una pequeñita.

La sonda Messenger retrató a Venus en su camnio hacia Mercurio

La sonda Messenger retrató así a Venus en su camnio hacia Mercurio

¿Por qué deberíamos viajar a Venus?

Porque Venus es considerado por los científicos como un planeta hermano de la Tierra. Es el anterior en orden tras el nuestro partiendo desde el Sol, es rocoso y de tamaño similar. Además, se cree que se formó a partir de los mismos materiales y aproximadamente en el mismo momento que la Tierra.

Pero las similitudes terminan ahí, porque el ambiente en la superficie venusiana no tiene nada que ver con el que experimentamos en la Tierra: la presión es 90 veces superior, la temperatura media supera los 400 grados a causa de que la atmósfera está compuesta principalmente por gases de efecto invernadero, como el dióxido de carbono. A causa de la temperatura, no existe agua líquida en su superficie.

Para terminar de dibujar esta especie de Tierra extraña, en Venus el día dura 243 días terrestres, lo que lo convierte en el periodo de rotación más largo del sistema solar, y además gira en el sentido contrario al que lo hacen los demás planetas: en un día en Venus el sol sale por el Oeste y se esconde por el Este.

Por todos estos motivos, Venus se considera un lugar incompatible con cualquier forma de vida conocida… Y sin embargo, algunos astrónomos creen que una vez albergó océanos como los nuestros y ser habitable.

Imagen de la superficie de Venus compuesta a partir de las imágenes captadas por la sonda Magallanes

Imagen de la superficie de Venus compuesta a partir de las imágenes captadas por la sonda Magallanes

Pero en algún momento, su evolución y la de la Tierra siguieron caminos diferentes. Ambos planetas contienen la misma cantidad de dióxido de carbono, pero en la Tierra las placas tectónicas, los océanos y los seres vivos contribuyen a extraer la mayor parte de la atmósfera, dejando en ella solo una pequeña cantidad, suficiente para retener parte del calor del Sol.

En Venus, el calor que impide la presencia de agua líquida y la intensa actividad volcánica causaron que todo el CO2 fuese liberado a la atmósfera, aumentando la temperatura aún más, hasta dar forma al infierno tóxico que hoy conocemos.

¿Qué pasó exactamente para que dos planetas que en principio fueron similares hayan terminado teniendo características tan distintas? Es una pregunta que los científicos se hacen sin conocer todavía la respuesta. Obtenerla no solo aumentaría nuestro conocimiento sobre el sistema solar y su evolución, sino que nos ayudaría a entender cómo los cambios en la atmósfera afectan a la superficie y al revés. Y seamos sinceros, es algo que nos vendría muy bien saber.

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista en El Confidencial

El artículo NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sorpresas en la atmósfera del polo sur de Venus
  2. Los volcanes de Venus
  3. Galileo vs. Iglesia Católica redux (IV): Venus
Categories: Zientzia

La estructura 3D de la cota de malla invierte el efecto Hall

Wed, 2017/01/11 - 17:00

Estructura básica de la cota de mallaEstructura básica de la cota de malla

Inventada por los celtas probablemente en el siglo V antes de la era común, la cota de malla, una armadura metálica formada por anillos de hierro forjado unidos entre sí, fue usada por los romanos, durante toda la Edad Media y hasta entrado el siglo XVI como forma de protección contra los objetos punzantes. El patrón básico que la forma, donde un anillo está unido a cuatro, forma geometrías más complejas que dan lugar hoy a metamateriales con propiedades muy exóticas.

En 1879 Edwin Hall descubrió que en un conductor por el que circula una corriente eléctrica en presencia de un potente campo magnético perpendicular aparece otra corriente eléctrica perpendicular tanto a la corriente original como al campo magnético. La potencia de esta corriente es proporcional tanto a la densidad de la corriente original como a la del campo magnético. La constante de proporcionalidad se llama coeficiente de Hall.

Ahora, un equipo de investigadores del Instituto de Tecnología de Karlsruhe coordinado por Martin Wegener ha desarrollado un nuevo metamaterial con geometría de cota de malla en el que el hecho de adoptar esa geometría cambia el signo del coeficiente de Hall del material con el que está formada.

medium.

El efecto Hall es la base de los sensores magnéticos que emplean, por ejemplo, las brújulas de los teléfonos inteligentes. La mayoría de los sólidos, en los que la corriente la transportan los electrones, tienen un coeficiente de Hall negativo; el coeficiente es positivo solo en el caso de que la corriente fluya en forma de agujeros (lugares en los que no hay un electrón), como ocurre en los semiconductores del tipo p. En 2015 el grupo de Wegener propuso un diseño de metamaterial en el que el coeficiente sería positivo aunque los elementos estructurales tuviesen un coeficiente negativo. Cada punto en la celdilla unidad en la estructura de este material sería un toro (anillo) semiconductor hueco, y la celdilla unidad sería la misma que la de la cota de malla.

Lo que ahora han hecho los investigadores es llevar a cabo su idea fabricando un andamio polimérico en 3D al que han recubierto de óxido de zinc. Una vez construido han medido el coeficiente de Hall para estructuras con varias distancias entre los toros, demostrando que el signo del coeficiente depende de esta distancia.

Este metamaterial podría usarse para construir nuevos sensores magnéticos que contengan elementos con coeficientes de Hall tanto positivos como negativos y que podrían por tanto detectar gradientes o vórtices en un campo magnético.

Referencia:

Christian Kern, Muamer Kadic, and Martin Wegener (2017) Experimental Evidence for Sign Reversal of the Hall Coefficient in Three-Dimensional Metamaterials Phys. Rev. Lett. doi: 10.1103/PhysRevLett.118.016601

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo La estructura 3D de la cota de malla invierte el efecto Hall se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La estructura en común de estrellas de neutrones y aparcamientos
  2. Una nueva cosmoquímica por descubrir gracias al efecto túnel cuántico
  3. Un método para determinar la estructura átomo a átomo en un cristal
Categories: Zientzia

Criptografía con matrices, el cifrado de Hill

Wed, 2017/01/11 - 11:59

Hace no mucho tiempo me encontraba yo buscando un ejemplo sencillo de aplicación de las transformaciones lineales que me permitiera explicarlas de una forma práctica e interesante, cuando descubrí el cifrado de Hill.

No es la primera vez que en la sección Matemoción del Cuaderno de Cultura Científica hablamos de criptografía. En la entrada Códigos secretos en la primera guerra mundial ya repasamos algunos de los métodos de encriptación clásicos, como son el cifrado de César, el atbash hebreo, el cifrado francmasón, el cifrado de Polibio, el método de Francis Bacon, el cifrado Vigenère y la cifra ADFGVX.

"La matriz rusa, multiplicación de una matriz por una matriz columna", del artista franco-ruso Paul Kichilov“La matriz rusa, multiplicación de una matriz por una matriz columna”, del artista franco-ruso Paul Kichilov

El cifrado de Hill fue inventado, basándose en el álgebra lineal, por el matemático norteamericano Lester S. Hill en 1929, y aparece explicado en su artículo Cryptography in an Algebraic Alphabet, publicado en The American Mathematical Monthly.

Es un sistema criptográfico de sustitución polialfabético, es decir, un mismo signo, en este caso una misma letra, puede ser representado en un mismo mensaje con más de un carácter. Así, en el ejemplo que vamos a analizar a continuación, la letra A del mensaje original aparece representada en el mensaje codificado de tres formas distintas, como C, K e I.

Expliquemos en qué consiste el cifrado de Hill. En primer lugar, se asocia cada letra del alfabeto con un número. La forma más sencilla de hacerlo es con la asociación natural ordenada, aunque podrían realizarse otras asociaciones diferentes. Además, en este ejemplo solamente vamos a utilizar las 27 letras del alfabeto, pero también podrían añadirse otros símbolos usuales, como el espacio en blanco “_”, el punto “.” o la coma “,”, la interrogación “?”, las 10 cifras básicas, etcétera.

imagen-2

Como en la correspondencia anterior, entre letras/signos y números, solamente aparecen 27 números, hay que trabajar con los números enteros “módulo 27”. Es decir, se consideran los números enteros 0, 1, 2,… , 26 y el resto se identifica con estos de forma cíclica. Así, el 27 es igual a 0, el 28 a 1, el 29 a 2, etcétera, y lo mismo con los números negativos, de forma que – 1 es igual 26, – 2 es igual 25, etcétera. Además, se reducen las operaciones aritméticas (suma, resta, multiplicación y división) al conjunto de los números enteros módulo 27 de forma natural, es decir, al operar dos números enteros (módulo 27) el resultado se considera también módulo 27. Por ejemplo, si se realiza la multiplicación de los números 6 y 13, módulo 27, el resultado dará 24 (módulo 27), puesto que 6  13 = 78 y 78 = 2  27 + 24. O el inverso de 2, es decir, el número a tal que 2  a es igual a 1 (módulo 27), es 14, puesto que 2  14 = 28, que es igual a 1, módulo 27.

En el cifrado de Hill se utiliza una matriz cuadrada de números A como clave, la cual determina la transformación lineal Y = AX, donde Y, X son vectores columna y A y X se multiplican con la multiplicación de matrices (véase la siguiente imagen). Veamos un ejemplo. Consideremos la matriz cuadrada 3 x 3 (aunque en general pueden considerarse matrices cuadradas de cualquier tamaño) siguiente y la correspondiente transformación lineal Y = AX:

imagen-3.

Supongamos que el mensaje que se quiere enviar encriptado es

“CUADERNO DE CULTURA CIENTIFICA”,

cuya transcripción numérica, teniendo en cuanta la tabla de sustitución anterior, es “2, 21, 0, 3, 4, 18, 13, 15, 3, 4, 2, 21, 11, 20, 21, 18, 0, 2, 8, 4, 13, 20, 8, 5, 8, 2, 0”. Como la transformación lineal es de orden 3, vamos a agrupar los números en grupos de tres, en ternas, sobre las que luego aplicaremos la transformación lineal, (2, 21, 0), (3, 4, 18), (13, 15, 3), (4, 2, 21), (11, 20, 21), (18, 0, 2), (8, 4, 13), (20, 8, 5), (8, 2, 0).

A continuación, vamos a transformar las ternas de números anteriores, mediante la transformación lineal dada por la clave, en nuevas ternas, que serán el mensaje numérico cifrado. ¡Ojo!, que en la transformación lineal no hay que olvidar que seguimos trabajando con los números enteros módulo 27.

imagen-4.

Aunque la transformación lineal de la terna (2, 21, 0) es inicialmente (44, 84, 2), como estamos trabajando con enteros módulo 27, esta terna se convierte en (17, 3, 2), ya que 44 = 1 x 27 + 17 y 84 = 3 x 27 + 3. E igual para el resto.

imagen-5.

imagen-6.

Por lo tanto, el mensaje numérico cifrado es “17, 3, 2, 11, 25, 3, 25, 21, 4, 17, 5, 22, 6, 23, 2, 24, 10, 3, 1, 0, 5, 24, 3, 23, 12, 8, 8”, que al transformar de nuevo los números en sus correspondientes letras, se convierte en el mensaje cifrado

“QDCLYDYUEQFVGWCXKDBAFXDWMII”.

Y este es el mensaje que se envía para que no sea comprendido por el “enemigo” aunque este lo intercepte en el camino.

Imágenes de la patente US 1.845.947 presentada por Lester S. Hill y Louis Weisner, quienes diseñaron una máquina que implementaba el cifrado de Hill de orden 6Imágenes de la patente US 1.845.947 presentada por Lester S. Hill y Louis Weisner, quienes diseñaron una máquina que implementaba el cifrado de Hill de orden 6

Para poder descodificar los mensajes cifrados mediante el método de Hill se necesita que la matriz de la transformación lineal utilizada, la clave, sea una matriz inversible. La matriz de nuestro ejemplo lo es, puesto que su determinante es no nulo, |A| = 22. Además, la matriz inversa de A, que es la necesaria para descodificar un mensaje cifrado, es

imagen-8.

Pero ojo, estamos trabajando con los enteros módulo 27 y vamos a transformar la matriz inversa anterior en una matriz con números enteros módulo 27. Para empezar se necesita el inverso del número 22. Se ve fácilmente que 22  16 = 352, que es igual a 1, módulo 27, luego 1/22 = 16. Y la matriz inversa se transforma, módulo 27, en

imagen-9.

Expliquemos ahora el proceso de descodificación de un mensaje. Imaginemos que el receptor recibe el siguiente mensaje

“EHAHTDINRKQOPUSKVLKMUFÑG”,

y quiere conocer su significado. Para descodificar el mensaje hay que utilizar el mismo método anterior, el cifrado de Hill, pero utilizando como clave la matriz inversa A-1 (módulo 27) de la matriz A de codificación.

Por lo tanto, se empieza de nuevo transformando el mensaje en la sucesión de ternas numéricas asociada, (4, 7, 0), (7, 20, 3), (8, 13, 18), (10, 17, 15), (16, 21, 19), (10, 22, 11), (10, 12, 21), (5, 14, 6). Y entonces se transforman mediante la transformación lineal con matriz A-1, es decir, Y = A-1 ∙ X.

imagen-10.

imagen-11.

imagen-12.

En consecuencia, la secuencia de ternas numéricas original asociada al anterior mensaje codificado es (3, 8, 22), (21, 11, 6), (0, 13, 3), (15, 11, 0), (19, 12, 0), (20, 4, 12), (0, 20, 8), (2, 0, 19). Y traduciendo los números a sus correspondientes letras del alfabeto se obtiene que el mensaje original enviado es

“DIVULGANDO LAS MATEMATICAS”.

//ciphermachines.com]Máquina de cifrado M-94 utilizada por el ejército de los Estados Unidos de América entre los años 1922 y 1945, que consta de 25 discos con las letras del alfabeto. Imagen de la página Cipher Machines

Sin embargo, el cifrado de Hill no es seguro. Utilizando métodos de álgebra lineal en un “ataque con texto claro conocido” puede romperse el código y descubrir la matriz clave de encriptado. Un ataque con texto claro conocido significa que el analista que quiere romper el código dispone de un ejemplo de “texto en claro”, es decir, de un mensaje original, con el correspondiente mensaje cifrado.

Veamos cómo se puede romper este código. Supongamos que estamos utilizando la matriz clave anterior A = (1 2 3 / 0 4 5 / 1 0 6), y que el analista “enemigo” ha conseguido obtener tanto un mensaje original como el correspondiente mensaje cifrado. Por ejemplo, el primero de los utilizados en esta entrada del Cuaderno de Cultura Científica.

MENSAJE ORIGINAL: “CUADERNO DE CULTURA CIENTIFICA”

(2, 21, 0), (3, 4, 18), (13, 15, 3), (4, 2, 21), (11, 20, 21), (18, 0, 2), (8, 4, 13), (20, 8, 5), (8, 2, 0)

MENSAJE CIFRADO: “QDCLYDYUEQFVGWCXKDBAFXDWMII”

(17, 3, 2), (11, 25, 3), (25, 21, 4), (17, 5, 22), (6, 23, 2), (24, 10, 3), (1, 0, 5), (24, 3, 23), (12, 8, 8)

Para romper el código se utiliza el “método de Gauss Jordan” (pero módulo 27) con la matriz asociada al mensaje original y la matriz del mensaje cifrado:

imagen-14.

Aunque esta última parte de la presente entrada es muy interesante, debido a que nos muestra una aplicación del método de Gauss Jordan, también es un poco técnica, por lo que las personas que lo deseen pueden saltársela y considerar simplemente que es posible romper el cifrado de Hill, mediante técnicas de álgebra lineal.

El método de Gauss Jordan consiste realizar una serie de operaciones sobre la anterior matriz, que está dividida en dos partes, la correspondiente al mensaje original y la del mensaje cifrado, para conseguir que en la parte de la izquierda quede la matriz identidad (1 0 0 / 0 1 0 / 0 0 1) en tres de las filas, para considerar entonces la parte correspondiente de la derecha, como se mostrará después. Esas operaciones consisten en sustituir cada fila de la matriz por el resultado de sumarle/restarle a esa fila una combinación lineal de algunas de las otras filas.

Como el elemento que está en la primera fila y la primera columna tiene que ser un 1, para conseguir la matriz identidad, y resulta que es un 2, debemos dividir por 2 (módulo 27) la primera fila. Ya hemos comentado al principio que el inverso de 2 (módulo 27) es 14, luego dividir por 2 es igual a multiplicar por 14 (módulo 27).

Al multiplicar la primera fila (2 21 0 : 17 3 2) por 14 (módulo 27) se transforma en (1 24 0 : 22 15 1). Ahora, para conseguir un 0 en la primera posición de cada fila se realiza las siguientes sustituciones (método de Gauss Jordan):

a) “2ª fila” se sustituye por “2ª fila” – 3 x “1ª fila” (módulo 27)

b) “3ª fila” se sustituye por “3ª fila” – 13 x “1ª fila” (módulo 27)

c) “4ª fila” se sustituye por “4ª fila” – 4 x “1ª fila” (módulo 27)

d) “5ª fila” se sustituye por “5ª fila” – 11 x “1ª fila” (módulo 27)

e) “6ª fila” se sustituye por “6ª fila” – 18 x “1ª fila” (módulo 27)

y así podría seguirse con el resto, aunque no necesitamos las tres últimas filas para conseguir nuestro objetivo. En cualquier caso, después de las sustituciones anteriores, la matriz se ha transformado en la siguiente matriz

imagen-15.

Ahora queremos conseguir un 1 en la posición que se corresponde con la segunda fila y la segunda columna, de nuevo buscando conseguir la matriz identidad en la parte de la izquierda. Como en esa posición está el 13, debemos buscar su inverso módulo 27, que resulta que es 25 (ya que 13 x 25 = 325, que tomando módulo 27, es igual a 1). Es decir, hay que multiplicar la segunda fila por 25, de manera que esta segunda fila (0 13 18 : 26 7 0) se transforma, al multiplicarla por 25 (módulo 27) en (0 1 18 : 2 13 0). Y ahora buscamos obtener ceros en la segunda posición de las demás filas mediante las siguientes sustituciones (método de Gauss Jordan):

f) “1ª fila” se sustituye por “1ª fila” – 24 x “2ª fila” (módulo 27)

g) “4ª fila” se sustituye por “4ª fila” – 14 x “2ª fila” (módulo 27)

h) “5ª fila” se sustituye por “5ª fila” – 26 x “2ª fila” (módulo 27)

quedando ahora la matriz como sigue

imagen-16.

El siguiente paso sería conseguir un 1 en la posición que se corresponde con la tercera fila y la tercera columna, una vez más buscando conseguir la matriz identidad en la parte de la izquierda. Sin embargo, en este momento nos encontramos con una primera anomalía por trabajar módulo 27, y es que los números enteros módulo 27 admiten “divisores de cero”, como el 3 y el 9, ya que el producto de 3 por 9 es igual a 0 (módulo 27), y estos no tienen inverso.

En consecuencia, no se puede conseguir un 1 en la tercera columna de las filas 3, 4 y 5. Y al multiplicarlas por 9 se anulan todos sus elementos, luego esas tres filas no nos interesan.

Por lo tanto, vamos a intentar conseguir un 1 en la tercera columna de la fila 6, para lo cual tenemos que multiplicar por el inverso de 2, que como ya sabemos es 14. Y al fila 6 pasa de (0 0 2 : 6 10 12) a (0 0 1 : 3 5 6), al multiplicarla por 14.

Y para obtener la matriz identidad en la parte de la izquierda solo nos falta convertir el 18 que está en la tercera columna de la segunda fila en un cero, para lo cual realizamos la siguiente sustitución

i) “2ª fila” se sustituye por “2ª fila” – 18 x “6ª fila” (módulo 27)

y la matriz queda finalmente, después de todo este proceso de Gauss Jordan,

imagen-17.

Luego, tras el método de Gauss Jordan (módulo 27), en la parte de la derecha de la matriz, correspondiéndose con la matriz identidad de la izquierda, nos queda la siguiente matriz

imagen-18.

que es la matriz traspuesta (es decir, se cambian las filas por columnas, y al revés) de la matriz clave utilizada en el ejemplo que hemos visto de encriptación de Hill.

En consecuencia, el álgebra lineal que ha servido para desarrollar el cifrado de Hill, también sirve para romper su código.

imagen-19.

Una forma de evitar lo anterior, es modificar el algoritmo del cifrado de Hill para que la matriz clave no sea fija, sino que sea dinámica.

Bibliografía

1.- Raúl Ibáñez, Arthur Cayley, explorador victoriano del territorio matemático, RBA, 2017 (pendiente de publicación).

2.- Marie-José Pestel, Paul Kichilov, de la gravure à la anamorphose, Tangente Hors-serie 23: Maths et arts plastiques, p. 142-147.

3.- Lester S. Hill, Cryptography in an Algebraic Alphabet, The American Mathematical Monthly, vol. 36, n. 6 (1929). p. 306-312.

4.- Jorge Ramió Aguirre, Seguridad Informática y criptografía (libro electrónico), Universidad Politécnica de Madrid, 2006.

5.- OnlineMSchool, Online calculadoras para solucionar problemas matemáticas

6.- Calculadora de los números enteros modulares

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Criptografía con matrices, el cifrado de Hill se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Transmisión de voz con cifrado cuántico a larga distancia
  2. Códigos secretos en la primera guerra mundial
  3. Dividiendo por 7… sin necesidad de hacer operaciones
Categories: Zientzia

#Naukas16 La transferencia de conocimiento, ¿nos lleva a la pobreza?

Tue, 2017/01/10 - 17:00

transferencia-de-conocimiento

Las universidades, aparte de enseñar e investigar, tienen una tercera misión: la transferencia de conocimiento. De esto y sus consecuencias inesperadas habla Javier de la Cueva.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas16 La transferencia de conocimiento, ¿nos lleva a la pobreza? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas16 ¿Que te chupe la qué?
  2. #Naukas14 Acceso abierto a las publicaciones científicas
  3. #Naukas16 Cuando Indiana Jones se hizo astrónomo
Categories: Zientzia

Pages