S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 42 min 51 sec

El fondo cósmico de microondas y el espejo de feria

mer, 2016/10/19 - 17:00

espejo-de-feriaLook At Us – We’re Beautiful 2 – Judithcarlin / Wikimedia Commons

Fíjate en el retrato superior, ¿a cuantas personas crees que corresponde en la realidad?¿Dos, tres, quizás cuatro? Si sabemos que el cuadro corresponde a una imagen distorsinada por un espejo de feria, podemos crear un algoritmo que, deshaciendo las deformaciones que provoca el espejo, algunas deducibles de la propia imagen, nos lleve a comprender que estamos en realidad ante una pareja.

Podemos pensar que el fondo cósmico de microondas (FCM) es un cuadro del universo observable. El estudio de los patrones que aparecen en este cuadro nos desvela la historia del universo. Pero las imágenes que vemos están distorsionadas por los efectos gravitatorios que los objetos masivos, como las galaxias, por ejemplo, tienen en el espaciotiempo, lo que se conoce como efecto de lente gravitacional. Un objeto masivo deforma el espacio tiempo convirtiéndolo en una lente que afecta a la trayectoria de los rayos de luz; de hecho, una lente gravitacional potente permite ver los objetos que están detrás de ella según nuestra línea de visión.

Fondo cósmico de microondas según los datos del satélite Planck publicados en 2015Fondo cósmico de microondas según los datos del satélite Planck publicados en 2015

Ahora un nuevo trabajo muestra que, como con el espejo de feria, se pueden eliminar estas distorsiones en el FCM usando la radiación de fondo en frecuencias de infrarrojo. Esta primera demostración de lo que ha dado en llamarse “delensing” (algo así como “deslentización”) podría ser muy útil para búsquedas futuras de señales de ondas gravitacionales en el FCM.

Durante los últimas décadas los cosmólogos han usado los mapas del FCM para determinar la geometría y la distribución de densidad del universo. Estudios posteriores, centrados concretamente en los patrones de polarización en el FCM, podrían suministrar información de las ondas gravitacionales que se cree que se originaron en la rápida expansión del universo tras el Big Bang. Sin embargo, el efecto de las lentes gravitacionales oscurece las señales de polarización.

Anisotropías en el fondo cósmico de infrarrojo.Anisotropías en el fondo cósmico de infrarrojo.

Los propuestas que existían hasta ahora para esta deslentización recurrían a características del propio FCM para identificar los lugares donde existía un efecto de lente gravitacional. El equipo encabezado por Patricia Larsen, del Instituto de Astronomía y del Instituto Kavli de Cosmología (Reino Unido), ha desarrollado y comprobado un método de deslentización que se basa en algo externo al FCM, el llamado fondo cósmico infrarrojo (FCI), que es una luz difusa que proviene fundamentalmente de galaxias ricas en polvo donde se están formando estrellas. Los puntos brillantes en el FCI se corresponden a regiones de alta concentración de galaxias que deberían producir un efecto de lente gravitacional muy importante.

Los investigadores han usado un mapa del FCI suministrado por el satélite Planck para crear una plantilla de deslentización que después han aplicado al mejor mapa completo del FCM que existe (también de Planck). El mapa del FCM librado de los efectos de lente gravitacional muestra picos más definidos en el espectro de fluctuaciones de temperaturas, y esta mayor definición se corresponde con los modelos teóricos de lentes gravitacionales.

Referencia:

P. Larsen et al (2016) Demonstration of Cosmic Microwave Background Delensing Using the Cosmic Infrared Background Phys Rev. Lett. doi: 10.1103/PhysRevLett.117.151102

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo El fondo cósmico de microondas y el espejo de feria se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cosmología de ondas gravitacionales en 29 órdenes de magnitud
  2. Comprimiendo la luz para detectar mejor ondas gravitacionales
  3. Microondas e infrarrojo
Catégories: Zientzia

Metros o millas… Houston, tenemos un problema!

mer, 2016/10/19 - 11:59

El 23 de septiembre de 1999, tras más de nueve meses de viaje entre la Tierra y Marte, la sonda espacial Mars Climate Orbiter se desintegró al entrar en contacto con la atmósfera del planeta rojo. La Mars Climate Orbiter, que tenía un coste de 125 millones de dólares y formaba parte de un programa espacial con un presupuesto de más de 300 millones de dólares, tenía como objetivo estudiar el clima y las condiciones atmosféricas del planeta Marte, así como servir de apoyo para la transmisión de datos de la Mars Polar Lander, ambas parte de la misión espacial Mars Surveyor’98.

Imagen artística, de la página de la NASA, de la Mars Climate OrbiterImagen artística, de la página de la NASA, de la Mars Climate Orbiter

Como puede leerse en el informe de la investigación que se realizó sobre el accidente de la Mars Climate Orbiter en noviembre de 1999 –Mars Climate Orbiter Mishap Investigation Board, Phase I Report– el accidente tuvo lugar por el uso de datos en el sistema imperial de medidas cuando se tenían que haber utilizado los datos en el sistema métrico decimal.

Desde la NASA se estaban realizando los cálculos para el impulso que debían de producir los motores, cada vez que se encendían para corregir la trayectoria del viaje a Marte de la Mars Climate Orbiter, en libras de fuerza multiplicado por segundos (lbr.sg), es decir, en el sistema inglés de medidas, mientras que el software de los ordenadores de la sonda operaban en Newtons segundo (Nw.sg), es decir, en el Sistema Internacional de Medidas. Así, cada vez que se encendían los motores para ir corrigiendo la trayectoria se iba acumulando un error en la misma, debido a esa discrepancia en los datos.

Al llegar a Marte, la sonda debía estar a una altura de 226 km sobre la superficie del planeta rojo, a partir de ese momento se realizaría una maniobra de aproximación hasta quedar estacionada en una órbita alrededor del planeta, sin embargo, la sonda pasó a tan solo 57 kilómetros de altura, destruyéndose por el contacto con la atmósfera.

 Commons wikimediaDiagrama, basado en el que aparece en el informe de la investigación, comparando la trayectoria que debía haber llevado la Mars Climate Orbiter y la que realmente describió. Fuente: Commons wikimedia

Pero veamos de qué magnitud fue el fallo que se cometió al mezclar ambos sistemas de medidas. Imaginemos que el cálculo realizado por la NASA en Tierra ofrecía la información de que el impulso que debía darse al motor de la sonda espacial era de 10.000.000 libras (de fuerza) segundo, pero el ordenador de la sonda interpretaba ante esta información, puesto que su software trabaja en el sistema internacional de medidas, que eran 10.000.000 Newtons segundo. Teniendo en cuenta que 1 libra (de fuerza) son 4,5 Newtons, se tendría que

10.000.000 Newtons·segundo = 10.000.000 x (1/4,5) = 2.222.222 libras·segundo,

Es decir, se habría producido un déficit en el impulso de más de 7 millones de libras (de fuerza) segundo. Solo un 22% del impulso que se tenía que haber generado.

Este es solo uno de los ejemplos de los errores que se han producido en las últimas décadas por el uso simultáneo de dos sistemas de medidas distintos, el sistema internacional y el sistema imperial de medidas.

 undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France" (1792), del escritor inglés Arthur YoungPrimeras páginas del libro “Travels during the years 1787, 1788, & 1789: undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France” (1792), del escritor inglés Arthur Young

Antes de la revolución francesa, 1789, la situación de los sistemas de medidas era caótica. Cada país, pero lo que es peor aún, cada región dentro de un mismo país, tenía sus propios sistemas de medidas, pero incluso en ocasiones compartían el mismo nombre, lo que convertía en un problema una simple compra y venta de alimentos, utensilios o ganado en una feria comarcal, y en general, dificultaba las transacciones comerciales, la investigación científica y todo tipo de comunicación.

El escritor inglés Arthur Young (1741-1820) en la versión extendida, de cuatro volúmenes, de sus viajes por Francia, Travels during the years 1787, 1788, & 1789: undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France (W. Richardson,1792), comenta “en Francia, la infinita perplejidad que causa la profusión de medidas excede toda comprensión. No solo difieren en cada provincia, sino en cada distrito, y casi en cualquier población”.

En el libro La medida de todas las cosas (2003), su autor Ken Alder escribe que “algunos contemporáneos calculaban que, bajo la cobertura de unos ochocientos nombres, el Antiguo Régimen de Francia utilizaba la asombrosa cifra de unas doscientas cincuenta mil unidades diferentes de pesos y medidas”.

O en el libro Outlines of the evolution of weights and measures and the metric system (Macmillan, 1906), de William Hallock y Herbert T. Wade, los autores indican que “A finales del siglo pasado (dieciocho), en diferentes partes del mundo, la palabra “libra” se aplicaba a 391 unidades diferentes de peso y la palabra “pie” a 282 unidades diferentes de longitud”.

Como es lógico, en la antigüedad cada región había desarrollado sus propios sistemas de medida, en muchas ocasiones basados en el cuerpo humano (por lo que la medida dependía del tamaño medio de los habitantes de esa región) o en cuestiones culturales específicas de la región donde se establecían, pero el mundo, su cultura, su ciencia y su economía, cada vez se hizo más global y las diferentes medidas empezaron a chocar unas con otras.

Como hemos visto, la situación antes de la revolución francesa de las unidades de medida en Europa, y en el mundo, era un auténtico desastre. Como decía el matemático y filósofo Nicolás de Condorcet (1743-1794) en sus Observaciones sobre el Libro XXIX delEspíritu de las Leyes” de Montesquieu (1793), “la uniformidad de los pesos y medidas solo pueden desagradar a los empleados de los tribunales de justicia que teman ver disminuido el número de pleitos, y a aquellos comerciantes a los que la disminución de beneficios va a afectar, en cuanto a que contribuye a convertir las transacciones comerciales fáciles y simples”.

//gallica.bnf.fr/ark:/12148/btv1b8412951c/Grabado en madera, de 1800, mostrando las nuevas unidades decimales que fueron las legales en Francia desde el 4 de noviembre de 1800. Grabador, L. F. Kabrousse; editor, J. P. Delion. Fuente: Gallica

Aunque ya habían existido intentos anteriores, tras la Revolución Francesa se ponen las bases para crear un sistema de medidas universal. En palabras de Condorcet “para todos los pueblos, para siempre”. Para tal fin, en 1790, se crea la Comisión de Pesos y Medidas, constituida por los científicos Jean-Charles Borda (1733-1799), Joseph-Louis Lagrange (1736-1813), Pierre-Simon Laplace (1749-1827), Gaspard Monge (1746-1818) y Nicolás Condorcet. Para alcanzar la universalidad, el sistema de medidas debía ser decimal (aunque inicialmente también se valoró la posibilidad del sistema duodecimal), sus valores derivados de la naturaleza (por ejemplo, el metro tomaría el valor de “una diezmillonésima parte de la circunferencia de la Tierra”), las unidades de medida derivadas deberían basarse en potencias de las unidades básicas y se debían utilizar prefijos para designar los múltiplos y submúltiplos de las unidades.

La historia del sistema métrico decimal es apasiónate y empieza con la aventura de la medición del meridiano que pasa por París para definir determinar el valor del metro, aunque este no es el objetivo de esta entrada. Sobre este tema existen buenos libros, como El metro del mundo (Anagrama, 2003) de Denis Guedj o el mencionado La medida de todas las cosas (2003), de Ken Alder.

Tras la instauración en Francia, no sin problemas, del Sistema Métrico Decimal, muchos otros países del entorno, así como de Latinoamérica, empezaron a adoptar a lo largo del siglo XIX este sistema de medidas universal, Países Bajos, España, Alemania, Italia, Portugal, Noruega, Suecia, el Imperio Austro-Húngaro, Finlandia, Perú, México, Venezuela, entre muchos otros.

Mapa del mundo mostrando el momento de la adopción del sistema métrico decimal, o su derivado el Sistema Internacional de Medidas, por parte de los diferentes paísesMapa del mundo mostrando el momento de la adopción del sistema métrico decimal, o su derivado el Sistema Internacional de Medidas, por parte de los diferentes países

En 1875, diecisiete países firmaron la Convención del metro, “anhelando la uniformidad y la precisión internacionales en los estándares de pesos y medidas”, y se crearon las organizaciones internacionales para velar por la uniformidad de los pesos y medidas a lo largo de todo el mundo, la Oficina Internacional de Pesas y Medidas, el Comité Internacional de Pesas y Medidas y la Conferencia General de Pesos y Medidas. Poco a poco los diferentes países del mundo se fueron sumando a estas organizaciones y adoptando el sistema métrico decimal.

En la Conferencia General de Pesos y Medidas de 1960 se estableció finalmente el Sistema Internacional de Unidades. Las unidades básicas del Sistema Internacional (SI) son siete, el metro (longitud), el kilogramo (masa), el segundo (tiempo), el amperio (corriente eléctrica), el kelvin (temperatura termodinámica), el mol (cantidad de sustancia) y la candela (intensidad lumínica). Y de estas unidades básicas se derivan las otras unidades, como por ejemplo, el hercio (frecuencia), el Newton (fuerza), el pascal (presión), el julio (trabajo), etc.

Como se muestra en el mapa anterior, en la actualidad solamente hay tres países que no se han sumado al Sistema Internacional de Unidades, que son Estados Unidos, Liberia y Birmania (Myanmar), aunque estos dos últimos están en el proceso de adopción del Sistema Internacional. Por otra parte, países que han adoptado recientemente el SI, como Gran Bretaña o Canadá, siguen utilizando su viejo sistema de medidas en muchos ámbitos de su vida, el sistema imperial (o inglés) de medidas, que es el que continúa utilizando Estados Unidos en la actualidad.

Entre las décadas de los años 1970 y 1980 hubo un intento fallido de adopción del sistema internacional de medidas en EE.UU, motivo por el cual existen algunas señales de tráfico con medidas en el sistema métrico decimal, como las señales de distancia de la interestatal 19 entre Tucson y NogalesEntre las décadas de los años 1970 y 1980 hubo un intento fallido de adopción del sistema internacional de medidas en EE.UU, motivo por el cual existen algunas señales de tráfico con medidas en el sistema métrico decimal, como las señales de distancia de la interestatal 19 entre Tucson y Nogales

Entre las unidades del Sistema Imperial de Medidas están las yardas (en longitud), los acres (en área), los galones (en volumen), las libras (en masa), entre otras.

A continuación, veremos otros ejemplos de errores y catástrofes producidos por la confusión en el uso de estos dos sistemas de medidas, el Sistema Internacional y el Sistema Imperial. Estos ejemplos aparecen, entre otros sitios, referenciados en la página web de una asociación que existe en EE.UU. para la promoción del Sistema Internacional de Medidas fundada en 1916, la U. S. Metric Association.

Antigua pesa para báscula de 1 kilogramoAntigua pesa para báscula de 1 kilogramo

El primer ejemplo que traemos a esta entrada, aparte del inicial sobre la Mars Climate Orbiter, es un ejemplo sencillo de confusión entre kilogramos y libras de los que seguramente se habrán producido muchos, pero que no suelen ser recogidos en los medios de comunicación, a diferencia de este.

En 2001, se publicó en el San Francisco Business Times la noticia “Fabricantes, los exportadores piensan en métrico”. En ella se contaba la historia de un empresario norteamericano, Carlos Zambello, que había vendido un cargamento de arroz salvaje a un cliente japonés y como en la transacción había habido una cierta confusión, causándoles cierto bochorno, por no hablar de las pérdidas económicas.

Trigo salvajeTrigo salvaje

En concreto, a la compradora japonesa se le ofreció el arroz salvaje a un precio de 39 centavos… el problema es que ella estaba entendiendo que la oferta era de 39 centavos el kilogramo, mientras que el vendedor se estaba refiriendo a 39 centavos la libra. La cuestión es que como 1 kilogramo equivale a 2,2 libras, el coste del trigo salvaje era realmente de 85,8 centavos el kilogramo, mucho más de lo que pensaba la compradora, 39 centavos el kilogramo.

Una vez que se dieron cuenta del malentendido, el gerente general de la compañía The Wild Rice Exchange, Carlos Zambello, acabó aceptando que el precio del arroz salvaje vendido fuera su precio de coste, puesto que en el otro lado tenían a un buen cliente desde hacía muchos años, sin obtener ningún beneficio en la transacción, mientras que el comprador japonés, aunque pagó menos de lo que era su precio real, acabó aceptando pagar el precio de coste, más de lo que había pensado que era su precio de compra.

Otra historia con un malentendido entre kilogramos y libras se recogió en el periódico Los Angeles Times, en febrero de 2001. Bajo el titular “Mismeasure for measure” (que podríamos traducir como “Incorrecta medida para medir”) se contaba como el Zoológico de Los Ángeles había prestado su vieja tortuga galápago Clarence, de 75 años de edad, al Exotic Animal Training and Management Program de la Universidad de Moorpark (Moorpark College). Pero, durante la primera noche de la vieja tortuga en su nuevo hogar, esta se había escapado echando abajo uno de los postes de la cerca en la que se encontraba.

 Moorpark CollegeClarence, la tortuga galápago de 75 años, que se escapó de su cerca de la Universidad de Moorpark, California. Fuente: Moorpark College

El Zoológico de Los Ángeles había avisado que la tortuga galápago era grande y que se necesitaba una cerca para un animal de un peso de 250, que es lo que construyó la Universidad de Moorpark. El problema estaba en que desde la institución universitaria habían interpretado que se estaba hablando de 250 libras, cuando realmente hablaban de 250 kilogramos, o lo que es lo mismo, unas 550 libras.

Nuestro siguiente ejemplo, nos lleva a uno de los últimos países en adoptar el Sistema Internacional de Medidas, Canadá, cuyo proceso de metrización empezó en la década de los años 1970, aunque no ha sido desarrollado completamente.

En julio de 1983 el avión Boeing 767-200 del vuelo 143 de Air Canadian se quedó sin combustible a mitad de su vuelo entre Montreal y Edmonton, debido a que la tripulación calculó mal el fuel que necesitaban para el viaje (junto con una serie de fallos en el sistema indicador de la cantidad de combustible del avión). Por suerte, se pudo realizar un aterrizaje de emergencia en una antigua base militar.

Posición en la que quedó el avión del vuelo 143 de Air Canada, en julio de 1983, tras realizar un aterrizaje de emergencia por haberse quedado sin fuel a mitad de su vuelo entre Montreal y EdmontonPosición en la que quedó el avión del vuelo 143 de Air Canada, en julio de 1983, tras realizar un aterrizaje de emergencia por haberse quedado sin fuel a mitad de su vuelo entre Montreal y Edmonton

El error en el cálculo de la carga de combustible necesaria se produjo debido a que el personal no tenía una formación adecuada en el sistema métrico decimal que se acababa de adoptar en Canadá, sustituyendo al sistema imperial.

La tripulación sabía que se necesitaban 22.300 kilogramos de fuel para realizar el viaje entre Montreal y Edmonton. Pero el avión ya tenía 7.682 litros en sus tanques, por lo que había que calcular cuánto fuel extra era necesario cargar en los tanques para realizar el viaje.

Teniendo en cuenta que el peso de 1 litro de fuel es de 0,803 kilogramos, entonces el peso del fuel que tenía ya el avión era de 7.682 litros x 0,803 kg/litro = 6.169 kg.

Por lo tanto, el avión necesitaba que se le añadieran a sus tanques 22.300 – 6.169 = 16.131 kg.

Luego, ¿cuántos litros de fuel debían de cargarse en el avión? Teniendo en cuenta de nuevo, que cada litro pesa 0,803 kilogramos, la cantidad de fuel necesario era de 16.131 kg x (1 litro /0,803 kg) = 20.088 litros.

La tripulación, sin embargo, tuvo en cuenta el factor de conversión de 1,77 (en lugar de 0,803), que era el que habían estado utilizando hasta entonces ya que 1 litro de fuel pesa 1,77 libras (tengamos en cuenta que 1 kilogramo son 2,205 libras, luego 0,803 kilogramos son 1,77 libras).

Por lo tanto, esta fue la cuenta que realizaron…

1.- el peso del fuel que aún quedaba en los tanques del avión era…

7.682 x 1,77 = 13.587 “kilogramos” (en realidad eran libras)

2.- el peso del fuel que había que añadir era…

22.3000 – 13.587 = 8.713 “kilogramos”

3.- luego, ¿cuántos litros calcularon que había que cargar en los tanques?

8.713 kg x (1 / 1,77) = 4.923 litros (el factor a utilizar debía de ser litros/kilogramo, aunque el dato que utilizaban de nuevo era litros/libra, 1/1,77)

En conclusión, cargaron solamente 4.923 litros de los 20.088 litros que realmente eran los necesarios.

 Avión McDonnell Douglas MC-11F que realizaba el vuelo 6316 de Korean Air Cargo de Shanghai a Seoul en la década de los años 1990Avión McDonnell Douglas MC-11F que realizaba el vuelo 6316 de Korean Air Cargo de Shanghai a Seoul en la década de los años 1990

En abril de 1999 el avión McDonnell Douglas MC-11F en su vuelo 6316 de Korean Air Cargo de Shanghai a Seoul se estrelló, muriendo las tres personas de la tripulación y otras 5 personas en tierra, así mismo, hubo 37 heridos en tierra.

Después del despegue el avión debía subir a una altura de 1.500 metros (que son 4.900 pies, puesto que 1 metro equivale a 3,28 pies). Cuando el avión subió a 4.500 pies (casi a 1.400 metros), el primer oficial informó al capitán de que la altura del avión debía ser de 1.500 pies (confundiéndose con los 1.500 metros que realmente debía de tener), pensando por lo tanto que el avión estaba 3.000 pies más arriba de lo que debía. Como consecuencia el capitán puso bruscamente el avión en descenso para intentar poner al avión a una altura de 1.500 pies (que son unos 460 metros), como consecuencia de esta maniobra el avión se volvió incontrolable y terminaría estrellándose en una zona industrial a 10 kilómetros del aeropuerto.

Los deportistas norteamericanos suelen sufrir su aislamiento del Sistema Internacional de Medidas en las competiciones deportivas, en particular, en los Juegos Olímpicos. Un ejemplo de este problema fue el no reconocimiento mundial de un record en atletismo. La atleta Carol Lewis realizó un salto de longitud que parecía ser un record mundial en los campeonatos NCAA Men’s and Women’s Indoor Track Championship celebrados en Pontiac, Michigan, en 1983. Sin embargo, su marca no fue reconocida como un record oficial, puesto que para que se considere un record oficial las medidas deben tomarse en el sistema internacional, es decir, en el sistema métrico decimal.

La atleta Carol Lewis en 1991La atleta Carol Lewis en 1991

En Diciembre de 2003, el tren de la montaña rusa Space Mountain que se encuentra en el parque temático Tokyo Disneyland descarriló cuando llegaba a la estación. El descarrilamiento se produjo debido a la ruptura de un eje del tren. Por suerte, no hubo que lamentar ninguna desgracia y todo quedó en un susto.

Como resultado de la correspondiente investigación para aclarar los motivos del accidente, se descubrió que el eje se había construido con un diámetro más pequeño que las especificaciones de los planos del diseño. En el año 1995 se habían cambiado las medidas de los planes maestros para la construcción de la Space Mountain, del sistema imperial al sistema internacional de medidas. Cuando se fue a construir la Space Mountain de Tokyo en 2002, se tomaron los valores de las medidas de los planos del diseño anteriores a 1995.

 Tokyo Disney Resort [www.tokyodisneyresort.jpImágenes de la Space Mountain de Tokyo Disneyland. Fuente: Tokyo Disney Resort

Según el informe, mientras que en los planos del diseño se especifica que el espacio entre el eje y su cojinete debía de ser de 0,2 mm, realmente era de alrededor de 1 mm, lo cual creó una mayor vibración que hizo que se rompiera el eje. Recordemos que 1 pulgada son 2,54 centímetros, o recíprocamente, 1 cm equivale a 0,3937 pulgadas.

Y para terminar, un ejemplo relacionado con el volumen. En 2004 a un niño se le estuvo dando 5 veces la dosis prescrita por el médico de Zantac Syrup, un medicamento para reducir la producción del ácido estomacal, hasta que un mes más tarde el médico descubrió la confusión. Afortunadamente, el error no tuvo ninguna consecuencia grave para el bebé.

El médico había prescrito una dosis de 0,75 mililitros, dos veces al día, pero el farmacéutico escribió en el bote del medicamento “administrar 3/4 de cucharadita (teaspoon) dos veces al día”. Teniendo en cuenta que esta medida de Estados Unidos, 1 “cucharadita” (u.s. teaspoon), tiene la equivalencia en el sistema métrico decimal de 4,9 mililitros, se le estuvieron suministrando 3,675 mililitros, dos veces al día, es decir, casi 5 veces la dosis prescrita.

imagen-14Humor gráfico aparecido en la revista “Industry Week” en 1981

Bibliografía

1.- U.S. Metric Association.

2.- Mars Climate Orbiter Mishap Investigation Board, Phase I Report, November 10, 1999

3.- Some Famous Unit Conversion Errors, Space Math, NASA

4.- Arthur Young, Travels during the years 1787, 1788, & 1789: undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France, W. Richardson,1792.

5.- Ken Alder, La medida de todas las cosas, Taurus/Santillana, 2003.

6.- William Hallock y Herbert T. Wade, Outlines of the evolution of weights and measures and the metric system, Macmillan, 1906.

7.- Nicolás de Condorcet, Observaciones sobre el Libro XXIX delEspíritu de las Leyes” de Montesquieu, 1793.

8.- Denis Guedj, El metro del mundo, Anagrama, 2003.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Metros o millas… Houston, tenemos un problema! se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El neerlandés que subirá unos pocos metros pero bajará una montaña
  2. El problema de los McNuggets de pollo
  3. El problema de las estudiantes de Kirkman
Catégories: Zientzia

#Naukas15 Vacunaos, por Jenner

mar, 2016/10/18 - 17:00

ciencia-bulebar-36-638

Clara Grima no habla de vacunas, pero sí de algo muy relacionado: este mundo es muy pequeño, está muy conectado y eso lleva a paradojas.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 Vacunaos, por Jenner se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas15 Endosimbiontes
  2. #Naukas15 Mosquito tigre
  3. #Naukas15 Luis Quevedo entrevista a Eudald Carbonell y Goyo Jiménez
Catégories: Zientzia

El nylon lo creó un contable

mar, 2016/10/18 - 11:59

A finales de los años veinte del siglo pasado la compañía estadounidense DuPont contrataba a un químico llamado Wallace Hume Carothers para dirigir la investigación fundamental en polímeros. El objetivo último de DuPont era intentar conseguir una forma barata y eficiente de sustituir la seda proveniente de Asia, donde el militarismo rampante de Japón estaba limitando cada vez más el suministro a Occidente.

sia2008-0359-600x484Carothers contabilizando una reacción

Si bien el primer título de Carothers fue en contabilidad y administración, y a pesar de que se matriculase en Inglés (lo que llamaríamos lengua y literatura inglesas) en el Tarkio College, terminó doctorándose en química por la Universidad de Illinois. Su primer objetivo en DuPont era comprender la naturaleza de polímeros naturales como el caucho, la celulosa y la seda y, a partir de ahí, intentar imitarlos. El objetivo no declarado era conseguir el polímero sintético más grande conocido.

Carothers empleó reacciones orgánicas bien establecidas pero las aplicó al estudio de moléculas con dos centros reactivos, uno a cada extremo, que formasen los eslabones de una cadena, porque eso son los polímeros, cadenas de moléculas. Carothers y su grupo aprendieron muchas cosas interesantes acerca de los polímeros pero no consiguieron producir nada parecido a la seda. Bueno, no lo consiguieron hasta que alguien se puso a hacer el tonto en el laboratorio.

Julian Hill en 1930 no era un niño, precisamente.Julian Hill en 1930 externamente no parecía un niño precisamente.

Un día uno de los ayudantes de Carothers, Julian Hill, estaba jugando con una masa pastosa de poliéster que había en el fondo de un vaso de precipitados cuando se dio cuenta de que si cogía una porción de la masa con una varilla de vidrio y se dedicaba a estirarla todo lo posible (recordemos que estaba, literalmente, jugando) conseguía unos hilos que recordaban a la seda. Ahí quedó la cosa.

Días más tarde, aprovechando que el jefe había tenido que ir a una gestión a la ciudad, los ayudantes de Carothers decidieron averiguar cuánto podía estirarse aquello (la versión oficiosa dice que fue una competición a ver quien conseguía el hilo más largo): y para ello no tuvieron mejor ocurrencia que correr escaleras abajo portando varitas de vidrio con un pegote de poliéster en la punta (las caras de los que se cruzasen por el camino tuvieron que ser dignas de ver). La cuestión es que terminaron con hilos “muy sedosos”, que hoy sabemos se deben a la orientación (el ordenamiento en una dirección) de las moléculas de polímero.

Eran juguetones, pero eran químicos. Pensaron que si esos hilos sedosos tuviesen que emplearse para confeccionar un tejido no sería muy útil, ya que el poliéster tiene un punto de fusión demasiado bajo (nada de tenerlo mucho rato al sol, ni cerca de un fuego) y una solubilidad en agua demasiado alta (nada de usarlo un día de lluvia). Aunque estos dos problemas del poliéster se solucionarían más tarde, los ayudantes de Carothers subieron de nuevo las escaleras y decidieron volver a bajarlas corriendo, esta vez llevando una poliamida que tenían en la estantería en la punta de sus varitas, a ver si conseguía el mismo efecto. Funcionó.

Nylon 6-6, en lila los enlaces de hidrógeno que unen las distintas moléculas de polímero orientadas en una direcciónNylon 6-6, en lila resaltados los enlaces de hidrógeno que unen las distintas moléculas de polímero orientadas en una dirección

Cuando el jefe volvió se encontró a la gente de su departamento sorprendentemente sudorosa y muy excitada. El grupo de Carothers necesitaría 10 años para transformar la idea tras aquellos hilos sedosos de poliamida en un producto comercializable parecido a la seda: había nacido el nylon. Su fecha de nacimiento oficial como polímero fue el 28 de febrero de 1935 cuando Gerard Berchet, bajo la dirección de Carothers, consiguió obtener poliamida 6-6 a partir de hexametilendiamina y ácido adípico.

nylon-toothbrush

El nuevo material, presentado en la Feria Mundial de Nueva York de 1939, fue un éxito inmediato. Aunque se comercializó por primera vez en cepillos de dientes, su gran éxito vino cuando se vendieron más de cuatro millones de pares de medias en unas pocas horas en la primera gran venta masiva que se hizo en la ciudad de Nueva York en 1940. Sin embargo, todo este éxito comercial de cara al público se vería eclipsado cuando casi inmediatamente el acceso al material tuvo que ser restringido por las demandas del mismo en la fabricación de paracaídas.

Ríete tú de las colas para comprar los libros de Harry Potter o la nueva iCosa. Ríete tú de las colas para comprar la nueva iCosa.

Carothers, que ya había advertido a los representantes de DuPont cuando fueron a contratarle a Harvard en 1928 que tenía momentos depresivos, no vivió para ver su éxito. Se había suicidado (como químico orgánico que era, usando cianuro de potasio disuelto en zumo de limón) en 1937.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El nylon lo creó un contable se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas13 Lo siento Planck, pero no me lo creo
  2. Gilbert, el campo y lo eléctrico
  3. Gráficos
Catégories: Zientzia

Depuración conjunta de dioxinas y NOx en incineradoras de basura

lun, 2016/10/17 - 11:59

La alta generación de residuos y las limitaciones legislativas medioambientales obligan a diseñar programas de prevención, reutilización y reciclado para gestionar la basura. Sin embargo, los residuos sólidos urbanos (RSU) que no entran en estos programas son incinerados, y así pueden generar compuestos perjudiciales —óxidos de nitrógeno y dioxinas, entre otros— que se deben tratar antes de ser liberados a la atmósfera.

La doctora de la UPV/EHU Miren Gallastegi ha investigado las posibilidades de la tecnología catalítica en las plantas incineradoras de residuos sólidos urbanos, para reducir las emisiones de estos contaminantes de manera más eficiente, realizando su depuración a temperatura más reducida y, en consecuencia, de forma más amigable.

El grupo de investigación Tecnologías Químicas para la Sostenibilidad Medioambiental (TQSA) del Departamento de Ingeniería Química de la UPV/EHU investiga las tecnologías catalíticas con el fin de ofrecer alternativas más sostenibles frente a los modelos tradicionales. Hasta ahora se había observado, pero no estudiado científicamente, que es posible eliminar los óxidos de nitrógeno y destruir las dioxinas de forma independiente en dispositivos diferentes y bajo diferentes condiciones. Sin embargo, no se había constatado mediante una investigación científica en qué condiciones y cómo se pueden producir los dos procesos simultáneamente, lo que se denomina “intensificación de procesos”, con el consiguiente ahorro energético.

Miren Gallastegi ha analizado el proceso conjunto, es decir, la manera de depurar de forma simultánea los óxidos de nitrógeno (NOx) y las dioxinas. Estas últimas partículas son especialmente tóxicas a bajos niveles y se generan en la combustión de residuos que llevan cloro en su composición como, por ejemplo, algunos plásticos (polímeros) que quedan fuera de la cadena de reciclaje y reutilización. En su investigación, ha sintetizado y utilizado catalizadores, tanto convencionales (basados en óxidos de vanadio, wolframio y titanio) como nuevas formulaciones alternativas (basadas en óxido de manganeso). Ha conseguido acelerar las reacciones químicas deseadas de eliminación de óxidos de nitrógeno y destrucción de dioxinas a menor temperatura y de forma más eficiente.

Tras analizar los diferentes procesos químicos que ocurren sobre el catalizador, Gallastegi ha constatado es posible por un lado reducir los óxidos de nitrógeno a nitrógeno y, por otro, destruir las dioxinas, transformándolas en compuestos gaseosos inertes. Es decir, a pesar de la distinta naturaleza química y reactividad de ambas moléculas, un mismo catalizador del tipo de los desarrollados, puede realizar al mismo tiempo los dos procesos tan distintos. Es un sistema combinado bautizado con el nombre dDiNOx (depuración conjunta de dioxinas y NOx).

En estos momentos, diez incineradoras del estado están utilizando tecnología catalítica para la transformación de los óxidos de nitrógeno en nitrógeno. Sin embargo, atrapan las dioxinas sobre filtros de carbón activo que, con posterioridad requieren gestión, tratamiento y control adicional. “La introducción de los nuevos catalizadores que hemos desarrollado y la optimización de las variables de proceso, permitiría la utilización de la infraestructura de las actuales plantas de incineración (con escasas modificaciones) para la eliminación simultánea de los contaminantes. Esta nueva disposición presenta la gran ventaja de destruir las dioxinas en lugar de su absorción y posterior gestión de los actuales filtros, que podrían eliminarse. Es una opción muy beneficiosa para el medio ambiente, que requiere escasa inversión en instalación y conlleva un importante ahorro energético”, explica Miren Gallastegi.

Referencia:

M. Gallastegi-Villa, A. Aranzabal, Z. Boukha, J.A. González-Marcos, J.R. González-Velasco, M.V. Martínez-Huerta, M.A. Bañares (2015) Role of surface vanadium oxide coverage support on titania for the simultaneous removal of o-dichlorobenzene and NOx from waste incinerator flue gas Catalysis Today doi: 10.1016/j.cattod.2015.02.029

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Depuración conjunta de dioxinas y NOx en incineradoras de basura se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El origen de la superconductividad récord
  2. Océanos nucleares. Cuando la basura llega antes que el ser humano
  3. Descubierto el proceso por el que las bacterias fabrican nanoimanes
Catégories: Zientzia

Superbacterias

dim, 2016/10/16 - 11:59

superbacterias

El mes de noviembre del pasado año se descubrió en China que un gen bacteriano denominado mcr-1 confiere resistencia a la colistina. Dicho así puede parecer banal. Pero es todo lo contrario: fue un descubrimiento preocupante. La colistina es un antibiótico de último recurso que sólo se administra cuando todos los demás antibióticos no consiguen acabar con una infección. Es, por lo tanto, una de las últimas líneas de defensa frente a las bacterias denominadas multirresistentes, esto es, bacterias que han desarrollado resistencia a muchos antibióticos.

El gen mcr-1 no forma parte del cromosoma bacteriano, sino que se encuentra en un plásmido. Los plásmidos son pequeños fragmentos de ADN independientes del cromosoma, y son capaces de moverse de una bacteria a otra con facilidad -lo que se denomina transferencia horizontal-, expandiendo la resistencia a los antibióticos entre diferentes cepas y especies bacterianas. A partir de su descubrimiento en China, otros países se pusieron manos a la obra en busca de bacterias que contuviesen el mcr-1, y ya ha sido hallado en África, Europa, Norteamérica y Sudamérica.

La resistencia a los antibióticos es un fenómeno lógico a la luz de la selección natural. Cuando se utiliza uno de ellos para combatir una infección bacteriana se está ejerciendo sobre las bacterias una “presión selectiva”. Bajo esas circunstancias, si alguna de las bacterias tiene un gen que confiere resistencia a ese antibiótico, esa bacteria sobrevivirá, se multiplicará, y legará esa resistencia a las bacterias de las siguientes generaciones. La probabilidad de que ocurra tal cosa es muy baja, pero por baja que sea, si un antibiótico es utilizado en un número suficientemente alto de ocasiones, antes o después alguna de las bacterias atacadas resultará ser resistente al mismo. Y entonces esa bacteria se multiplicará, hasta ser combatida mediante otro antibiótico. El problema es que el uso masivo de antibióticos de amplio espectro –que atacan a bacterias de muy diferentes variedades- ha hecho que cada vez sea menor el tiempo que transcurre desde que se empiezan a utilizar hasta que surge alguna cepa resistente. Y así van apareciendo cepas resistentes a más y más antibióticos: son las llamadas bacterias multirresistentes o superbacterias.

Antes se descubrían nuevos antibióticos a un ritmo suficientemente alto como para ir compensando la aparición progresiva de nuevas resistencias. Pero eso ha cambiado. Cada vez aparecen más rápidamente porque cada vez se utilizan los antibióticos de forma más masiva, no solamente para combatir infecciones bacterianas en seres humanos, sino –erróneamente- también para atacar infecciones víricas y, de modo preventivo, en algunos países para tratar al ganado, porque de esa forma engorda más rápidamente.

Hay quien opina que nos dirigimos a un mundo en el que los antibióticos dejarán de ser eficaces. Nos hemos acostumbrado a vivir con ellos. Descartamos casi completamente que las infecciones bacterianas puedan llegar a ser una amenaza real en nuestras sociedades. Y sin embargo, hay motivos para la alarma. Se desarrollarán nuevos antibióticos, por supuesto. Y quizás también se desarrollen nuevas terapias o se recuperen terapias antiguas que han demostrado ser eficaces, como el tratamiento con bacteriófagos –virus que atacan bacterias- como se llegó a hacer en el pasado con éxito en la antigua URSS. Pero la perspectiva de un mundo sin antibióticos eficaces es una perspectiva aterradora en la que la enfermedad, el sufrimiento y la desdicha estarán mucho más presentes entre nosotros que en la actualidad. Para evitar que esos malos augurios lleguen a cumplirse sólo hay dos caminos: hacer un uso más moderado y racional de los antibióticos, e investigar más para desarrollar terapias eficaces, sea con antibióticos o de cualquier otro modo.

—————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————————

Este artículo fue publicado en la sección #con_ciencia del diario Deia el 5 de junio de 2016.

El artículo Superbacterias se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una nueva vía para la lucha contra la resistencia a los antibióticos
  2. Pezqueñiñes no, gracias… ¿o sí?
  3. El camino hacia los antibióticos inservibles
Catégories: Zientzia

#Naukas15 ¿Esto es una bomba? Esto es una bomba

sam, 2016/10/15 - 11:59

bomba

En la carrera por construir formas eficientes de destrucción nada gana a la imaginación de un físico teórico. Mario Herrero lo ilustra.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 ¿Esto es una bomba? Esto es una bomba se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas15 Estoy bien, estoy bien
  2. #Naukas15 Músicos, muleros y otros científicos de éxito
  3. #Naukas15 El día que Maxwell no vio al gorila
Catégories: Zientzia

Proyecto Mohole, un fracaso que no hacía falta

ven, 2016/10/14 - 11:59

El objetivo del proyecto era simplemente hacer un agujero en el fondo del mar. Pero no un agujero cualquiera, sino el más profundo que jamás hubiese hecho la humanidad. Se llamó proyecto Mohole y comenzó en 1957; en 1966 el Congreso de los Estados Unidos decidió que ya estaba bien de gastar dinero y fue cancelado. Su objetivo: alcanzar la discontinuidad de Mohorovičić, la interfaz entre la corteza terrestre y el manto.

800px-earth-crust-cutaway-numbered-svgLa discontinuidad de Mohorovičić está marcada con el número 2

Esta discontinuidad fue descubierta por el sismólogo croata Andrija Mohorovičić en 1909, quien se dio cuenta de que las ondas sísmicas que volvían de las profundidades indicaban que debía existir una zona a varios kilómetros de profundidad en la que se producía un cambio brusco en la velocidad de estas ondas sísmicas. Esta zona define la base de la corteza terrestre y marca un cambio de composición: la superficie de separación entre los materiales rocosos menos densos de la corteza, formada fundamentalmente por silicatos de aluminio, calcio, sodio y potasio, y los materiales rocosos más densos del manto, constituido por silicatos de hierro y magnesio. La profundidad de Moho (que es como se llama menos formalmente la discontinuidad) varía entre los 25-40 km en los continentes y los 5-10 km bajo el suelo oceánico, y su espesor máximo es de unaos 500 m.

Profundidad de la discontinuidad de MohorovičićProfundidad de la discontinuidad de Mohorovičić

Antes de seguir conviene señalar que, tras la aceptación universal de la tectónica de placas, los geólogos llegaron a la conclusión que más importantes que los cambios en la composición son los cambios en la manera de deformarse a la hora de entender la estructura de la Tierra. Por eso actualmente dividen la parte más externa del planeta en litosfera (rígida), que incluye la corteza y la parte superior del manto, que cubre la mucho más deformable astenosfera.

El proyecto Mohole (de Moho y “hole”, agujero en inglés) fue una ocurrencia de un grupo, informal, de científicos asociados a la marina de los Estados Unidos y que se creó en los años cincuenta. El grupo lo lideraba Gordon Lill de la Oficina de Investigación Naval y se dedicaba a recopilar ideas y proyectos de investigación de los científicos de la armada que no encajaban en ninguna parte, de ahí el nombre del grupo: Sociedad Miscelánea Americana (AMSOC, por sus siglas en inglés). Para ser aceptado en el grupo solo era necesario que dos o más miembros estuviesen juntos.

FunafutiFunafuti

Antes del Mohole, todas las perforaciones que se hacían en la corteza terrestre tenían como objetivo encontrar petróleo o gas y se habían limitado a tierra firme y a aguas poco profundas. Perforar con fines científicos era mucho menos común. Este tipo de perforaciones habían comenzado con la idea de determinar la estructura, composición e historia de las islas coralinas. En 1877 la Royal Society de Londres financió una perforación que llegó a los 350 m en Funafuti, el atolón en el que está la capital de Tuvalu, en el Pacífico Sur. En 1947, antes de los ensayos nucleares en Bikini, una perforación llegó en este atolón a los 780 m. Finalmente, en 1952 una prospección en Enewetak consiguió llegar a la corteza basáltica debajo de la roca coralina a una profundidad de 1200 m, aún muy lejos de Moho. A lo largo de los años cincuenta algunos países, notablemente Canadá y la Unión Soviética, anunciaron públicamente proyectos de perforaciones en la corteza terrestre; no se conoce que se llevaran a cabo.

El proyecto Mohole presentado por la AMSOC consiguió financiación pública para la idea de hacer la perforación en el fondo oceánico, todo un reto tecnológico para la época. El proyecto era perforar a una profundidad de agua de miles de metros, algo nunca hecho hasta entonces.

Si bien el proyecto consiguió dos perforaciones notables, primero a una profundidad marina de 950 m y después otra a 3560 m, no llegó ni a aproximarse a Moho. El proyecto Mohole, probablemente uno de los grandes proyectos públicos de gran ciencia (el primero fue secreto y fue el proyecto Manhattan, que creó la bomba atómica) terminó cuando se quedó sin dinero en 1966 siendo considerado un fracaso. Dos años antes AMSOC se había disuelto.

CUSS ICUSS I

Con todo, el proyecto demostró que la perforación en el suelo oceánico usando barcos era posible (el CUSS I empleado en el proyecto, fue uno de los primeros barcos del mundo capaz de perforar en profundidades de agua de hasta 3.600 m, mientras mantenía la posición en un radio de 180 m) y dio pie, además, al Proyecto de Perforación en Mares Profundos de 1968, que se dedicó a investigar las capas de sedimentos del fondo oceánico.

El principal logro del proyecto Mohole fue convertir la investigación del suelo marino en una empresa multinacional, ya sean prospecciones científicas o llevadas a cabo por compañías transnacionales. En los 50 años transcurridos desde la finalización del proyecto Mohole, sin embargo, ningún proyecto ha llegado a Moho perforando el fondo del mar. Lo soviéticos fueron los que estuvieron más cerca, con una perforación de 12,262 m en tierra firme, en la península de Kola, en 1989.

Según cuentan las crónicas, el proyecto Mohole fracasó por falta de financiación suficiente y porque estuvo mal gestionado. De hecho, puede que la informalidad de AMSOC fuese en parte responsable de iniciar un proyecto que era tecnológicamente interesante pero cuyo objetivo científico era dudoso.

ChertChert

¿Por qué era dudoso? A finales del siglo XIX varios científicos europeos se habían dado cuenta de que la corteza oceánica afloraba en los Alpes en forma de capas de chert (sedimentos del suelo marino hechos roca, litificados) superpuestas a capas basálticas (que corresponderían con la corteza oceánica), superpuestas a su vez a capas ultramáficas (rocas de alta densidad ricas en hierro y magnesio); esta estructura se conoce como trinidad de Steinmann, en honor de Gustav Steinmann. En general, estas asociaciones de rocas se llaman ofiolitas y la transición de la capa basáltica a la ultramáfica no sería otra cosa que la discontinuidad de Mohorovičić, ahí, a simple vista.

Moho a la vista¿Moho a la vista? Ofiolita de Terranova

Para saber más:

El proyecto Mohole – Wikipedia

Project Mohole – National Academies

Este post ha sido realizado por César Tomé López (@EDocet) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Proyecto Mohole, un fracaso que no hacía falta se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué hago yo si papá viaja hacia al norte y mamá hacia el sur?
  2. El camino hacia la neoeugenesia
  3. La biblioteca del proyecto Manhattan.
Catégories: Zientzia

#Naukas15 Si Pitágoras fuese nutricionista

jeu, 2016/10/13 - 17:00

schokolade

El amor de Pitágoras por los triángulos supondría un riesgo para tu salud. Aitor Sánchez sobre las falacias alimentarias.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 Si Pitágoras fuese nutricionista se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas14 Si Guardiola fuese nutricionista
  2. #Naukas15 Luis Quevedo entrevista a Eudald Carbonell y Goyo Jiménez
  3. #Naukas15 Endosimbiontes
Catégories: Zientzia

Realidad conexa, porque todo está conectado.

jeu, 2016/10/13 - 11:59

Llevamos varias semanas hablando de artistas científicos, de colaboraciones interdisciplinares exitosas y de la necesidad de encontrar caminos transversales entre ciencia y arte.

A veces, para un espectador poco acostumbrado a este enfoque interdisciplinar, esta búsqueda de caminos confluyentes, esas interrelaciones, puede parecer forzada, artificial, pero no lo es. Sencillamente, lo que nos ocurre es que no sabemos verlas, que no nos hemos parado a buscarlas.

Realidad Conexa es una nueva iniciativa del programa Mestizajes, del Donostia International Physics Center (DIPC), destinada a mostrarnos de manera visual, dinámica y accesible para todo tipo de público esas conexiones, esos encuentros que no sabemos ver.

La premisa con la que Gustavo Ariel Schwartz, fundador y director del Programa Mestizajes, y Ana Montserrat Rosel, guionista y directora de TV, se enfrentaron al proyecto es que “todo, absolutamente todo, está conectado”. Se trata de exponer de manera sencilla, visual y comprensible que el conocimiento humano no está formado por compartimentos estancos independientes unos de otros, sino por puntos que se conectan unos con otros a través de líneas que están ahí, a nuestro alcance, y que solo tenemos que aprender a ver. Los caminos para llegar al conocimiento no son únicos, desde distintos puntos de salida se puede llegar a la misma meta, se llega de hecho al mismo punto, y esas rutas distintas son todas igualmente válidas y enriquecedoras.

El proyecto, en esta primera entrega (esperamos que sean muchas más), consta de 8 cápsulas de dos minutos de duración que dejan en el espectador diferentes sensaciones. Primero cierta desconfianza ¿qué van a contarme?, segundo sorpresa ¿en serio, cómo no sabía esto?, tercero asombro, cuarto y último curiosidad por saber más. Esta última reacción es la que Realidad Conexa busca, encender la chispa de la curiosidad es un poderoso acicate para mover hacia el conocimiento.

Hasta ahora se han publicado cuatro cápsulas, la presentación y tres episodios más, en las que con un lenguaje claro, preciso e identificable se nos muestran diferentes conexiones para abordar nuestra realidad.

En Borges y la memoria, la primera frase ya nos deja con ganas de saber qué van a contarnos porque apela a algo que todos conocemos: “Pensar es olvidar. Olvidar para recordar”. Con este gancho la voz en off nos lleva a conocer la historia de la increíble coincidencia entre un personaje de Borges, Funes El Memorioso, y Salomón Shereshesky, el hombre que recordaba todo. Ficción y realidad coincidentes en el tiempo pero no en el espacio, una historia que nos sorprende, nos asombra y, después, nos deja pensando ¿cuánto recuerdo yo?, ¿qué hago con mi memoria?, ¿cómo la utilizo?, ¿recuerdo u olvido?

En Arte, Literatura y Ciencia, el gancho para atraer nuestra atención es la frase que, a mi juicio, es la esencia del enfoque de todo el proyecto: “El pintor comprende la realidad, el escritor controla la historia y el científico describe verdades”. Esta cápsula ilustra una idea que en el Cuaderno de Cultura Científica se ha tratado muchas veces: cómo el conocimiento se abordaba de una manera global en la Antigüedad y el Renacimiento y cómo el siglo XX constituye una ruptura de ese acercamiento.

En Magia y neurociencia, el enfoque de la conexión está centrado en cómo algo tan poco científico como la magia y los trucos puede ayudar a los neurocientíficos a conocer cómo decide nuestro cerebro lo que percibimos y lo que no. ¿Prestamos atención a lo que queremos o creemos prestar atención mientras en realidad nuestro cerebro nos engaña?

El resto de las cápsulas irán publicándose en las próximas semanas en el Canal Mestizajes del DIPC y tratarán temas tan interesantes como la relación entre el poema Eureka de Poe y la infinitud del Universo, la colaboración inesperada entre las proteínas y los videojuegos, o la conexión entre nuestra preferencia al girar la cabeza para besar, los retratos de Rembrandt y el cerebro. También aprenderemos cómo el placer que las grandes obras de la literatura o el desagrado de los peores textos escritos responden a patrones matemáticos o cómo Cezanne intuyó mucho antes que la ciencia que lo que creemos ver no es lo que hay sino una construcción de nuestro cerebro.

Me gustaría señalar, por último, que el aspecto formal de las cápsulas es fabuloso y está muy cuidado. En una época de bombardeo visual una buena idea, como es Realidad Conexa, no puede confiarse en la excelencia de su planteamiento intelectual y debe cuidar su presentación para hacerse atractiva, interesante y tener una imagen característica. Para esto, el lenguaje visual, los grafismos, la música y la locución deben tener una marcada personalidad que les dé continuidad y que sirva para que el espectador, a pesar de estar inmerso en el visionado de una cápsula en concreto, sepa identificar de un solo vistazo cualquier otra.

Realidad conexa es una iniciativa original, atractiva, y esperemos que exitosa, que busca provocar asombro y curiosidad, y que el espectador se plantee preguntas sobre sí mismo, preguntas qué pueden parecer “tontas” pero qué son el camino para querer saber más: ¿hacia qué lado beso? ¿Por qué me gustan más los libros con grandes exposiciones que los que tienen mucho diálogo? ¿Lo que veo es lo que hay?

Otro objetivo del proyecto es buscar que las distintas disciplinas aprendan a mirarse y sobre todo aprendan a verse, que sean capaces de visualizar esas líneas de puntos que los conectan para recorrer esas conexiones y llevar a cabo colaboraciones fructíferas y provechosas para ellos y para todos.

Realidad conexa. No dejéis de verla, os sorprenderá.

Sobre la autora: Ana Ribera (Molinos) es historiadora y cuenta con más de 15 años de experiencia en el mundo de la televisión. Es autora del blog Cosas que (me) pasan y responsable de comunicación de Pint of Science España.

El artículo Realidad conexa, porque todo está conectado. se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¡Esta mierda es buena!
  2. Ya está aquí Pint of Science 2016
  3. ¿Qué pasa si me río de todo?
Catégories: Zientzia

Inflación caliente à la Higgs

mer, 2016/10/12 - 17:00

Casi seguro que has oído hablar del Big Bang, ese acontecimiento, por llamarlo de alguna manera, que marca el comienzo de nuestro universo. Lo que es posible que no sea tan seguro es que estés familiarizado con el concepto de inflación cósmica.

La inflación cósmica es una teoría que afirma que muy poco tiempo después de esa singularidad que es el Big Bang, y por poco tiempo queremos decir 10-36s, y durante solo un momento, porque terminó a los 10-32s del Big Bang, el universo (el espacio) sufrió un crecimiento exponencial enorme. Tras este periodo inflacionario el universo siguió, y sigue, expandiéndose pero a un ritmo muchísimo menor.

inflacion-cosmica-caliente

La inflación cósmica surgió para explicar el origen de la estructura a gran escala del universo. Muchos físicos creen también que explica por qué es igual en todas direcciones (isótropo), por qué el fondo cósmico de microondas, el rastro más cercano al Big Bang que podemos observar, se distribuye de forma homogénea en el cielo, por qué el universo es plano y por qué no se han observado los monopolos magnéticos (los equivalentes a las cargas eléctricas positivas y negativas que se pueden encontrar por separado).

Pero los científicos no cesan de investigar posibilidades hasta que una de ellas demuestra que es el modelo que mejor describe la realidad. Así, esta descripción que hemos dado se corresponde a la versión “fría” de la inflación cósmica. Pero existe otra versión, la “caliente”. Y estos días se ha publicado un resultado que podría afianzarla como competidora.

Si la inflación fría data de los años ochenta del siglo XX, la versión caliente es de mediados de los noventa. Sin embargo, en veinte años esta versión no ha avanzado tanto como para ser considerada una teoría completa. Ello se debe a que, en este caso, los investigadores no han sido capaces de construir un modelo sencillo de la inflación caliente a partir de primeros principios. De hecho esto se consideraba poco menos que imposible. Hasta ahora.

inflacion-caliente

En un trabajo encabezado por Mar Bastero-Gil, de la Universidad de Granada, y en el que es coautor el padre de la idea de la inflación caliente, Arjun Barera, de la Universidad de Edimburgo (Reino Unido), los autores toman prestado un concepto de las teorías de física de partículas para derivar exactamente eso, un modelo a partir de primeros principios.

En la inflación estándar cualquier radiación preexistente se estira y dispersa durante esta breve fase expansiva y no se produce nueva radiación. La temperatura del universo, por tanto, cae vertiginosamente y es en un periodo posterior en el que el universo recupera su temperatura y se llena de nuevo de radiación (termalización). La inflación caliente es más sencilla. Se produce constantemente nueva radiación por un fenómeno llamado desintegración del campo inflatón (es este campo el que da lugar a la inflación); la temperatura no baja drásticamente, sino que se mantiene alta (de ahí lo de inflación caliente) y no hace falta introducir una fase de recalentamiento. A pesar de ser una idea más sencilla, irónicamente, la inflación cósmica necesitaba echar mano de, literalmente, miles de campos adicionales acoplados al de inflación para justificar su masa.

Lo que Bastero-Gil y sus colaboradores han hecho ha sido utilizar el mecanismo que estabiliza la masa del bosón de Higgs en las teorías de física de partículas, reduciendo de esta manera el número de campos necesario a un muy manejable cuatro y sin tener que introducir correcciones de masa. A este recurso lo llaman “pequeño Higgs”.

La comparación que los autores hacen entre las predicciones observacionales de su modelo con los límites a la inflación que se deducen de las observaciones del satélite Planck del fondo cósmico de microondas indican que encajan bastante bien.

En la teoría inflacionaría todo encajaba salvo algunos flecos. Ahora esto se pone interesante.

Referencia:

Mar Bastero-Gil, Arjun Berera, Rudnei O. Ramos, and João G. Rosa (2016) Warm Little Inflaton Phys. Rev. Lett. doi: 10.1103/PhysRevLett.117.151301

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Inflación caliente à la Higgs se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El Higgs aún podría no ser el bosón de Higgs del modelo estándar
  2. Un agujero negro de laboratorio con radiación de Hawking caliente
  3. El universo no rota
Catégories: Zientzia

Las matemáticas de ‘La vida instrucciones de uso’

mer, 2016/10/12 - 11:59

la-vida-instrucciones-de-usoLa vida instrucciones de uso es una novela de Georges Perec, uno de los más conocidos componentes del grupo OuLiPo (ver [2]).

Se trata de un texto complejo en el que Perecrelata lo que acontece en cada uno de los espacios de un edificio imaginario de París, en una fecha concreta.

En los noventa y nueve capítulos del libro se recorren sótanos, apartamentos, desvanes, tramos de escalera,… A lo largo de este itinerario se conocen las vidas de los inquilinos –un total de mil cuatrocientos sesenta y siete personajes–, todos ellos relacionados de algún modo con el protagonista, Perceval Bartlebooth, que pasa sus días haciendo y deshaciendo rompecabezas elaborados a partir de fotografías tomadas durante sus viajes.

Perec escribió esta novela entre 1976 y 1978, aunque en el ensayo Especies de espacios(publicado en 1974, ver [5]) el autor ya hablaba sobre lo que en aquel momento era aún un solo un boceto:

La novela –cuyo título es La Vida instrucciones de uso– se limita (si puedo emplear este verbo para un proyecto cuyo desarrollo final alcanzará algo así como cuatrocientas páginas) a describir las habitaciones puestas al descubierto y las actividades que en ellas se desarrollan, todo ello según procesos formales en cuyo detalle no me parece obligado entrar aquí, pero cuyos solos enunciados me parece que tienen algo de seductor: poligrafía del caballero (y lo que es más, adaptada a un damero de 10×10), pseudo-quenina de orden 10, bi-cuadrado latino ortogonal de orden 10 (aquel que dijo Euler que no existía, pero que fue descubierto en 1960 por Bose, Parker y Shrikhande).

Esas tres trabas –ver la definición en [2]– de las que habla Perec aparecen, efectivamente, en su novela; son restricciones matemáticas que el autor se impone para estructurar su texto. Vamos a explicar en que consisten.

PRIMERA TRABA: La poligrafía del caballero

Cada hueco del inmueble –sótanos, apartamentos, desvanes, tramos de escalera, etc.– corresponde a una casilla de un cuadrado 10×10. Cada lector es un visitante que recorre el edificio, leyendo sus capítulos –las casillas del cuadrado 10×10–, pero de manera no convencional. Perec distribuye los capítulos usando como modelo la poligrafía del caballerodel ajedrez. Se trata de un caso particular de camino hamiltoniano: debe recorrerse el tablero 10×10 representando el edificio, pasando una y sólo una vez por cada casilla. Perec encontró por sí mismo este recorrido para su edificio-tablero, ¡con cien casillas en vez de las sesenta y cuatro del ajedrez! El autor introduce un cambio local en la traba, una excepción a la regla: no describe la casilla del desplazamiento 66 –que corresponde a un sótano– sino que salta a la siguiente casilla. Por esta razón el libro tiene noventa y nueve capítulos y no cien.

la-vida-instrucciones-de-uso-2Solución del problema del caballo en la novela. Imagen extraída de Wikipedia.

Una vez fijado el recorrido del edificio, Perec debe decidir qué colocar y dónde hacerlo. Para ello, procede en dos etapas, introduciendo las otras dos trabas aludidas.

SEGUNDA TRABA: El bicuadrado latino ortogonal de orden 10

Como ya hemos comentado, el edificio se representa como un cuadrado 10×10. Perec asigna a cada casilla-capítulo dos números formando un cuadrado latinocada dígito está presente una sola vez en cada línea y en cada columnay ortogonal–los dos números en la misma casilla sólo se emparejan una vez en ese orden–. Usando estos pares de números, el autor llega a un cuaderno de cargas (ver [4]) en el cual, para cada capítulo, se describe una lista de veintiún pares de temas –autores, mobiliario, animales, colores, sentimientos, música, adjetivos, etc.– que deben figurar en él. Es decir, a cada par (a,b) del bicuadrado latino le corresponde el elemento a de la primera lista y el b de la segunda. Perec hace aparecer en cada capítulo los cuarenta y dos términos así obtenidos…

El bicuadrado latino ortogonal usado en la novela. Imagen extraída de Wikipedia.El bicuadrado latino ortogonal usado en la novela. Imagen extraída de Wikipedia.

TERCERA TRABA: La pseudo-quenina de orden 10

Como vimos en [1], no existen queninas –generalización de una sextina–de orden 10. Por ello Perec cambia la permutación propuesta por Raymond Queneau (ver [1]) por otra que denomina pseudo-quenina de orden 10. Este cambio le permite generar de manera no aleatoria bicuadrados latinos diferentes, evitando elegir para cada casilla los términos de la misma lista de los veintiún pares elaborados. Por ejemplo, en el capítulo 23, que corresponde a la casilla (4,8), aparece el par de números (6,5), por lo que debe utilizarse una cita de Verne (sexto autor en la primera lista de autores del cuaderno de cargas) y una de Joyce (quinto autor en la primera lista de autores del cuaderno de cargas), etc.

En el capítulo 23 aparece el par (6,5).En el capítulo 23 aparece el par (6,5).

La lectura de La vida instrucciones de uso no es sencilla… pero, ¿a quién le gustan las cosas sencillas?

Bonus

Las matemáticas no sólo aparecen en la estructura de la novela. El capítulo XV se dedica a Mortimer Smautf, el asistente de Perceval Bartlebooth. En uno de los viajes realizados junto al protagonista, un descubrimiento le convierte en un obsesivo calculador (fragmento extraído de [3]):

… Cuando ya le empezaba a resultar aquello demasiado fácil, le entró un frenesí por las factoriales: 1!=1; 2!=2; 3!=6; 4!=24; 5!=120; 6!=720; 7!=5.040; 8!=40.320; 9!=362.880; 10!=3.628.800; 11!=39.916.800; 12!=479.001.600; […]; 22!=1.124.000.727.777.607.680.000, o sea más de mil millones de veces setecientos diecisiete mil millones.

Smautf anda actualmente por el 76, pero ya no encuentra papel de formato suficientemente grande; y, aunque lo encontrara, no habría mesa bastante larga para extenderlo. Cada vez tiene menos seguridad en sí mismo, por lo que siempre está repitiendo sus cálculos. Morellet intentó desanimarlo años atrás diciéndole que el número […] nueve elevado a nueve elevado a nueve, que es el número mayor que se puede escribir usando sólo tres cifras, tendría, si se escribiera entero, trescientos sesenta y nueve millones de cifras; a razón de una cifra por segundo, se tardaría once años en escribirlo; y, calculando dos cifras por centímetro, tendría mil ochocientos kilómetros de largo. A pesar de lo cual Smautf siguió alineando columnas y más columnas de cifras en dorsos de sobres, márgenes de cuadernos y papeles de envolver carne.

Como bien describe Perec, ‘nueve elevado a nueve elevado a nueve’ es un número enorme: en efecto, 99=387.420.489, así que nueve elevado a nueve elevado a nueve’=9387.420.489…

Referencias

[1] Marta Macho Stadler, Los números de Queneau, Cuaderno de Cultura Científica, Matemoción, 7 agosto 2013

[2] Marta Macho Stadler, OuLiPo: un viaje desde las matemáticas a la literatura, Tropelías. Revista de Teoría de la Literatura y Literatura Comparada 25(2016) 129-146

[3] Georges Perec, La vida instrucciones de uso, Anagrama, 1992

[4] Georges Perec, Le cahier des charges de la Vie mode d’emploi, C.N.R.S. et Zulma, 1993 (esta página web está dedicada al libro)

[5] Georges Perec, Especies de espacios, Montesinos, 2001

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Las matemáticas de ‘La vida instrucciones de uso’ se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cuadrados latinos, matemáticas y arte abstracto
  2. El asesinato de Pitágoras, historia y matemáticas (I)
  3. El asesinato de Pitágoras, historia y matemáticas (y II)
Catégories: Zientzia

#Naukas15 Polvo cósmico

mar, 2016/10/11 - 17:00

vannabonta-2suit-cr

Vamos a lo que vamos: ¿ha habido sexo en las misiones tripuladas al espacio? Iván Rivera responde.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 Polvo cósmico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas14 Un buen polvo para un futuro premio Nobel
  2. #Naukas15 Luis Quevedo entrevista a Eudald Carbonell y Goyo Jiménez
  3. #Naukas15 Endosimbiontes
Catégories: Zientzia

Cuatro páginas para un nobel

mar, 2016/10/11 - 11:59

derek-harold-richard-barton-3

Derek Barton, ya setentón, solía levantarse a las 3 de la madrugada pero no para lo que hacen la mayoría de los varones de esa edad. Barton se levantaba a leer. Llevaba al día la lectura de al menos quince revistas científicas, de su especialidad la mayoría, pero también generales. Y las leía de cabo a rabo.

Sin embargo, si alguien le preguntaba, Barton solía decir que su jornada laboral empezaba a las 7 de la mañana (y se extendía hasta las siete de la tarde). Aunque hay rumores de que en ocasiones la interrumpía 20 minutos para almorzar, lo normal para él era comer mientras trabajaba.

Su único hijo, William, viendo la vida que llevaba su padre renunció a estudiar más de lo necesario y terminó montando un pequeño taller mecánico donde fabricaba piezas a medida para vehículos. William anduvo el camino inverso a su padre. Durante dos años tras acabar el instituto Derek trabajó en la carpintería familiar que para él fueron más que suficientes: necesitaba dedicarse a algo que saciara su afán de conocimientos y supusiese un reto.

Debido a esos dos años de carpintero, Derek Barton tenía 20 cuando fue admitido en el Imperial College de Londres para estudiar química en 1938. Su enorme capacidad de trabajo y dedicación le llevaron a graduarse en 2 años, en 1940, en plena Segunda Guerra Mundial y a doctorarse en 1942 en un Londres bombardeado diariamente por la aviación alemana. Nada más terminar pasó a ser investigador del gobierno de su majestad británica. Y lo que hiciese fue secreto. Sí sabemos que en 1945, con el fin de la guerra, reaparece como profesor ayudante en el Imperial College.

En 1949 surgió la oportunidad de sustituir a un profesor de Harvard que se iba a tomar un año sabático y Derek la aprovechó. Allí asistió a una conferencia de Louis Fieser (primero en sintetizar la vitamina k, la cortisona e inventor del napalm durante la guerra). Uno de los ocho libros que Fieser escribiría con su mujer, Mary Peters, trataba sobre la química de los esteroides y sobre ese tema trataba la conferencia. Uno de los temas que trató Fieser en la conferencia fue la lista de problemas sin resolver en lo que respecta a la reactividad de los esteroides.

Los esteroides son una clase de compuestos químicos muy importantes en la actividad biológica: el colesterol es un esteroide y las hormonas sexuales son esteroides también. Desde mediados del siglo XX existe un enorme interés en la síntesis de esteroides para uso médico; un hito importante, por ejemplo, consecuencia de esta búsqueda de rutas de síntesis de esteroides, lo constituyó el desarrollo de la píldora anticonceptiva. Sin embargo, en el momento de la conferencia de Fieser los químicos estaban confundidos por unos comportamientos químicos inexplicados de los esteroides. Esa enciclopedia química ambulante que era Barton, en cuanto oyó la descripción del problema por parte de Fieser lo relacionó con el trabajo de un oscuro profesor noruego de la Universidad de Oslo llamado Odd Hassel, que en los años treinta había estudiado las conformaciones de los anillos de seis átomos de carbono usando cristalografía de rayos X (Hassel publicó solo en alemán y noruego, ojo con Barton). Y Barton se encontró con que podía explicar fácilmente la extraña reactividad de los esteroides.

Conformaciones silla y bote del ciclohexanoConformaciones silla y bote del ciclohexano

Los esteroides están constituidos por anillos (hexágonos realmente) de carbono que se unen por las aristas. Se daba por sentado que los anillos eran planos por lo que todas las posiciones, todos los carbonos, del anillo eran iguales y ninguno se diferenciaba en cuanto a reactividad. Pero si los anillos no eran planos, sino que podían adoptar dos conformaciones distintas, silla y bote (véase imagen), las posiciones dejan de ser equivalentes ya que unas son más accesibles que otras algunos ángulos de ataque son mejores que otros.

Barton demostró que si los esteroides tenían una conformación tipo silla, como Hassel había demostrado que ocurría con el ciclohexano, podía explicarse perfectamente la reactividad observada experimentalmente. Escribió sus conclusiones en un artículo muy breve, cuatro páginas, incluidas imágenes y referencias, que apareció en agosto de 1950 en Experientia. En 1969 este artículo le valió el premio Nobel de química a él y a Hassel.

69069-004-3c4302dc

Cuando terminó en Harvard, Barton buscó y encontró un puesto de profesor en el Birbeck College de la Universidad de Londres, por diferentes razones de las que tuvo Rosalind Franklin*. Birbeck era en la época el único centro universitario que impartía química en clases nocturnas. En palabras de Barton: “Uno puede investigar todo el día y enseñar de 6 de la tarde a 9 de la noche. Este sistema era excelente para la investigación, pero no era muy apreciado por las esposas”. Barton se casó tres veces y solo tuvo un hijo, con su primera mujer.

* “El Birbeck College solo tiene alumnos nocturnos a tiempo parcial y, por tanto, tienen realmente ganas de aprender y trabajar. Y parece que acogen [los administradores de Birbeck] un alto porcentaje de extranjeros en la plantilla lo que es una buena señal. El King’s [se refiere al college donde ella trabaja hasta entonces] no tiene ni extranjeros ni judíos”. Rosalind Franklin era judía.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Cuatro páginas para un nobel se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Electroforesis, premios Nobel y laboratorios de criminalística
  2. #Naukas14 Un buen polvo para un futuro premio Nobel
  3. El Nobel de Química 2013: Bailando con proteínas
Catégories: Zientzia

Ciencia, creencias, política y matar al mensajero

lun, 2016/10/10 - 17:00

Lo sabemos y somos conscientes de ello: vivimos en una sociedad y una cultura con la ciencia y la tecnología como pilares básicos. Y debemos conocer, aunque sea lo fundamental de ambas o, por lo menos, estar dispuestos a confiar en expertos y científicos que nos expliquen lo que significan, sobre todo cuando hay que tomar decisiones. Sin embargo, confiamos más en nuestras creencias que en la ciencia cuando hay que tomar postura y decidir. Por ejemplo, ocurre con las plantas modificadas genéticamente o transgénicas. Son plantas en las que se han introducido uno o varios genes en el laboratorio con un objetivo concreto: resistencia a insectos y otras plagas, producción de algún componente, resistir la escasez de agua,… Pues bien, Brandon McFadden y Jayson Lusk, de las universidades de Florida en Gainesville y Estatal de Oklahoma en Stillwater, han organizado un estudio sobre los conocimientos de los consumidores estadounidenses sobre los transgénicos, en un país donde la polémica sobre su uso como alimento es intensa y continua. Más adelante viajaremos a Europa para conocer la situación en nuestro entorno más cercano.

transgenicos-en-india-negarse-a-aprender-de-los-errores-del-pasado

McFadden y Lusk encuestan a 1004 voluntarios, con el 53% de mujeres, en septiembre de 2015. Las preguntas tratan de los conocimientos sobre transgénicos, sus riesgos como alimento, el número de cromosomas alterados, cuánto se cultivan, si deben llevar un aviso en la etiqueta cuando se comercializan, etc.

Solo el 8% de los encuestados afirma que sabe mucho sobre transgénicos, el 32% sabe algo y el 60% o no sabe o no contesta. El 34% considera que son un peligro como alimento y, en cambio, otro 32% afirma que son seguros. Y el restante 32% no se decide entre ambas opciones. Más o menos la mitad de los encuestados no sabe cuantos genes se alteran en un transgénico (con uno vale), y cerca del 5% afirma que ninguno.

Para no alargarnos vamos a la respuesta más sorprendente. El 84% pide, y es lógico, que en la etiqueta del producto comercializado se avise de que contiene un transgénico pero, es de destacar, que el 80% pide, además, que se indique que contiene ADN, que, como sabemos es un componente básico de los seres vivos, o sea, que todos los productos comercializados deberían incluir esta indicación.

En conclusión, en Estados Unidos los consumidores creen que saben de transgénicos más, bastante más, de lo que realmente conocen de estas plantas y de las técnicas necesarias para conseguirlas. Además, es evidente que deben reciclar sus conocimientos antes de atreverse a tomar decisiones. Excepto si las toman según otros parámetros, quizá por sus creencias más que por sus conocimientos.

Es evidente el consenso científico sobre los transgénicos. En un metaanálisis de lo publicado sobre este tema entre 2002 y 2012, Alessandro Nicolia y sus colegas, de la Universidad de Perugia, en Italia, encuentran 1783 artículos sobre la seguridad de los transgénicos. Estos estudios demuestran el mencionado consenso entre los científicos, su cultivo en todo el mundo y que no se ha detectado ningún riesgo en su utilización. Para los autores, el debate sobre transgénicos y su casi prohibición en la Unión Europea por la enorme cantidad de requisitos a cumplir, se debe a complejos factores sociológicos y psicológicos, a la exageración del cociente entre riesgos y beneficios, a aspectos que tienen que ver con la política, y a la falta de difusión de los conocimientos científicos que lleva, en definitiva, a una gran falta de información entre los ciudadanos.

Es más, en un metaanálisis más reciente y extenso, con trabajos publicados desde 1995, Wilhelm Klumper y Matin Qaim, de la Universidad de Gottingen, en Alemania, revisan 147 estudios elegidos por criterios metodológicos entre más de 25000, y llegan a la conclusión de que la siembra de transgénicos reduce el uso de pesticidas en un 37%, mejora la productividad de los cultivos en un 22% y aumentan los beneficios de los agricultores en un 68%. Además, la productividad y los beneficios son mayores en los países en desarrollo que en los desarrollados.

arroz-dorado

En Europa, y por acuerdo de la Comisión Europea en 2015, cada país decide si se cultivan transgénicos en su territorio y si se permite su uso como alimento. Hace unos meses, a finales de 2015, la mayoría de los países de la Unión Europea habían decidido no permitir su cultivo. Son 19, del total de 28, los estados que plantean restricciones al cultivo de transgénicos, y España no está entre ellos. En realidad, las plantas autorizadas para el cultivo son muy pocas, más bien solo una, el maíz, pero, en cambio, se permite la importación de 58 plantas transgénicas más, entre ellas el algodón, la soja o la colza.

Para profundizar en esta situación tan sorprendente en que un asunto científico, plenamente aceptado por la comunidad científica, levanta tan encendidos debates como hemos visto en Estados Unidos y, ahora, veamos lo que ocurre en Europa, con un ejemplo muy distinto y, además, muy cercano a nosotros. Fue en octubre de 2013 cuando Juan Segovia, militante de Izquierda Unida y miembro de su Comisión por la Ciencia, publicó en Mundo Obrero, revista de la organización, una propuesta sobre transgénicos titulada “Ecologismo y transgénico: una propuesta desde la izquierda”.

En el texto, Juan Segovia argumentaba que no existen pruebas de que los transgénicos sean peligrosos para la salud y el ambiente. Y, en segundo lugar y ante el argumento más utilizado por la izquierda contra los transgénicos que afirma que su producción y comercialización están controladas por multinacionales como Monsanto, indica que no se diferencia mucho del control que ya existe sobre los cultivos tradicionales. Estas multinacionales son quienes mejoran, producen y venden las semillas y los abonos y pesticidas. La solución, desde la izquierda, no puede ser eliminar la agricultura sino luchar por sistemas públicos y abiertos de mejoras, tanto en la agricultura tradicional como con los transgénicos. Ya hay plantas transgénicas procedentes de organizaciones públicas y no de multinacionales, como el arroz dorado con vitamina A o el trigo sin gluten del Instituto de Agricultura Sostenible del CSIC de Córdoba.

Solo unos días después de la publicación del texto de Juan Segovia en Mundo Obrero, y por presiones de Raúl Ariza, dirigente de IU-Aragón, la propuesta desaparece de la revista. Ahora, si se busca este artículo en la revista a través de Google, aparece una pantalla en blanco y en el vértice superior izquierdo y en letra pequeña, se encuentra la palabra “error”. Es evidente que la censura supone siempre un “error”.

Muchos científicos y divulgadores protestaron por esta conducta censora, sobre todo a través de internet y en sus blogs. Incluso un grupo de ellos, entre los que se encontraba Javier Armentia y Oscar Menéndez, enviaron una carta a Gema Delgado, Redactora Jefe de Mundo Obrero, pidiendo conocer en que argumentos se habían apoyado para retirar la propuesta de Juan Segovia. No conozco la respuesta a esta carta.

Es curioso que una organización que apoya la lucha contra el cambio climático como es Izquierda Unida y, ahora, también la coalición Unidos Podemos, esté en contra de los transgénicos. Ambos temas están apoyados por el mismo consenso científico que afirma que el cambio climático está ocurriendo y está provocado por actividades humanas, y que los transgénicos son seguros. Pero en el caso de las plantas transgénicas el debate, en algunos círculos termina con la censura y, si es necesario, matando al mensajero.

Referencias:

Armentia, J. et al. 2013. Carta abierta a Mundo Obrero. Blog de Javier Armentia.

Cook, J. et al. 2016. Consensus on consensus: a synthesis of consensus estimates on human-caused global warming. Environmental Research Letters doi: 10.1088/1748-9326/11/4/048002

Klumper, W. & M. Qaim. 2014. A meta-analysis of the impacts of genetically modified crops. PLOS ONE 9: e111629

McFadden, B.R. & J.L. Lusk. 2016. What consumers don’t know about genetically modified food, and how that affects beliefs. FASEB Journal doi: 10.1096/fj.201600598

Nicolia, A. et al. 2014. An overview of the last 10 years of genetically engineered crop safety research. Critical Reviews in Biotechnology 34: 77-88.

Segovia, J. 2013. Ecologismo y transgénicos: una propuesta desde la izquierda. Mundo Obrero octubre.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Ciencia, creencias, política y matar al mensajero se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia, ideología y práctica política
  2. Wikipedia y Encyclopaedia Britannica: ciencia y política
  3. El clima, los informes y la política
Catégories: Zientzia

Hidrógeno a partir de composites de fibra de carbono

lun, 2016/10/10 - 11:59

hidrogeno-a-partir-de-composites-de-fibra-de-carbono

Los composites o materiales compuestos de fibra de carbono son muy utilizados hoy en día en la fabricación de aeronaves, palas de aerogeneradores, artículos deportivos y automóviles, entre otros, debido a que presentan unas propiedades mecánicas muy similares a las de muchos metales y al mismo tiempo pesan muy poco. Esto ha producido un aumento muy importante en la utilización de estos materiales en los últimos años (por ejemplo, más del 50% en peso de los dos últimos modelos de Airbus y Boeing es de composite de fibra de carbono). Todos los estudios de mercado prevén un crecimiento casi exponencial en su utilización para los próximos años.

La utilización de estos materiales genera los consiguientes residuos, que pueden ser derivados de la propia fabricación de los componentes de los aviones, aerogeneradores, etc., o pueden ser generados al finalizar su vida útil, por ejemplo, al reciclar las partes de aviones compuestas de fibras de carbono.

“Los composites de fibra de carbono se componen principalmente de filamentos de carbono impregnados y aglomerados con una resina. El reciclado de estos materiales es difícil de realizar por tres motivos fundamentales: 1) la gran mayoría están formados por resinas termoestables, que no se funden por aplicación de calor, luego no se pueden volver a moldear; 2) están compuestos por múltiples ingredientes de naturaleza muy diversa (resina, fibras, aditivos de relleno) etc.); y (3) pueden estar mezclados o llevar incorporados otros materiales (insertos metálicos, film termoplástico protector, pinturas, etc.)”, detalla Isabel de Marco, directora del Grupo de Pirólisis y Gasificación perteneciente al Grupo de Investigación Consolidado Sustainable Process Engineering (SuPrEn), formado por miembros del departamento de Ingeniería Química y del Medio Ambiente de la Escuela de Ingeniería de Bilbao de la UPV/EHU.

La fibra de carbono virgen tiene un precio de mercado muy elevado, por lo que empiezan ya a construirse algunas plantas de recuperación de las fibras, con el objetivo, “aún en vías de investigación”, de reciclarlas en nuevos composites. En estas plantas, se separan las fibras de la resina a través de un proceso térmico (pirólisis) que hace que la resina se descomponga, formando vapores, y las fibras queden libres de la matriz, lo que permite su recuperación. En estas plantas los vapores de la descomposición de la resina son eliminados por incineración, sin aprovechar su valor y con el consiguiente problema de emisiones contaminantes.

La patente publicada por el grupo de investigación de la UPV/EHU define un método para tratar estos vapores de forma que a partir de ellos se pueda obtener un gas valioso con una alta proporción de hidrógeno, lo que permite la separación de este compuesto y su venta. “El hidrógeno está llamado a ser el combustible del futuro por no ser contaminante, ya que en su combustión solo se produce agua. Además, puede utilizarse para síntesis química en múltiples aplicaciones”, explica De Marco.

En consecuencia, este método patentado permite la revalorización de la resina polimérica y no solo de la fibra de carbono, tal y como se hace actualmente. Por tanto, se trata de un método que mejora el estado de la técnica actual y la hace más rentable y sostenible. “Se podría instalar en las plantas actuales de tratamiento de composites residuales, o incorporarlo en nuevos diseños. El balance económico preliminar indica que la combinación del precio de venta del hidrógeno y el de las fibras de carbono recuperadas hace que el proceso sea rentable”, explica Alexander Lopez-Urionabarrenechea, co-director de este trabajo de investigación.

Esta patente puede interesar a las empresas constructoras de elementos fabricados con composites de fibra de carbono, como manera de gestionar sus propios residuos, así como a las empresas gestoras de estos residuos. “Las posibilidades de monetizar la patente pasan por ahondar aún más en la investigación de laboratorio y hacer un estudio del cambio de escala. De hecho el grupo se encuentra ya actualmente en conversaciones con una empresa interesada en el proceso”, precisa Lopez-Urionabarrenechea.

Patente:

Método para el tratamiento de vapores generados en el proceso de recuperación de fibras de carbono de composites por pirolisis.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Hidrógeno a partir de composites de fibra de carbono se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un proceso para la producción eficiente de hidrógeno a partir de madera
  2. Cómo obtener hidrógeno a partir de una placa de circuitos impresos
  3. Cómo incorporar nanotubos de carbono a un plástico de aviación
Catégories: Zientzia

#Naukas15 Endosimbiontes

dim, 2016/10/09 - 11:59

endosymbiosis

Los organismos endosimbiontes llegan a compartir fases de su metabolismo. Lo contó J.J. Gallego es una de las charlas más sorprendentes (para los no biólogos al menos) de esta edición.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 Endosimbiontes se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas15 Luis Quevedo entrevista a Eudald Carbonell y Goyo Jiménez
  2. #Naukas15 Odón de Buen
  3. #Naukas15 De publicaciones científicas
Catégories: Zientzia

#Naukas15 El año que descubrimos Plutón

sam, 2016/10/08 - 11:59

nh-pluto-in-true-color_2x_jpeg-edit-frame

Javier Pedreira “Wicho” nos cuenta cómo se descubrió Plutón, entonces y ahora.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 El año que descubrimos Plutón se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas13 10 cosas (+1) que no sabes de la ISS
  2. #Naukas15 Luis Quevedo entrevista a Eudald Carbonell y Goyo Jiménez
  3. #Naukas15 Estoy bien, estoy bien
Catégories: Zientzia

Miedo

ven, 2016/10/07 - 12:00

El miedo nos ha moldeado. Nos ha hecho como somos.

No son pocas las personas que tienen miedo a las alturas. Ese miedo era aquello que nos salvaba de caer de las ramas cuando, siendo unos pequeños primates arborícolas, nos encontrábamos ante un salto que no nos veíamos capaces de superar.

El sonido de un siseo nos hace saltar y ponernos en estado de alerta, y la oscuridad nos recuerda con frecuencia que allí se esconden cosas peligrosas. Es el miedo el que nos previene de ser mordidos por la serpiente o devorados por el león.

El miedo es un salvavidas al que, evolutivamente, nos hemos agarrado. Tan importante es para nosotros que a cada miedo particular incluso le ponemos nombre. Y es que, si bien es cierto que «correr es de cobardes», hay que recordar que «el cementerio está lleno de valientes». Porque el primate que sobrevivía lo suficiente para reproducirse era aquél que nunca era mordido por una serpiente, aquél que no se mataba de una caída, y aquél que se salvaba de ser devorado por un león.

El miedo es una emoción que ha sido clave en nuestra evolución. El miedo nos permitía sobrevivir evitando los peligros o huyendo de ellos. El miedo en ese aspecto, es bueno, es útil. Nos ayuda a sobrevivir.

Pero también el miedo es muy peligroso: nadie está libre de padecerlo, y esto puede volver vulnerable a la población. Y muchos grupos y organizaciones sociales se han aprovechado de ello a lo largo de la historia. Las poblaciones humanas son, para nuestra propia desgracia, muy fáciles de influenciar. Sobre todo de cara al miedo.

 «El Infierno», de Ted LarsonObra: «El Infierno», de Ted Larson

Las religiones nos convencen de que hagamos lo que ellas dicen; si no nos acogemos a unas estrictas normas propias de las poblaciones casi tribales de la edad de bronce; si no aceptamos unos mitos y tomarlos como si fueran verdad; si pretendemos tomar matrimonio sin tener en cuenta la iglesia; si tenemos una orientación sexual distinta de la de la mayoría o toleramos e incluso defendemos a los que la tienen de las injusticias cometidas hacia ellos; si luchamos por la igualdad social y de derechos entre hombres y mujeres y no toleramos que ellos sean considerados superiores a ellas; si rechazamos los viejos dogmas establecidos y aceptamos la evolución biológica tal y como las evidencias empíricas nos muestran que, en realidad, sucede; si hacemos esas cosas, que todo el mundo hace alguna de ellas, somos pecadores. Nos infunden miedo amenazándonos, en tiempos antiguos, con duros castigos físicos y con la muerte, en ocasiones muy violenta y enormemente agónica, y antes y también ahora, con un castigo eterno. Y algo eterno, generalmente, es algo que dura mucho, mucho tiempo.

Encontramos personas que rechazan las vacunas e incluso promulgan la realización de actividades como la «fiesta de la varicela» porque unos pocos intentan asustar a la gente afirmando que sus hijos van a sufrir graves problemas de salud si las recibiesen. Ahí vemos el miedo.

Famosa escena de Los Simpsons en que se trata el tema de las “fiestas de la varicela”.Famosa escena de Los Simpsons en que se trata el tema de las “fiestas de la varicela”.

Nos encontramos con grandes movimientos de personas que rechazan el avance biotecnológico de la transgénesis y demás manipulaciones genéticas provocando el miedo en los demás, y promulgando las maravillas milagrosas de «lo natural», ignorando que en realidad llevamos más de diez mil años modificando los genes de lo que nos comemos, y también que dentro de lo que llamamos «natural» están incluidas cosas como la cicuta, los terremotos, la malaria o algo tan sencillo como la muerte. Miedo. Más miedo.

Y no pocas asociaciones y organismos de diversa índole nos intentan convencer de que las nuevas tecnologías de la comunicación o esas estelas de condensación que se producen tras los aviones son la causa de muchos de los problemas de salud de hoy, y lo hacen mediante diferentes usos del miedo, que incluye desde mentir a la población mediante la simple desinformación hasta las duras amenazas que ciertas personas emiten a las voces racionales discordantes. Por supuesto, no faltan los que se dedican a vender hipotéticos e ineficaces remedios a este tipo de falsos males, siempre aprovechandose del miedo. Más miedo.

Hay quienes te intentan convencer de que la medicina, la de verdad, la que ha demostrado eficacia, no funciona, que los medicamentos causan más problemas de los que solucionan, o que las grandes empresas son las que crean las enfermedades, y así vemos crecer pseudomedicinas como la homeopatía, la acupuntura, el reiki, las flores de Bach, la quiropráctica, la sanación con cristales o la reflexología podal. Todo alrededor del mismo concepto: el miedo.

Nos dicen que los muertos pueden aún tener conciencia, y se lucran con nuestro miedo a una muerte definitiva y absoluta mientras nos venden envuelto en un oscuro papel para regalo una falsa comunicación banal con nuestros seres queridos fallecidos, o se aprovechan del temor a lo desconocido para hablar de nuestro futuro con promesas vacías y ambigüedades vagas, siempre a cambio de un cuantioso donativo que, de negarnos a proporcionar, suele desembocar en maldiciones, males de ojo y ataques psíquicos y espirituales. ¿Eficaces? No, pero que buscan lo mismo: fomentar y aprovecharse del miedo. Más miedo.

Y muchos de ellos aprovechan la ocasión para vendernos remedios de mentira contra esos miedos infundados que ellos mismos promueven, y que en realidad no sirven para nada. Ya sean cachivaches que te convierten las ondas “malas” en ondas “buenas”, pastillas de azúcar para curar el catarro, sesiones de tarot para que nos digan nuestra buenaventura, o sesiones de acupuntura con láser para dejar de fumar.

A mi son ellos los que me dan miedo. Ellos son la serpiente agazapada en la oscuridad.

Crotalus atrox, una de las serpientes que llaman “de cascabel”. Fotografía de Clinton & Charles Robertson from Del Rio, Texas & San Marcos, TX, USA – Western Diamondback Rattlesnake (Cortalus atrox), CC BY 2.0,Crotalus atrox, una de las serpientes que llaman “de cascabel”. Fotografía de Clinton & Charles Robertson from Del Rio, Texas & San Marcos, TX, USA – Western Diamondback Rattlesnake (Cortalus atrox), CC BY 2.0,

Para defendernos de todos esos engaños, de toda esa «cultura del miedo» tenemos una herramienta. Una linterna que arroja luz en la oscuridad, y nos desvela y desenmascara esas serpientes, enseñándonos cómo realmente son. Una herramienta que es, a la vez, la única fuente conocida de explicaciones verificables de la realidad. Se llama método científico.

Gracias al método científico, gracias a la ciencia, hemos llegado donde estamos. Gracias a la ciencia yo estoy escribiendo este artículo y gracias a la ciencia usted lo está leyendo.

Ninguna religión ha hecho que pongamos un pie en la Luna ni ha colocado satélites en órbita —algunas personas que han logrado eso eran religiosas, pero ninguna de ellas lo consiguió empleando como herramienta ninguna religión—.

Buzz Aldrin caminando por la superficie de la luna durante la misión Apolo 11 (NASA).Buzz Aldrin caminando por la superficie de la luna durante la misión Apolo 11 (NASA).

Ningún negacionista de las vacunas ha eliminado la viruela de la faz de la tierra. Las vacunas lo hicieron, y salvan millones de vidas cada año. La ciencia lo hizo.

Ningún homeópata ha conseguido desarrollar un antibiótico, nunca, ni tampoco ningún remedio que resulte eficaz más allá del efecto placebo. La ciencia sí.

Ningún practicante de acupuntura ha conseguido doblar la esperanza de vida en menos de 150 años. Lo ha hecho la medicina. Lo ha hecho la ciencia.

Ningún vidente, echador de cartas del tarot ni astrólogo ha conseguido predecir con éxito y precisión la llegada de tormentas, la próxima visita del cometa Halley ni el próximo eclipse solar. La ciencia lo consigue.

Ningún «anti-transgénicos» ha conseguido una variedad de trigo que pueda ser consumida sin riesgo por personas celíacas ni una variedad de arroz que aporte vitamina A a la dieta, con la posibilidad de prevenir muchos casos de ceguera infantil en países subdesarrollados. Ambos productos se han conseguido gracias a la biotecnología. Gracias a la ciencia.

Y ningún tecnófobo anti-antenas ha conseguido comunicarse con éxito con un robot colocado en la superficie de un distante cometa.

Eso es lo que sucede si nos quedamos sin ciencia. Sin ciencia quedamos a merced de los mercaderes del miedo.

Me parece algo importante para pensar. Y para eso hemos venido aquí, ¿no?

Este post ha sido realizado por Alvaro Bayón (@VaryIngweion) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Miedo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El paisaje del miedo
  2. Ciencia, arte, religión
  3. Divulgación friki
Catégories: Zientzia

#Naukas15 Mosquito tigre

jeu, 2016/10/06 - 17:00

aedes_albopictus

Aitana Oltra habla del mosquito tigre, sí. Pero también de ciencia ciudadana.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 Mosquito tigre se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas15 Mis queridos anillos…de luz sincrotón
  2. #Naukas15 Luis Quevedo entrevista a Eudald Carbonell y Goyo Jiménez
  3. #Naukas15 De elfos, orcos y otros extraterrestres
Catégories: Zientzia

Pages