Edaten ote dute izurdeek urik?

Zientzia Kaiera - Jue, 2016/10/20 - 09:45
Juan Ignacio Pérez eta Miren Bego Urrutia Ura

———————————————————————————————————–

Edaten ote dute izurdeek urik? Baten batek pentsa dezake galdera erretorikoa dela hau, baina ez da. Erantzuna, gainera, ez da erraza. Ikus dezagun zergatik.
1. irudia: Ugaztun itsastarra da. Mihi berezia dute, erdian kanal bat du, bertatik esnea ematen die kumeei hauek itsasoko ura har dezaten ekidinez.

Itsas arrainen edo itsas hegaztien egoera osmotikoaren antzekoa da itsas ugaztunena. Baleak, itsas lehoiak, izurdeak, itsas txakurrak eta abar, talde horretako kideak dira, eta itsasoko arrain gehienei ―arrain teleosteoei― gertatzen zaien bezala, oso apala da euren barne-likidoen kontzentrazioa. Gutxi gorabehera, itsasoko uraren kontzentrazioaren herena da itsas ugaztunen odolarena. Antz handia dago, beraz, arrain eta ugaztunen barneko eta kanpoko medioen kontzentrazioen arteko aldeari dagokionez. Uraren eta gatzen fluxuei dagokienez, berriz, desberdintasun nabarmenak daude bi talde horien artean. Egia da gatzen gradientea berdina dela, eta egia da, beraz, bi kasuetan ura galtzeko edo gatzak irabazteko joerak izango dituztela animaliek. Baina ugaztunen kasuan fluxu horiek askoz mugatuagoak daude. Izan ere, brankia da arrainek gasen trukerako duten azalera nagusia, eta brankia ezin daiteke iragazgaitza izan, arnas azalera izanik guztiz iragazkorra izan behar baitu. Hori horrela, itsas arrainek ur kantitate handia galtzen dute azalera horretatik, gero edanez berreskuratu behar dutena.

Baina ez da hori itsas ugaztunen egoera. Itsas ugaztunek birikak erabiltzen dituzte arnasa hartzeko, eta hori airean egiten dute. Hau da, itsasoko urak ez du inoiz ukitzen gasen trukerako azalera. Izan ere, itsas ugaztunek uretatik irten behar dute arnasa hartzeko. Hori dela eta, biriketatik ez dute urik galtzen, eta alde horretatik ez dute uraren ekonomiarekin arrainek duten arazo larria. Gauzak horrela, itsas arrainena baino askoz txikiagoa da itsas ugaztunen ura edateko beharra. Hala ere, ez daude ura edatetik salbuetsita. Azken batean, arnas azaleratik ez, baina gernu gisa bai galtzen dute ura itsas ugaztunek. Ezin liteke bestela izan, nitrogeno-hondarrak kanporatzeko erabiltzen duten molekulak, ureak, uretan disolbatua egon behar baitu. Gernu gisa galtzen den ur hori beste era batera berreskuratu beharra dute. Balizko bi bide daude ura berreskuratzeko, itsasoko ura edanez edo janariaren bitartez. Azter ditzagun kontu hauek.

Ugaztun gehienok ez dugu batere atsegin itsasoko ura; itsasoko uraren gatzen edukia hiru bider handiagoa da odolarena baino. Izan ere, bi dira itsasoko ura edateak ekar diezazkigukeen ondorio kaltegarriak: batetik, uraren gatzak xurgatzen ez badira, ura barne-mediotik heste argira irten daiteke, eta horrek barne-medioaren lehortzea ekar dezake; izan ere, horixe da magnesioarekin eta sulfatoarekin gertatzen zaiguna. Gatzak xurgatzen badira, nola edo hala kanporatu beharko dira gero, gatzen balantzea orekatua mantenduko bada.

Egia da ugaztunen giltzurruna oso eraginkorra dela lan hori egiten, odolarena eta itsasoko urarena baino gatz-kontzentrazio handiagoa duen gernua sor baitezake[1]. Baina eraginkortasun hori mugatua da, eta, beraz, hobe dute ahalik eta itsasoko ur gutxien edatea.

Lehenago esan bezala, janaria izan daiteke ura berreskuratzeko beste bide bat. Oso irtenbide ona izan daiteke hori ugaztun harraparientzat haien harrapakinak arrain teleosteoak baldin badira. Arrain teleosteoen barne-medioak eta ugaztunenak antzeko gatz-kontzentrazioa dutenez, arrainak jaten dituzten ugaztunek ez diete aurre egin behar ura edateak dakartzan arazoei. Izan ere, itsas lehoiekin egindako ikerketa batean aurkitu denez, itsas lehoien jakia arrainez osatua badago, ez dute batere urik edan behar. Harrapariak ez direnentzat, ordea, bere horretan dirau arazoak. Krill izeneko krustazeo txikiak iragaziz elikatzen diren baleek, adibidez, itsasoko ura bezain kontzentratua dagoen janaria baliatzen dute. Agian horregatik ikusi izan dira baleak izotza jaten!


2. irudia: Krill (Meganyctiphanes norvegica) krustazeo txikia ur hotzetan bizi da. Janari-iturri garrantzitsua dira zetazeoentzat, batez ere, baleentzat. (Argazkia: Øystein Paulsen – Wikipedia – CC BY-SA 3.0 lizentziapean)

Ekarpen honen izenburuaren galderari erantzutea ez da erraza. Ezaguna da hainbat itsas txakurrek eta itsas lehoik itsasoko ura edaten dutela, noizean behin bai behintzat, baina ez dakigu hori ohikoa den ala ez. Seguru asko, ura edaten dute besterik geratzen ez zaienean; azken batean, beren giltzurrunek geureek baino gernu kontzentratuagoa sortzen dute. Hala ere, segurtasun osoz esan dezakegu ahalik eta ur gutxien edaten dutela, bestela giltzurrunek lan handiegia egin beharko lukete-eta.

Oharra:

[1] Neurketak egin diren esperimentuetan ―foka eta itsas lehoietan― ikusi da itsasoko ura baino 2’5 bider kontzentratuago dagoela gernua.

—————————————————–

Egileez: Juan Ignacio Pérez Iglesias (@Uhandrea) eta Miren Bego Urrutia Biologian doktoreak dira eta UPV/EHUko Animalien Fisiologiako irakasleak.

—————————————————–

Artikulua UPV/EHUren ZIO (Zientzia irakurle ororentzat) bildumako Animalien aferak liburutik jaso dugu.

The post Edaten ote dute izurdeek urik? appeared first on Zientzia Kaiera.

Categorías: Zientzia

El fondo cósmico de microondas y el espejo de feria

Cuaderno de Cultura Científica - Mié, 2016/10/19 - 17:00

espejo-de-feriaLook At Us – We’re Beautiful 2 – Judithcarlin / Wikimedia Commons

Fíjate en el retrato superior, ¿a cuantas personas crees que corresponde en la realidad?¿Dos, tres, quizás cuatro? Si sabemos que el cuadro corresponde a una imagen distorsinada por un espejo de feria, podemos crear un algoritmo que, deshaciendo las deformaciones que provoca el espejo, algunas deducibles de la propia imagen, nos lleve a comprender que estamos en realidad ante una pareja.

Podemos pensar que el fondo cósmico de microondas (FCM) es un cuadro del universo observable. El estudio de los patrones que aparecen en este cuadro nos desvela la historia del universo. Pero las imágenes que vemos están distorsionadas por los efectos gravitatorios que los objetos masivos, como las galaxias, por ejemplo, tienen en el espaciotiempo, lo que se conoce como efecto de lente gravitacional. Un objeto masivo deforma el espacio tiempo convirtiéndolo en una lente que afecta a la trayectoria de los rayos de luz; de hecho, una lente gravitacional potente permite ver los objetos que están detrás de ella según nuestra línea de visión.

Fondo cósmico de microondas según los datos del satélite Planck publicados en 2015Fondo cósmico de microondas según los datos del satélite Planck publicados en 2015

Ahora un nuevo trabajo muestra que, como con el espejo de feria, se pueden eliminar estas distorsiones en el FCM usando la radiación de fondo en frecuencias de infrarrojo. Esta primera demostración de lo que ha dado en llamarse “delensing” (algo así como “deslentización”) podría ser muy útil para búsquedas futuras de señales de ondas gravitacionales en el FCM.

Durante los últimas décadas los cosmólogos han usado los mapas del FCM para determinar la geometría y la distribución de densidad del universo. Estudios posteriores, centrados concretamente en los patrones de polarización en el FCM, podrían suministrar información de las ondas gravitacionales que se cree que se originaron en la rápida expansión del universo tras el Big Bang. Sin embargo, el efecto de las lentes gravitacionales oscurece las señales de polarización.

Anisotropías en el fondo cósmico de infrarrojo.Anisotropías en el fondo cósmico de infrarrojo.

Los propuestas que existían hasta ahora para esta deslentización recurrían a características del propio FCM para identificar los lugares donde existía un efecto de lente gravitacional. El equipo encabezado por Patricia Larsen, del Instituto de Astronomía y del Instituto Kavli de Cosmología (Reino Unido), ha desarrollado y comprobado un método de deslentización que se basa en algo externo al FCM, el llamado fondo cósmico infrarrojo (FCI), que es una luz difusa que proviene fundamentalmente de galaxias ricas en polvo donde se están formando estrellas. Los puntos brillantes en el FCI se corresponden a regiones de alta concentración de galaxias que deberían producir un efecto de lente gravitacional muy importante.

Los investigadores han usado un mapa del FCI suministrado por el satélite Planck para crear una plantilla de deslentización que después han aplicado al mejor mapa completo del FCM que existe (también de Planck). El mapa del FCM librado de los efectos de lente gravitacional muestra picos más definidos en el espectro de fluctuaciones de temperaturas, y esta mayor definición se corresponde con los modelos teóricos de lentes gravitacionales.

Referencia:

P. Larsen et al (2016) Demonstration of Cosmic Microwave Background Delensing Using the Cosmic Infrared Background Phys Rev. Lett. doi: 10.1103/PhysRevLett.117.151102

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo El fondo cósmico de microondas y el espejo de feria se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cosmología de ondas gravitacionales en 29 órdenes de magnitud
  2. Comprimiendo la luz para detectar mejor ondas gravitacionales
  3. Microondas e infrarrojo
Categorías: Zientzia

Metros o millas… Houston, tenemos un problema!

Cuaderno de Cultura Científica - Mié, 2016/10/19 - 11:59

El 23 de septiembre de 1999, tras más de nueve meses de viaje entre la Tierra y Marte, la sonda espacial Mars Climate Orbiter se desintegró al entrar en contacto con la atmósfera del planeta rojo. La Mars Climate Orbiter, que tenía un coste de 125 millones de dólares y formaba parte de un programa espacial con un presupuesto de más de 300 millones de dólares, tenía como objetivo estudiar el clima y las condiciones atmosféricas del planeta Marte, así como servir de apoyo para la transmisión de datos de la Mars Polar Lander, ambas parte de la misión espacial Mars Surveyor’98.

Imagen artística, de la página de la NASA, de la Mars Climate OrbiterImagen artística, de la página de la NASA, de la Mars Climate Orbiter

Como puede leerse en el informe de la investigación que se realizó sobre el accidente de la Mars Climate Orbiter en noviembre de 1999 –Mars Climate Orbiter Mishap Investigation Board, Phase I Report– el accidente tuvo lugar por el uso de datos en el sistema imperial de medidas cuando se tenían que haber utilizado los datos en el sistema métrico decimal.

Desde la NASA se estaban realizando los cálculos para el impulso que debían de producir los motores, cada vez que se encendían para corregir la trayectoria del viaje a Marte de la Mars Climate Orbiter, en libras de fuerza multiplicado por segundos (lbr.sg), es decir, en el sistema inglés de medidas, mientras que el software de los ordenadores de la sonda operaban en Newtons segundo (Nw.sg), es decir, en el Sistema Internacional de Medidas. Así, cada vez que se encendían los motores para ir corrigiendo la trayectoria se iba acumulando un error en la misma, debido a esa discrepancia en los datos.

Al llegar a Marte, la sonda debía estar a una altura de 226 km sobre la superficie del planeta rojo, a partir de ese momento se realizaría una maniobra de aproximación hasta quedar estacionada en una órbita alrededor del planeta, sin embargo, la sonda pasó a tan solo 57 kilómetros de altura, destruyéndose por el contacto con la atmósfera.

 Commons wikimediaDiagrama, basado en el que aparece en el informe de la investigación, comparando la trayectoria que debía haber llevado la Mars Climate Orbiter y la que realmente describió. Fuente: Commons wikimedia

Pero veamos de qué magnitud fue el fallo que se cometió al mezclar ambos sistemas de medidas. Imaginemos que el cálculo realizado por la NASA en Tierra ofrecía la información de que el impulso que debía darse al motor de la sonda espacial era de 10.000.000 libras (de fuerza) segundo, pero el ordenador de la sonda interpretaba ante esta información, puesto que su software trabaja en el sistema internacional de medidas, que eran 10.000.000 Newtons segundo. Teniendo en cuenta que 1 libra (de fuerza) son 4,5 Newtons, se tendría que

10.000.000 Newtons·segundo = 10.000.000 x (1/4,5) = 2.222.222 libras·segundo,

Es decir, se habría producido un déficit en el impulso de más de 7 millones de libras (de fuerza) segundo. Solo un 22% del impulso que se tenía que haber generado.

Este es solo uno de los ejemplos de los errores que se han producido en las últimas décadas por el uso simultáneo de dos sistemas de medidas distintos, el sistema internacional y el sistema imperial de medidas.

 undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France" (1792), del escritor inglés Arthur YoungPrimeras páginas del libro “Travels during the years 1787, 1788, & 1789: undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France” (1792), del escritor inglés Arthur Young

Antes de la revolución francesa, 1789, la situación de los sistemas de medidas era caótica. Cada país, pero lo que es peor aún, cada región dentro de un mismo país, tenía sus propios sistemas de medidas, pero incluso en ocasiones compartían el mismo nombre, lo que convertía en un problema una simple compra y venta de alimentos, utensilios o ganado en una feria comarcal, y en general, dificultaba las transacciones comerciales, la investigación científica y todo tipo de comunicación.

El escritor inglés Arthur Young (1741-1820) en la versión extendida, de cuatro volúmenes, de sus viajes por Francia, Travels during the years 1787, 1788, & 1789: undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France (W. Richardson,1792), comenta “en Francia, la infinita perplejidad que causa la profusión de medidas excede toda comprensión. No solo difieren en cada provincia, sino en cada distrito, y casi en cualquier población”.

En el libro La medida de todas las cosas (2003), su autor Ken Alder escribe que “algunos contemporáneos calculaban que, bajo la cobertura de unos ochocientos nombres, el Antiguo Régimen de Francia utilizaba la asombrosa cifra de unas doscientas cincuenta mil unidades diferentes de pesos y medidas”.

O en el libro Outlines of the evolution of weights and measures and the metric system (Macmillan, 1906), de William Hallock y Herbert T. Wade, los autores indican que “A finales del siglo pasado (dieciocho), en diferentes partes del mundo, la palabra “libra” se aplicaba a 391 unidades diferentes de peso y la palabra “pie” a 282 unidades diferentes de longitud”.

Como es lógico, en la antigüedad cada región había desarrollado sus propios sistemas de medida, en muchas ocasiones basados en el cuerpo humano (por lo que la medida dependía del tamaño medio de los habitantes de esa región) o en cuestiones culturales específicas de la región donde se establecían, pero el mundo, su cultura, su ciencia y su economía, cada vez se hizo más global y las diferentes medidas empezaron a chocar unas con otras.

Como hemos visto, la situación antes de la revolución francesa de las unidades de medida en Europa, y en el mundo, era un auténtico desastre. Como decía el matemático y filósofo Nicolás de Condorcet (1743-1794) en sus Observaciones sobre el Libro XXIX delEspíritu de las Leyes” de Montesquieu (1793), “la uniformidad de los pesos y medidas solo pueden desagradar a los empleados de los tribunales de justicia que teman ver disminuido el número de pleitos, y a aquellos comerciantes a los que la disminución de beneficios va a afectar, en cuanto a que contribuye a convertir las transacciones comerciales fáciles y simples”.

//gallica.bnf.fr/ark:/12148/btv1b8412951c/Grabado en madera, de 1800, mostrando las nuevas unidades decimales que fueron las legales en Francia desde el 4 de noviembre de 1800. Grabador, L. F. Kabrousse; editor, J. P. Delion. Fuente: Gallica

Aunque ya habían existido intentos anteriores, tras la Revolución Francesa se ponen las bases para crear un sistema de medidas universal. En palabras de Condorcet “para todos los pueblos, para siempre”. Para tal fin, en 1790, se crea la Comisión de Pesos y Medidas, constituida por los científicos Jean-Charles Borda (1733-1799), Joseph-Louis Lagrange (1736-1813), Pierre-Simon Laplace (1749-1827), Gaspard Monge (1746-1818) y Nicolás Condorcet. Para alcanzar la universalidad, el sistema de medidas debía ser decimal (aunque inicialmente también se valoró la posibilidad del sistema duodecimal), sus valores derivados de la naturaleza (por ejemplo, el metro tomaría el valor de “una diezmillonésima parte de la circunferencia de la Tierra”), las unidades de medida derivadas deberían basarse en potencias de las unidades básicas y se debían utilizar prefijos para designar los múltiplos y submúltiplos de las unidades.

La historia del sistema métrico decimal es apasiónate y empieza con la aventura de la medición del meridiano que pasa por París para definir determinar el valor del metro, aunque este no es el objetivo de esta entrada. Sobre este tema existen buenos libros, como El metro del mundo (Anagrama, 2003) de Denis Guedj o el mencionado La medida de todas las cosas (2003), de Ken Alder.

Tras la instauración en Francia, no sin problemas, del Sistema Métrico Decimal, muchos otros países del entorno, así como de Latinoamérica, empezaron a adoptar a lo largo del siglo XIX este sistema de medidas universal, Países Bajos, España, Alemania, Italia, Portugal, Noruega, Suecia, el Imperio Austro-Húngaro, Finlandia, Perú, México, Venezuela, entre muchos otros.

Mapa del mundo mostrando el momento de la adopción del sistema métrico decimal, o su derivado el Sistema Internacional de Medidas, por parte de los diferentes paísesMapa del mundo mostrando el momento de la adopción del sistema métrico decimal, o su derivado el Sistema Internacional de Medidas, por parte de los diferentes países

En 1875, diecisiete países firmaron la Convención del metro, “anhelando la uniformidad y la precisión internacionales en los estándares de pesos y medidas”, y se crearon las organizaciones internacionales para velar por la uniformidad de los pesos y medidas a lo largo de todo el mundo, la Oficina Internacional de Pesas y Medidas, el Comité Internacional de Pesas y Medidas y la Conferencia General de Pesos y Medidas. Poco a poco los diferentes países del mundo se fueron sumando a estas organizaciones y adoptando el sistema métrico decimal.

En la Conferencia General de Pesos y Medidas de 1960 se estableció finalmente el Sistema Internacional de Unidades. Las unidades básicas del Sistema Internacional (SI) son siete, el metro (longitud), el kilogramo (masa), el segundo (tiempo), el amperio (corriente eléctrica), el kelvin (temperatura termodinámica), el mol (cantidad de sustancia) y la candela (intensidad lumínica). Y de estas unidades básicas se derivan las otras unidades, como por ejemplo, el hercio (frecuencia), el Newton (fuerza), el pascal (presión), el julio (trabajo), etc.

Como se muestra en el mapa anterior, en la actualidad solamente hay tres países que no se han sumado al Sistema Internacional de Unidades, que son Estados Unidos, Liberia y Birmania (Myanmar), aunque estos dos últimos están en el proceso de adopción del Sistema Internacional. Por otra parte, países que han adoptado recientemente el SI, como Gran Bretaña o Canadá, siguen utilizando su viejo sistema de medidas en muchos ámbitos de su vida, el sistema imperial (o inglés) de medidas, que es el que continúa utilizando Estados Unidos en la actualidad.

Entre las décadas de los años 1970 y 1980 hubo un intento fallido de adopción del sistema internacional de medidas en EE.UU, motivo por el cual existen algunas señales de tráfico con medidas en el sistema métrico decimal, como las señales de distancia de la interestatal 19 entre Tucson y NogalesEntre las décadas de los años 1970 y 1980 hubo un intento fallido de adopción del sistema internacional de medidas en EE.UU, motivo por el cual existen algunas señales de tráfico con medidas en el sistema métrico decimal, como las señales de distancia de la interestatal 19 entre Tucson y Nogales

Entre las unidades del Sistema Imperial de Medidas están las yardas (en longitud), los acres (en área), los galones (en volumen), las libras (en masa), entre otras.

A continuación, veremos otros ejemplos de errores y catástrofes producidos por la confusión en el uso de estos dos sistemas de medidas, el Sistema Internacional y el Sistema Imperial. Estos ejemplos aparecen, entre otros sitios, referenciados en la página web de una asociación que existe en EE.UU. para la promoción del Sistema Internacional de Medidas fundada en 1916, la U. S. Metric Association.

Antigua pesa para báscula de 1 kilogramoAntigua pesa para báscula de 1 kilogramo

El primer ejemplo que traemos a esta entrada, aparte del inicial sobre la Mars Climate Orbiter, es un ejemplo sencillo de confusión entre kilogramos y libras de los que seguramente se habrán producido muchos, pero que no suelen ser recogidos en los medios de comunicación, a diferencia de este.

En 2001, se publicó en el San Francisco Business Times la noticia “Fabricantes, los exportadores piensan en métrico”. En ella se contaba la historia de un empresario norteamericano, Carlos Zambello, que había vendido un cargamento de arroz salvaje a un cliente japonés y como en la transacción había habido una cierta confusión, causándoles cierto bochorno, por no hablar de las pérdidas económicas.

Trigo salvajeTrigo salvaje

En concreto, a la compradora japonesa se le ofreció el arroz salvaje a un precio de 39 centavos… el problema es que ella estaba entendiendo que la oferta era de 39 centavos el kilogramo, mientras que el vendedor se estaba refiriendo a 39 centavos la libra. La cuestión es que como 1 kilogramo equivale a 2,2 libras, el coste del trigo salvaje era realmente de 85,8 centavos el kilogramo, mucho más de lo que pensaba la compradora, 39 centavos el kilogramo.

Una vez que se dieron cuenta del malentendido, el gerente general de la compañía The Wild Rice Exchange, Carlos Zambello, acabó aceptando que el precio del arroz salvaje vendido fuera su precio de coste, puesto que en el otro lado tenían a un buen cliente desde hacía muchos años, sin obtener ningún beneficio en la transacción, mientras que el comprador japonés, aunque pagó menos de lo que era su precio real, acabó aceptando pagar el precio de coste, más de lo que había pensado que era su precio de compra.

Otra historia con un malentendido entre kilogramos y libras se recogió en el periódico Los Angeles Times, en febrero de 2001. Bajo el titular “Mismeasure for measure” (que podríamos traducir como “Incorrecta medida para medir”) se contaba como el Zoológico de Los Ángeles había prestado su vieja tortuga galápago Clarence, de 75 años de edad, al Exotic Animal Training and Management Program de la Universidad de Moorpark (Moorpark College). Pero, durante la primera noche de la vieja tortuga en su nuevo hogar, esta se había escapado echando abajo uno de los postes de la cerca en la que se encontraba.

 Moorpark CollegeClarence, la tortuga galápago de 75 años, que se escapó de su cerca de la Universidad de Moorpark, California. Fuente: Moorpark College

El Zoológico de Los Ángeles había avisado que la tortuga galápago era grande y que se necesitaba una cerca para un animal de un peso de 250, que es lo que construyó la Universidad de Moorpark. El problema estaba en que desde la institución universitaria habían interpretado que se estaba hablando de 250 libras, cuando realmente hablaban de 250 kilogramos, o lo que es lo mismo, unas 550 libras.

Nuestro siguiente ejemplo, nos lleva a uno de los últimos países en adoptar el Sistema Internacional de Medidas, Canadá, cuyo proceso de metrización empezó en la década de los años 1970, aunque no ha sido desarrollado completamente.

En julio de 1983 el avión Boeing 767-200 del vuelo 143 de Air Canadian se quedó sin combustible a mitad de su vuelo entre Montreal y Edmonton, debido a que la tripulación calculó mal el fuel que necesitaban para el viaje (junto con una serie de fallos en el sistema indicador de la cantidad de combustible del avión). Por suerte, se pudo realizar un aterrizaje de emergencia en una antigua base militar.

Posición en la que quedó el avión del vuelo 143 de Air Canada, en julio de 1983, tras realizar un aterrizaje de emergencia por haberse quedado sin fuel a mitad de su vuelo entre Montreal y EdmontonPosición en la que quedó el avión del vuelo 143 de Air Canada, en julio de 1983, tras realizar un aterrizaje de emergencia por haberse quedado sin fuel a mitad de su vuelo entre Montreal y Edmonton

El error en el cálculo de la carga de combustible necesaria se produjo debido a que el personal no tenía una formación adecuada en el sistema métrico decimal que se acababa de adoptar en Canadá, sustituyendo al sistema imperial.

La tripulación sabía que se necesitaban 22.300 kilogramos de fuel para realizar el viaje entre Montreal y Edmonton. Pero el avión ya tenía 7.682 litros en sus tanques, por lo que había que calcular cuánto fuel extra era necesario cargar en los tanques para realizar el viaje.

Teniendo en cuenta que el peso de 1 litro de fuel es de 0,803 kilogramos, entonces el peso del fuel que tenía ya el avión era de 7.682 litros x 0,803 kg/litro = 6.169 kg.

Por lo tanto, el avión necesitaba que se le añadieran a sus tanques 22.300 – 6.169 = 16.131 kg.

Luego, ¿cuántos litros de fuel debían de cargarse en el avión? Teniendo en cuenta de nuevo, que cada litro pesa 0,803 kilogramos, la cantidad de fuel necesario era de 16.131 kg x (1 litro /0,803 kg) = 20.088 litros.

La tripulación, sin embargo, tuvo en cuenta el factor de conversión de 1,77 (en lugar de 0,803), que era el que habían estado utilizando hasta entonces ya que 1 litro de fuel pesa 1,77 libras (tengamos en cuenta que 1 kilogramo son 2,205 libras, luego 0,803 kilogramos son 1,77 libras).

Por lo tanto, esta fue la cuenta que realizaron…

1.- el peso del fuel que aún quedaba en los tanques del avión era…

7.682 x 1,77 = 13.587 “kilogramos” (en realidad eran libras)

2.- el peso del fuel que había que añadir era…

22.3000 – 13.587 = 8.713 “kilogramos”

3.- luego, ¿cuántos litros calcularon que había que cargar en los tanques?

8.713 kg x (1 / 1,77) = 4.923 litros (el factor a utilizar debía de ser litros/kilogramo, aunque el dato que utilizaban de nuevo era litros/libra, 1/1,77)

En conclusión, cargaron solamente 4.923 litros de los 20.088 litros que realmente eran los necesarios.

 Avión McDonnell Douglas MC-11F que realizaba el vuelo 6316 de Korean Air Cargo de Shanghai a Seoul en la década de los años 1990Avión McDonnell Douglas MC-11F que realizaba el vuelo 6316 de Korean Air Cargo de Shanghai a Seoul en la década de los años 1990

En abril de 1999 el avión McDonnell Douglas MC-11F en su vuelo 6316 de Korean Air Cargo de Shanghai a Seoul se estrelló, muriendo las tres personas de la tripulación y otras 5 personas en tierra, así mismo, hubo 37 heridos en tierra.

Después del despegue el avión debía subir a una altura de 1.500 metros (que son 4.900 pies, puesto que 1 metro equivale a 3,28 pies). Cuando el avión subió a 4.500 pies (casi a 1.400 metros), el primer oficial informó al capitán de que la altura del avión debía ser de 1.500 pies (confundiéndose con los 1.500 metros que realmente debía de tener), pensando por lo tanto que el avión estaba 3.000 pies más arriba de lo que debía. Como consecuencia el capitán puso bruscamente el avión en descenso para intentar poner al avión a una altura de 1.500 pies (que son unos 460 metros), como consecuencia de esta maniobra el avión se volvió incontrolable y terminaría estrellándose en una zona industrial a 10 kilómetros del aeropuerto.

Los deportistas norteamericanos suelen sufrir su aislamiento del Sistema Internacional de Medidas en las competiciones deportivas, en particular, en los Juegos Olímpicos. Un ejemplo de este problema fue el no reconocimiento mundial de un record en atletismo. La atleta Carol Lewis realizó un salto de longitud que parecía ser un record mundial en los campeonatos NCAA Men’s and Women’s Indoor Track Championship celebrados en Pontiac, Michigan, en 1983. Sin embargo, su marca no fue reconocida como un record oficial, puesto que para que se considere un record oficial las medidas deben tomarse en el sistema internacional, es decir, en el sistema métrico decimal.

La atleta Carol Lewis en 1991La atleta Carol Lewis en 1991

En Diciembre de 2003, el tren de la montaña rusa Space Mountain que se encuentra en el parque temático Tokyo Disneyland descarriló cuando llegaba a la estación. El descarrilamiento se produjo debido a la ruptura de un eje del tren. Por suerte, no hubo que lamentar ninguna desgracia y todo quedó en un susto.

Como resultado de la correspondiente investigación para aclarar los motivos del accidente, se descubrió que el eje se había construido con un diámetro más pequeño que las especificaciones de los planos del diseño. En el año 1995 se habían cambiado las medidas de los planes maestros para la construcción de la Space Mountain, del sistema imperial al sistema internacional de medidas. Cuando se fue a construir la Space Mountain de Tokyo en 2002, se tomaron los valores de las medidas de los planos del diseño anteriores a 1995.

 Tokyo Disney Resort [www.tokyodisneyresort.jpImágenes de la Space Mountain de Tokyo Disneyland. Fuente: Tokyo Disney Resort

Según el informe, mientras que en los planos del diseño se especifica que el espacio entre el eje y su cojinete debía de ser de 0,2 mm, realmente era de alrededor de 1 mm, lo cual creó una mayor vibración que hizo que se rompiera el eje. Recordemos que 1 pulgada son 2,54 centímetros, o recíprocamente, 1 cm equivale a 0,3937 pulgadas.

Y para terminar, un ejemplo relacionado con el volumen. En 2004 a un niño se le estuvo dando 5 veces la dosis prescrita por el médico de Zantac Syrup, un medicamento para reducir la producción del ácido estomacal, hasta que un mes más tarde el médico descubrió la confusión. Afortunadamente, el error no tuvo ninguna consecuencia grave para el bebé.

El médico había prescrito una dosis de 0,75 mililitros, dos veces al día, pero el farmacéutico escribió en el bote del medicamento “administrar 3/4 de cucharadita (teaspoon) dos veces al día”. Teniendo en cuenta que esta medida de Estados Unidos, 1 “cucharadita” (u.s. teaspoon), tiene la equivalencia en el sistema métrico decimal de 4,9 mililitros, se le estuvieron suministrando 3,675 mililitros, dos veces al día, es decir, casi 5 veces la dosis prescrita.

imagen-14Humor gráfico aparecido en la revista “Industry Week” en 1981

Bibliografía

1.- U.S. Metric Association.

2.- Mars Climate Orbiter Mishap Investigation Board, Phase I Report, November 10, 1999

3.- Some Famous Unit Conversion Errors, Space Math, NASA

4.- Arthur Young, Travels during the years 1787, 1788, & 1789: undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France, W. Richardson,1792.

5.- Ken Alder, La medida de todas las cosas, Taurus/Santillana, 2003.

6.- William Hallock y Herbert T. Wade, Outlines of the evolution of weights and measures and the metric system, Macmillan, 1906.

7.- Nicolás de Condorcet, Observaciones sobre el Libro XXIX delEspíritu de las Leyes” de Montesquieu, 1793.

8.- Denis Guedj, El metro del mundo, Anagrama, 2003.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Metros o millas… Houston, tenemos un problema! se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El neerlandés que subirá unos pocos metros pero bajará una montaña
  2. El problema de los McNuggets de pollo
  3. El problema de las estudiantes de Kirkman
Categorías: Zientzia

Denon arbasoaren arrastoen atzetik

Zientzia Kaiera - Mié, 2016/10/19 - 09:31
Amaia Portugal Organismo guztiek partekatzen dugun oso aspaldiko senidea da LUCA, edo azken arbaso komun unibertsala. Hark zituen 355 gene familia identifikatu ditu ikerketa talde batek, eta horietan oinarrituta, bere profila irudikatu: beroa eta hidrogenoa maite zituen eta oxigenoa gorroto zuen mikrobioa zen. Ezaugarri horiek eta beste zenbait kontuan hartuta, itsaspeko sumendien bueltan dauden tximinia hidrotermalen inguruan bizi izan zela uste dute.

Zer ari gara galdetzen, nondik gatoz galdetzen dugunean? Biologiaz ari al gara galdezka, ala fisikaz, ala filosofiaz? Ertz asko dituen auzia da. Bizitzaz, edo hobe esanda, guk ezagutzen ditugun bizitza formez ari bagara, LUCA da erantzuna: Last Universal Common Ancestor, edo azken arbaso komun unibertsala. Gaur egun gure mundu honetan bizi garen organismo guztiek partekatzen dugun oso aspaldiko senidea, gutxienez duela 3.500 milioi urte bizi izan zena. Baina arazoa zera da, LUCA erantzuteak galderak areagotu baino ez dituela egiten.

Nolakoa zen organismo hau? Non bizi zen? Eta nola? Horiei erantzun nahian Dusseldorfeko Unibertsitatean egin duten ikerketa batek piztu du arreta berriki. Ustez LUCAk zeuzkan 355 proteina familia identifikatu dituzte, eta horietan oinarrituta, bere profila egin dute: beroa maite zuen mikrobioa zen, hidrogenoa funtsezkoa zuen, eta oxigenorik gabeko ingurunean bizi zen, Nature Microbiology aldizkarian argitaratutako artikulu batean azaldu dutenez. Garbi dago haren ondorengo askok eta askok beste bide batzuk hartu ditugula.

 Madeline C. Weiss et al.)
1. irudia: Bakterio eta arkeoetatik abiatu dira LUCAren balizko geneak identifikatzeko. (Argazkia: Madeline C. Weiss et al.)

LUCA aurkitzeko, arkeologia lana egin behar da, bizitzaren historia luzea berreraiki. Eta horretarako organismo prokariotikoak dira abiapuntua. Animaliak, landareak, onddoak, bai eta legamiak ere, eukariotoak gara, organismo konplexuagoak; baina datuek diote prokariotoetatik sortuak garela guztiak, eta horregatik jo behar da horietara. Prokariotoak, aldiz, bi motatakoak izan daitezke: bakterioak edo arkeoak. Hain zuzen ere, bakterioak eta arkeoak bereizi izana, hori izan da bizitza formen bilakaeran gertatu den banaketarik sakonena. Horregatik, biek ala biek gene batzuk partekatzen badituzte, LUCAk ere gene horiek izango zituela pentsatzeak badu zentzua.

Ez da hain erraza, ordea. Bakterio batek eta arkeo batek gene bera izan dezakete erro beretik datozelako, baina gene transferentzia gertatu delako ere bai. Hizkuntzetan maileguekin gertatzen denaren parekoa da: euskarak baditu latinetik datozen hitzak (bakea, gela, zerua…) haren eragina izan eta transferitu egin dituelako, baina ez dute jatorri bera. Orduan, nola bereizi bi organismoek LUCAtik oinordetzan jaso dituzten geneak, eta elkarri gerora kopiatu dizkiotenak?

Bada, bakterio eta arkeo espezie banak partekatzen dituzten geneak besterik gabe bilatu beharrean, irizpideak eta metodoa zorroztu dituzte. Gutxienez bi bakterio espeziek eta bi arkeo espeziek dituzten gene komunak identifikatu dituzte aurrena. 1.847 bakterioren eta 134 arkeoren genomak aztertu eta 6,1 milioi gene kontatu dituzte horrela, eta horiek guztiak 286.514 proteina familiatan multzokatu. Baina familia horien guztien artean, 355 baino ez daude gaur egungo organismo guztietan luze-zabal barreiatuta. 355 gene familia horiek dira, beraz, LUCAren parte izateko hautagai nagusiak.

 P. Rona- NOAA Photo Library)
2. irudia: Tximinia hidrotermala, Ozeano Atlantikoan. Halakoak izan zituen LUCAk balizko bizitoki. (Argazkia: P. Rona- NOAA Photo Library)

“LUCAren fisiologia da. LUCA nola bizi zen ez ezik, non bizi zen ere esaten ari zaizkigu gene horiek”, dio William Martin ikerketaren arduradunak. Hala, gene horiek diotenez, LUCA anaerobioa zen (oxigeno askerik gabe bizi zen), karbono dioxidoa eta nitrogenoa ingurunetik hartu eta baliatu egiten zituen zuzenean, hidrogenoaren menpekoa zen, eta sufrea erabiltzeko ahalmena ere bazuen. Gainera, termofiloa zen, berrogei gradutik gorako tenperatura zuten inguruneetan bizi zen. Hori horrela, gaur egun gurean dauden izakien artean, badirudi Clostridium taldeko bakterioek eta arkeo metanogenoek dutela LUCArekin antz handiena.

Horiek guztiak kontuan hartuta, ikerketa honetan ondorioztatzen dutenez, badirudi LUCA ingurune hidrotermalen batean bizi izan zela, itsas hondoan; hidrogenoz, karbono dioxidoz eta burdinaz inguratuta. Hori dela eta, itsaspeko sumendien bueltan izaten diren tximinia hidrotermaletan kokatu dute bere balizko bizitokia, eta gaur egungo bizidun guztien abiapuntua.

Erreferentzia bibliografikoa:

Madeline C. Weiss et al. The physiology and habitat of the last universal common ancestor. Nature Microbiology 1. Article number: 16116 (2016). DOI:10.1038/nmicrobiol.2016.116

Informazio gehiago:

———————————————————————————-

Egileaz: Amaia Portugal (@amaiaportugal) zientzia kazetaria da.

———————————————————————————-

The post Denon arbasoaren arrastoen atzetik appeared first on Zientzia Kaiera.

Categorías: Zientzia

#Naukas15 Vacunaos, por Jenner

Cuaderno de Cultura Científica - Mar, 2016/10/18 - 17:00

ciencia-bulebar-36-638

Clara Grima no habla de vacunas, pero sí de algo muy relacionado: este mundo es muy pequeño, está muy conectado y eso lleva a paradojas.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 Vacunaos, por Jenner se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas15 Endosimbiontes
  2. #Naukas15 Mosquito tigre
  3. #Naukas15 Luis Quevedo entrevista a Eudald Carbonell y Goyo Jiménez
Categorías: Zientzia

El nylon lo creó un contable

Cuaderno de Cultura Científica - Mar, 2016/10/18 - 11:59

A finales de los años veinte del siglo pasado la compañía estadounidense DuPont contrataba a un químico llamado Wallace Hume Carothers para dirigir la investigación fundamental en polímeros. El objetivo último de DuPont era intentar conseguir una forma barata y eficiente de sustituir la seda proveniente de Asia, donde el militarismo rampante de Japón estaba limitando cada vez más el suministro a Occidente.

sia2008-0359-600x484Carothers contabilizando una reacción

Si bien el primer título de Carothers fue en contabilidad y administración, y a pesar de que se matriculase en Inglés (lo que llamaríamos lengua y literatura inglesas) en el Tarkio College, terminó doctorándose en química por la Universidad de Illinois. Su primer objetivo en DuPont era comprender la naturaleza de polímeros naturales como el caucho, la celulosa y la seda y, a partir de ahí, intentar imitarlos. El objetivo no declarado era conseguir el polímero sintético más grande conocido.

Carothers empleó reacciones orgánicas bien establecidas pero las aplicó al estudio de moléculas con dos centros reactivos, uno a cada extremo, que formasen los eslabones de una cadena, porque eso son los polímeros, cadenas de moléculas. Carothers y su grupo aprendieron muchas cosas interesantes acerca de los polímeros pero no consiguieron producir nada parecido a la seda. Bueno, no lo consiguieron hasta que alguien se puso a hacer el tonto en el laboratorio.

Julian Hill en 1930 no era un niño, precisamente.Julian Hill en 1930 externamente no parecía un niño precisamente.

Un día uno de los ayudantes de Carothers, Julian Hill, estaba jugando con una masa pastosa de poliéster que había en el fondo de un vaso de precipitados cuando se dio cuenta de que si cogía una porción de la masa con una varilla de vidrio y se dedicaba a estirarla todo lo posible (recordemos que estaba, literalmente, jugando) conseguía unos hilos que recordaban a la seda. Ahí quedó la cosa.

Días más tarde, aprovechando que el jefe había tenido que ir a una gestión a la ciudad, los ayudantes de Carothers decidieron averiguar cuánto podía estirarse aquello (la versión oficiosa dice que fue una competición a ver quien conseguía el hilo más largo): y para ello no tuvieron mejor ocurrencia que correr escaleras abajo portando varitas de vidrio con un pegote de poliéster en la punta (las caras de los que se cruzasen por el camino tuvieron que ser dignas de ver). La cuestión es que terminaron con hilos “muy sedosos”, que hoy sabemos se deben a la orientación (el ordenamiento en una dirección) de las moléculas de polímero.

Eran juguetones, pero eran químicos. Pensaron que si esos hilos sedosos tuviesen que emplearse para confeccionar un tejido no sería muy útil, ya que el poliéster tiene un punto de fusión demasiado bajo (nada de tenerlo mucho rato al sol, ni cerca de un fuego) y una solubilidad en agua demasiado alta (nada de usarlo un día de lluvia). Aunque estos dos problemas del poliéster se solucionarían más tarde, los ayudantes de Carothers subieron de nuevo las escaleras y decidieron volver a bajarlas corriendo, esta vez llevando una poliamida que tenían en la estantería en la punta de sus varitas, a ver si conseguía el mismo efecto. Funcionó.

Nylon 6-6, en lila los enlaces de hidrógeno que unen las distintas moléculas de polímero orientadas en una direcciónNylon 6-6, en lila resaltados los enlaces de hidrógeno que unen las distintas moléculas de polímero orientadas en una dirección

Cuando el jefe volvió se encontró a la gente de su departamento sorprendentemente sudorosa y muy excitada. El grupo de Carothers necesitaría 10 años para transformar la idea tras aquellos hilos sedosos de poliamida en un producto comercializable parecido a la seda: había nacido el nylon. Su fecha de nacimiento oficial como polímero fue el 28 de febrero de 1935 cuando Gerard Berchet, bajo la dirección de Carothers, consiguió obtener poliamida 6-6 a partir de hexametilendiamina y ácido adípico.

nylon-toothbrush

El nuevo material, presentado en la Feria Mundial de Nueva York de 1939, fue un éxito inmediato. Aunque se comercializó por primera vez en cepillos de dientes, su gran éxito vino cuando se vendieron más de cuatro millones de pares de medias en unas pocas horas en la primera gran venta masiva que se hizo en la ciudad de Nueva York en 1940. Sin embargo, todo este éxito comercial de cara al público se vería eclipsado cuando casi inmediatamente el acceso al material tuvo que ser restringido por las demandas del mismo en la fabricación de paracaídas.

Ríete tú de las colas para comprar los libros de Harry Potter o la nueva iCosa. Ríete tú de las colas para comprar la nueva iCosa.

Carothers, que ya había advertido a los representantes de DuPont cuando fueron a contratarle a Harvard en 1928 que tenía momentos depresivos, no vivió para ver su éxito. Se había suicidado (como químico orgánico que era, usando cianuro de potasio disuelto en zumo de limón) en 1937.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El nylon lo creó un contable se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas13 Lo siento Planck, pero no me lo creo
  2. Gilbert, el campo y lo eléctrico
  3. Gráficos
Categorías: Zientzia

Behobia-Donostia lasterketako matematikak

Zientzia Kaiera - Mar, 2016/10/18 - 10:00
Josu Doncel Behobia-Donostia lasterketaren antolatzaileek Urtzi Ayestaren matematikari taldearen laguntza dute lasterketaren inguruan, ageri diren optimizazio-problemak ebazteko. Aurtengo edizioan gauzatuko dira elkarkidetza honetako ikerketa-egitasmoak.  Oarsoaldeko Hitza)
Irudia: 2015eko Behobia-Donostia lasterketaren irudia. (Argazkia: Oarsoaldeko Hitza)

Behobia-Donostia lasterketa oso ezaguna da. Azaroko bigarren igandearen goizean korrikalariak Behobiatik irteten dira eta 20km egin ondoren Donostiara heltzen dira. Lehen edizioa 1919. urtean egin zen eta aurtengoa 52. edizioa izango da. Fortuna Kirol Elkarteak antolatzen du lasterketa hau duela hainbat urte. Joan den urtean lasterketa honek 30.000 parte-hartzaile baino gehiago izan zituen eta aurten korrikalari kopurua handitzea espero dute. Horrela, partaideen kopurua handitzeak arazo asko sortzen ditu bai kirolariei baita antolatzaileei ere. Hori dela kausa, antolakuntza UPV/EHUko ikertzailea eta Ikerbasque Research Professor den Urtzi Ayestaren ikerketa-taldearekin lan egiten ari da.

Ayestaren ikerketa-taldeak estatistikan oinarritutako eredu matematiko berriztatzaileak proposatu dituzte lasterketa honetan gertatzen diren problemak murrizteko. Izan ere, korrikalarien errendimendua Fortuna Kirol Elkartearentzat (probaren antolatzailea) kontrolaezinak diren hainbat faktoreren araberakoa da, lasterketa egunaren eguraldia esate baterako. Beraz, korrikalari baten errendimendua zorizko aldagaia da eta horregatik, estatistikako tresna matematikoak ezinbestekoak dira Behobia-Donostia lasterketan azaltzen diren optimizazio problemak aztertzeko.

Elkarkidetza honetan zenbait optimizazio problema ikertu dira eta garatutako ereduak aurtengo edizioan jarriko dira praktikan. Adibide bezala, problema batzuk azaltzen dira hurrengo lerroetan:

Helmugako korrikalari-pilaketak saihestu

Behobia-Donostia lasterketaren irteera taldeka egiten da korrikalarien abiaduraren arabera. Izan ere, korrikalaririk bizkorrenak 9:30etan irteten dira eta geldoenak minutu batzuk beranduago: zenbat eta geldoago korrika egin, orduan eta beranduago irten Behobiatik. Irteera mota honi esker, korrikalarien iritsiera-tasa konstante mantentzea espero dute Fortunakoek, pilaketarik gerta ez daitezen. Urtzi Ayestaren taldekoek datu estatistikoetan oinarritutako simulazioak egin dituzte eta, haien emaitzen arabera, ikusi dute korrikalari taldeen arteko irteera-denborak aldatuz, iritsiera-tasa fluxua asko aldatzen dela. Beraz, ikerketa honen helburua Donostiara iristen diren korrikalari tasa ahalik eta konstanteen mantentzea da (150 korrikalari minutuero, esate baterako) eta, horretarako, Behobiatik irteten diren korrikalari taldeen arteko denbora tarte optimoak lortu behar dira.

Bizkar-zorro banaketa optimizatu

Behobian bizkar-zorroa utzi eta Donostiako Gipuzkoa Enparantzan jasotzeko aukera ematen diete Fortunakoek korrikalariei. Korrikalariak lasterketa bukatu ondoren ez hozteko, komenigarria da ahalik eta lasterren haien bizkar-zorroa hartzea. Hori lortzeko, ilara-teorian oinarritutako bizkar-zorro banaketa-sistema bat garatu dute, ilaretan itxaron behar izaten den denbora murrizteko.

Korrikalarien estrategia optimizatu

Behobia-Donostia lasterketan parte hartzen duten korrikalariek badakite ahalegin handia egin behar dela lasterketa bukatzeko. Gainera, korrikalari askok ahalik eta bizkorren bukatu nahi dute eta horretarako, ezinbestekoa da haien energia nola banandu behar duten jakitea. Lasterketa laua denean, problema honen soluzioa orain dela 40 urte baino lehenago argitaratu zen (A theory of competitive running izeneko artikuluan alegia). Aldapak dituen lasterketen kasuan, berriz, ez dago argi korrikalariek jarraitu beharreko estrategia optimoa zein den. Elkarkidetza honen helburua Behobia-Donostia lasterketaren kasua ikertzea da.

Ikerketa-problema hauek erakusten dute matematikak Behobia-Donostia lasterketan agertzen diren optimizazio-problemetan aplikatzen direla. Lasterketa honetan ez ezik, beste kirol txapelketetan ere matematiken erabilgarritasuna aurkitu dezakegu. Baina hori hurrengo batean kontatuko dizuet.

———————————————————————————-

Egileaz: Josu Doncel Matematikan doktorea da eta egun, INRIA Institutuan dihardu ikertzen.

———————————————————————————-

The post Behobia-Donostia lasterketako matematikak appeared first on Zientzia Kaiera.

Categorías: Zientzia

Auzitegiko zientzia, tiro-aztarnen identifikazioa

Zientzia Kaiera - Lun, 2016/10/17 - 15:00
Nora Unceta, Nagore Grijalba, Sandra Benito, Zuriñe Abrego, Alicia Sánchez, M Aranzazu Goicolea, Alberto Gomez, Asier Vallejo eta Ramón J. Barrio Azken urteotan, su-armen erabilera nabarmen handitu da gure gizartean eta horrek tiro egin ondoren sortutako partikulen analisirako metodologia berriak garatzea ekarri du. Krimenaren gertalekuan tiro-aztarnak (gunshot residue, GSR) osatzen dituzten konposatuen detekzioak eta identifikazioak su-armen erabileraren ebidentzia fidagarria eskaintzen dute.

Tiro-aztarnak erretako eta erre gabeko partikulen multzoa dira, munizioa erretzen denean sortutakoak eta su-armak berak, jaurtigaiak eta kartutxoak askatutako konposatuez osatuak. Tiro egin ostean, partikulak tiroa gertatu den tokiaren inguruan jalkitzen dira, baina, batez ere, tiratzailearen gorputzean (eskuak, sudurra eta ilea) eta arropetan.

gun-1678989_1280
Irudia: Filmetan edo CSI telesailean eta antzekoetan ikusten ditugun auzitegi ikertzaileen lanak ez du zerikusirik alor horretako profesionalen egunerokoarekin. Hainbat gauza ikertzen badituzte ere: eraikinen egituretako kalteak, aizuntzeak, segurtasun-arazoak; lana pantaila aurrean ikusten duguna baino askoz normalagoa edo hurbilagoa da, eta badu zerikusirik zientziarekin.

Tiro-aztarnek konposizio organiko nahiz ez-organikoa izan dezakete. Konposizio ez-organikoan oinarrituz, 2008. urtean European Network of Forensic Science Institute (ENFSI) delakoak tiro-aztarnen analisirako gida plazaratu zuen[1]. Haren esanetan, tiro-aztarnak 0.5 eta 5.0 µm tarteko diametroa eta beruna (Pb), antimonioa (Sb) eta barioa (Ba) daukaten partikula esferikoak dira. Hala ere, azken urteotan, partikula horien esferikotasuna eta beraien konposizio elementalaren esklusibotasuna zalantzan jartzen duten zenbait ikerketa plazaratu dira[[2], [3].

Partikula ez-organikoen analisirako erreferentziazko teknika eta baliagarritasun judiziala duen bakarra X izpien energia-dispertsiboaren espektroskopiari akoplatutako ekorketa bidezko mikroskopia elektronikoa (SEM-EDX) da. SEM-EDX teknikak baditu zenbait desabantaila, esate baterako, beharrezkoa du partikula bakoitzaren banakako identifikazioa, eta horrek denbora luzea behar duenez, garestitu egiten da analisiaren kostua[1]. Desabantaila horiek gainditzeko asmoz, tiro-aztarnen dudarik gabeko identifikazioa egiteko, berriki, metodo analitiko bat garatu da, laser bidezko ablazioa eta akoplamendu induktibozko plasma-masa espektrometria (LA-ICPMS) konbinatzen dituen teknikan oinarritzen dena. Metodo horrek ez du behar laginaren aurretratamendurik eta nabarmen murrizten du analisi-denbora[4].

Orain dela urte batzuk, tiro-eremuetan sortzen diren metal astunen maila altuen eraginpean sor daitezkeen osasun eta ingurumen arazoak saihesteko, “berunik gabeko” (“lead-free”) eta “metal astunik gabeko” (“heavy metal free”) munizioak merkaturatu ziren. Munizio berdeak deritzen horiek, alabaina, ENFSIren irizpideetan oinarritutako zalantzarik gabeko tiro-aztarnen identifikazioa egitea galarazten dute. Konposatu organikoen analisiak informazio gehigarri baliotsua ematen dio partikula ez-organikoen ebidentziari eta lagin baten froga-balioa indartu dezake. Hori dela eta, arazo honen irtenbide bideragarriago bat munizio berdeak erabiltzen direnean tiro-aztarnen konposatu ez-organiko zein organikoen (organic gunshot residues, OGSR) identifikazioa egitea da.

Hala ere, gutxi dira OGSRen dudarik gabeko identifikaziorako guztiz sentikorrak diren metodoak. Horien artean aipagarrienak Raman espektroskopia eta masa-espektrometrian oinarritzen diren teknika kromatografikoak dira[5], [6]. Azkeneko urteotan, teknika hauek tiro-aztarnen ezaugarri diren konposatu organikoen identifikazioa ahalbidetu dute: zentralitak eta difenilaminen deribatu nitratuak, besteak beste. Jakina, teknika hauek SEM-EDX eta laser bidezko ablazioarekin batera erabili daitezke munizioek oro har eta, batez ere, munizio berdeek igortzen dituzten tiro-aztarnen identifikazioa posible egiteko[7], [8].

Ondorio gisa, esan daiteke azkenaldian elkarren osagarriak diren metodo analitiko ugari garatu direla delituzko ekintzak eta suizidioak argitzeko. Halako metodoen helburutzat eman daiteke, era berean, munizioetan agertzen diren konposatu ez-organikoak eta organikoak identifikatzea, izan ere, informazio hau oso baliotsua da batez ere geroz eta erabilera zabalagoa duten munizio berdeen kasuan.

Oharrak:

[1] NIEWOEHNER L. 2008. ENFSI-Guide for gunshot residue analysis by scanning electron microscopy/energy-dispersive X-ray spectrometry. ENFSI, Prague.

[2] MARTINY A., CAMPOS ANDREA P.C., SADER MARCIA S. eta PINTO ANDRE L. 2008. “SEM/EDS analysis and characterization of gunshot residues from Brazilian lead-free ammunition”. Forensic Science International, 177, e9-17.

[3] MOSHER P.V., MCVICAR M.J., RANDALL E.D. eta SILD E.H. 1998. “Gunshot residue-similar particles produced by fireworks”. Canadian Society of Forensic Science Journal, 31, 157-168.

[4] ABREGO Z., UGARTE A., UNCETA N., FERNANDEZ-ISLA A., GOICOLEA M.A. eta BARRIO R.J. 2012. “Unambiguous Characterization of Gunshot Residue Particles Using Scanning Laser Ablation and Inductively Coupled Plasma-Mass Spectrometry”. Analytical Chemistry, 84, 2402-2409.

[5] BUENO J., SIKIRZHYTSKI V. eta LEDNEV I.K. 2012. “Raman Spectroscopic Analysis of Gunshot Residue Offering Great Potential for Caliber Differentiation”. Analytical Chemistry, 84, 4334-4339.

[6] DALBY O., BUTLER D. eta BIRKETT JASON W. 2010. “Analysis of gunshot residue and associated materials. A review”. Journal of Forensic Sciences, 55, 924-943.

[7] ABREGO Z., GRIJALBA N., UNCETA N., MAGUREGUI M., SANCHEZ A., FERNANDEZ-ISLA A., GOICOLEA M.A. eta BARRIO R.J. 2014. “A novel method for the identification of inorganic and organic gunshot residue particles of lead-free ammunitions from the hands of shooters using scanning laser ablation-ICPMS and Raman micro-spectroscopy”. Analyst, 139, 6232-6241.

[8] BENITO S., ABREGO Z., SANCHEZ A., UNCETA N., GOICOLEA M.A. eta BARRIO R.J. 2015. “Characterization of organic gunshot residues in lead-free ammunition using a new sample collection device for liquid chromatography-quadrupole time-of-flight mass spectrometry”. Forensic Science International, 246, 79-85.

Artikuluaren fitxa:
  • Aldizkaria: Ekaia
  • Zenbakia: 28
  • Artikuluaren izena: Tiro-aztarnen identifikazioa, auzitegi-laborategien erronka.
  • Laburpena: Azken urteotan, su-armen erabilera nabarmen handitu da gure gizartean eta horrek tiro egin ondoren sortutako partikulen analisirako metodologia berriak garatzea ekarri du. Krimen agertokian tiro-aztarnak (gunshot residue, GSR) osatzen dituzten konposatuen detekzio eta identifikazioak su-armen erabileraren ebidentzia fidagarria eskaintzen du. Tiro-aztarnak erretako eta erre gabeko partikulen multzoa da, munizioa erretzen denean sortutakoak eta su-armak berak, jaurtigaiak eta kartutxoak askatutako konposatuez osatuak. Tiro egin ostean, partikulak tiroa gertatu den tokiaren inguruan jalkitzen dira baina, batez ere, tiratzailearen gorputzean (eskuak, sudurra eta ilea) eta arropetan. Gaur egun,  GSR partikulen ohiko analisia konposatu ez-organikoen identifikazioan oinarritzen da. Konposatu organikoen azterketak (organic gunshot residues, OGSR) lagin baten froga-balioa indartu dezake. Hala ere, gutxi dira OGSR-en dudarik gabeko identifikaziorako guztiz sentikorrak diren metodoak. Lan honetan beraz,  tiro-aztarnen laginketa eta analisirako teknika aipagarrienak laburbildu eta berrikusten dira.
  • Egileak: Nora Unceta, Nagore Grijalba, Sandra Benito, Zuriñe Abrego, Alicia Sánchez, M Aranzazu Goicolea, Alberto Gomez, Asier Vallejo eta Ramón J. Barrio
  • Argitaletxea: UPV/EHUko argitalpen zerbitzua
  • ISSN: 0214-9001
  • Orrialdeak: 105-123
  • DOI: 10.1387/ekaia.13556

—————————————————–
Egileez: Nora Unceta, Nagore Grijalba, Sandra Benito, Zuriñe Abrego, Alicia Sánchez, M Aranzazu Goicolea, Alberto Gomez, Asier Vallejo eta Ramón J. Barrio UPV/EHUko Farmazia Fakultateko Kimika Analitikoa Saileko ikertzaileak dira.
—————————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.

ekaia 28 

The post Auzitegiko zientzia, tiro-aztarnen identifikazioa appeared first on Zientzia Kaiera.

Categorías: Zientzia

Depuración conjunta de dioxinas y NOx en incineradoras de basura

Cuaderno de Cultura Científica - Lun, 2016/10/17 - 11:59

La alta generación de residuos y las limitaciones legislativas medioambientales obligan a diseñar programas de prevención, reutilización y reciclado para gestionar la basura. Sin embargo, los residuos sólidos urbanos (RSU) que no entran en estos programas son incinerados, y así pueden generar compuestos perjudiciales —óxidos de nitrógeno y dioxinas, entre otros— que se deben tratar antes de ser liberados a la atmósfera.

La doctora de la UPV/EHU Miren Gallastegi ha investigado las posibilidades de la tecnología catalítica en las plantas incineradoras de residuos sólidos urbanos, para reducir las emisiones de estos contaminantes de manera más eficiente, realizando su depuración a temperatura más reducida y, en consecuencia, de forma más amigable.

El grupo de investigación Tecnologías Químicas para la Sostenibilidad Medioambiental (TQSA) del Departamento de Ingeniería Química de la UPV/EHU investiga las tecnologías catalíticas con el fin de ofrecer alternativas más sostenibles frente a los modelos tradicionales. Hasta ahora se había observado, pero no estudiado científicamente, que es posible eliminar los óxidos de nitrógeno y destruir las dioxinas de forma independiente en dispositivos diferentes y bajo diferentes condiciones. Sin embargo, no se había constatado mediante una investigación científica en qué condiciones y cómo se pueden producir los dos procesos simultáneamente, lo que se denomina “intensificación de procesos”, con el consiguiente ahorro energético.

Miren Gallastegi ha analizado el proceso conjunto, es decir, la manera de depurar de forma simultánea los óxidos de nitrógeno (NOx) y las dioxinas. Estas últimas partículas son especialmente tóxicas a bajos niveles y se generan en la combustión de residuos que llevan cloro en su composición como, por ejemplo, algunos plásticos (polímeros) que quedan fuera de la cadena de reciclaje y reutilización. En su investigación, ha sintetizado y utilizado catalizadores, tanto convencionales (basados en óxidos de vanadio, wolframio y titanio) como nuevas formulaciones alternativas (basadas en óxido de manganeso). Ha conseguido acelerar las reacciones químicas deseadas de eliminación de óxidos de nitrógeno y destrucción de dioxinas a menor temperatura y de forma más eficiente.

Tras analizar los diferentes procesos químicos que ocurren sobre el catalizador, Gallastegi ha constatado es posible por un lado reducir los óxidos de nitrógeno a nitrógeno y, por otro, destruir las dioxinas, transformándolas en compuestos gaseosos inertes. Es decir, a pesar de la distinta naturaleza química y reactividad de ambas moléculas, un mismo catalizador del tipo de los desarrollados, puede realizar al mismo tiempo los dos procesos tan distintos. Es un sistema combinado bautizado con el nombre dDiNOx (depuración conjunta de dioxinas y NOx).

En estos momentos, diez incineradoras del estado están utilizando tecnología catalítica para la transformación de los óxidos de nitrógeno en nitrógeno. Sin embargo, atrapan las dioxinas sobre filtros de carbón activo que, con posterioridad requieren gestión, tratamiento y control adicional. “La introducción de los nuevos catalizadores que hemos desarrollado y la optimización de las variables de proceso, permitiría la utilización de la infraestructura de las actuales plantas de incineración (con escasas modificaciones) para la eliminación simultánea de los contaminantes. Esta nueva disposición presenta la gran ventaja de destruir las dioxinas en lugar de su absorción y posterior gestión de los actuales filtros, que podrían eliminarse. Es una opción muy beneficiosa para el medio ambiente, que requiere escasa inversión en instalación y conlleva un importante ahorro energético”, explica Miren Gallastegi.

Referencia:

M. Gallastegi-Villa, A. Aranzabal, Z. Boukha, J.A. González-Marcos, J.R. González-Velasco, M.V. Martínez-Huerta, M.A. Bañares (2015) Role of surface vanadium oxide coverage support on titania for the simultaneous removal of o-dichlorobenzene and NOx from waste incinerator flue gas Catalysis Today doi: 10.1016/j.cattod.2015.02.029

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Depuración conjunta de dioxinas y NOx en incineradoras de basura se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El origen de la superconductividad récord
  2. Océanos nucleares. Cuando la basura llega antes que el ser humano
  3. Descubierto el proceso por el que las bacterias fabrican nanoimanes
Categorías: Zientzia

Itsasorratzak ez du iparra galtzen

Zientzia Kaiera - Lun, 2016/10/17 - 09:00
Historikoki, itsasorratzak izan dira itsasontzien gidari, nabigazio-norabidea finkatzeko. Itsasorratz horiek, baina, inguruan dituzten metalezko piezen eraginpean egoten dira, eta ez dute zehazki ipar magnetikoa markatzen; beraz, nahitaezkoa da aldian behin itsasorratz horiek konpentsatzea.

Itsasorratzaren desbideratzeak modu autonomoago batean zuzendu ahal izateko sistema berri bat diseinatu du Josu Arribalzaga Bilboko Ingeniaritza Eskolako ikertzaileak, iman mugigarriak dituen plater batean oinarrituta, bere burua konpentsatuko duen eta itsasorratza une oro konpentsatuta edukiko duen sistema bat lortzeko helburuarekin. Hala, itsasontziko energia-iturriek huts egin arren, itsasorratza zuzenduta eta erabilgarri eduki ahal izango da, iparra galdu gabe.

compass-1639829_1280
Irudia: Itsasorratzak iparra markatzen jarraitzen du, GPSak huts egiten duenean.

Itsasorratzen konpentsazioa era berean eta kalkulu berberen bidez egin izan da, XIX. mendeaz geroztik. Eragiketa horretan, hainbat kalkulu egiten dira zehazteko zer gelaxkatan jarri behar diren iman zuzentzaileak, itsasorratzak ipar magnetikoa zein den adieraz dezan beti. Ipar magnetikoa jakinez gero, eta deklinazio magnetikoa (benetako iparraren eta ipar magnetikoaren arteko diferentzia, National Oceanic and Atmospheric Administrationek kalkulu moderno batzuen bidez kalkulatzen duena) zuzenduta, benetako iparra zein den jakiten da beti, eta, haren bidez, itsasontzia zer norabide zehatzetan mugitzen ari den.

Gaur egun, itsasorratza alboratuta badago ere, nabigatzaileek erabiltzen ditugun nabigazio-sistemek korronte elektrikoa behar izaten dute, eta korronterik gabe sistema horiek ematen dituzten posizionamendu guztiak alferrikakoak gertatzen dira —azaldu du Josu Arribalzaga ikertzaileak—. Gainera, GPS sistemak seinalearen okerreko irakurketa bat ematera irits daitezke, bai kanpotiko distortsioek bai manipulazioek eragindakoak (nahita eragindakoak edo ez)”. Nazioarteko Itsas Erakundeak (IMO) agindutakoaren arabera itsasontzi guztietan konpas-kutxarekin batera itsasorratz bat eraman behar da, bai eta ordezko beste itsasorratz bat ere, gainerako nabigazio-sistemak huts egiten badute erabiltzeko. Hala, Arribalzagak konpentsazio-sistema berri bat proposatu du iman higigarriak dituen plater batean oinarrituta, zeinaren bidez era autonomoago batean zuzendu baitaitezke itsasorratzaren desbideratzeak.

Orain arte bezala iman zuzentzaileen potentzia erlatiboa erabili beharrean, ikertzaileak iman horien momentu magnetikoa erabili du haien zuzentze-gaitasuna kalkulatzeko, eta momentu magnetiko horren arabera zehazteko itsasorratzetik zer distantzia errealetara zuzentzen den desbideratze jakin bat. Halaber, ikertzaileak ustekabean konturatu dira orain arte erabili izan den konpentsazio-sistema ez dela zuzena, hainbat zuzenketa egin beharko balirateke konpentsazio zuzen bat lortzeko.

Konpas magnetiko baten osagarria den sistema

Desbideratzeak denbora errealean lortzeko konpas magnetiko integralak —UPV/EHUren patentea du— automatikoki kalkulatzen ditu itsasorratzaren desbideratze guztiak, norabide guztietan eta denbora errealean; baina desbideratze hori kalkulatu ondoren, doikuntzak egin beharko lirateke itsasorratza ipar magnetikoa markatzera irits dadin. Horrenbestez, UPV/EHUko Bilboko Ingeniaritza Eskolako ikertzaileak, Arribalzagak, itsasorratza konpentsatzeko sistema modernizatu du, eta elektrizitatearekiko mendekotasunik ez duen sistema erabat autonomo bat lortu du. “Etorkizunera begira proposatu dut modelo hori, etorkizunean, nolabait, sistema automatizatzera iristeko asmoarekin”. Itsasorratza zuzentzeko imanak kutxatilategi jakinetan sartu beharrean, orain arte bezala, plater batean ezarri ditu, halako eran non platera gorantz edo beherantz mugi baitaiteke (itsasorratzera hurbilduz edo harengandik urrunduz) eta iman zuzentzaileak biratu egin baitaitezke (efektu handiagoa lortuz, zenbat eta itsasorratzetik hurbilago egon imana).

“Nik diseinatutako eta probatutako platera zehaztasun handiz doi daiteke, edozein posizio bertikaletan eta une oro —adierazi du Arribalzaga—. Berez, nik sortutako prototipoa eskuz manipula daiteke; izan ere, motorizatzeak kostu gehigarri garrantzitsua eragingo luke, eta, gainera, motorra eta platera akoplatzeko sistema mekaniko bat beharko litzateke, imanei eta platerari egokitu beharko litzaiekeena”. Ikerketa hau, beraz, lehen urratsa izan da UPV/EHUk patentatutako konpas magnetiko integrala eta diseinatutako platera —autodoikuntza-sistema espezifiko batzuetara egokitu beharko litzatekeena— akoplatzera iristeko. “Baina hori beste fase batean sartuko litzateke”, adierazi du.

Iturria:
UPV/EHUko komunikazio bulegoa: Itsasorratzak iparra markatzen jarraitzen du, GPSak huts egiten duenean.

The post Itsasorratzak ez du iparra galtzen appeared first on Zientzia Kaiera.

Categorías: Zientzia

Superbacterias

Cuaderno de Cultura Científica - Dom, 2016/10/16 - 11:59

superbacterias

El mes de noviembre del pasado año se descubrió en China que un gen bacteriano denominado mcr-1 confiere resistencia a la colistina. Dicho así puede parecer banal. Pero es todo lo contrario: fue un descubrimiento preocupante. La colistina es un antibiótico de último recurso que sólo se administra cuando todos los demás antibióticos no consiguen acabar con una infección. Es, por lo tanto, una de las últimas líneas de defensa frente a las bacterias denominadas multirresistentes, esto es, bacterias que han desarrollado resistencia a muchos antibióticos.

El gen mcr-1 no forma parte del cromosoma bacteriano, sino que se encuentra en un plásmido. Los plásmidos son pequeños fragmentos de ADN independientes del cromosoma, y son capaces de moverse de una bacteria a otra con facilidad -lo que se denomina transferencia horizontal-, expandiendo la resistencia a los antibióticos entre diferentes cepas y especies bacterianas. A partir de su descubrimiento en China, otros países se pusieron manos a la obra en busca de bacterias que contuviesen el mcr-1, y ya ha sido hallado en África, Europa, Norteamérica y Sudamérica.

La resistencia a los antibióticos es un fenómeno lógico a la luz de la selección natural. Cuando se utiliza uno de ellos para combatir una infección bacteriana se está ejerciendo sobre las bacterias una “presión selectiva”. Bajo esas circunstancias, si alguna de las bacterias tiene un gen que confiere resistencia a ese antibiótico, esa bacteria sobrevivirá, se multiplicará, y legará esa resistencia a las bacterias de las siguientes generaciones. La probabilidad de que ocurra tal cosa es muy baja, pero por baja que sea, si un antibiótico es utilizado en un número suficientemente alto de ocasiones, antes o después alguna de las bacterias atacadas resultará ser resistente al mismo. Y entonces esa bacteria se multiplicará, hasta ser combatida mediante otro antibiótico. El problema es que el uso masivo de antibióticos de amplio espectro –que atacan a bacterias de muy diferentes variedades- ha hecho que cada vez sea menor el tiempo que transcurre desde que se empiezan a utilizar hasta que surge alguna cepa resistente. Y así van apareciendo cepas resistentes a más y más antibióticos: son las llamadas bacterias multirresistentes o superbacterias.

Antes se descubrían nuevos antibióticos a un ritmo suficientemente alto como para ir compensando la aparición progresiva de nuevas resistencias. Pero eso ha cambiado. Cada vez aparecen más rápidamente porque cada vez se utilizan los antibióticos de forma más masiva, no solamente para combatir infecciones bacterianas en seres humanos, sino –erróneamente- también para atacar infecciones víricas y, de modo preventivo, en algunos países para tratar al ganado, porque de esa forma engorda más rápidamente.

Hay quien opina que nos dirigimos a un mundo en el que los antibióticos dejarán de ser eficaces. Nos hemos acostumbrado a vivir con ellos. Descartamos casi completamente que las infecciones bacterianas puedan llegar a ser una amenaza real en nuestras sociedades. Y sin embargo, hay motivos para la alarma. Se desarrollarán nuevos antibióticos, por supuesto. Y quizás también se desarrollen nuevas terapias o se recuperen terapias antiguas que han demostrado ser eficaces, como el tratamiento con bacteriófagos –virus que atacan bacterias- como se llegó a hacer en el pasado con éxito en la antigua URSS. Pero la perspectiva de un mundo sin antibióticos eficaces es una perspectiva aterradora en la que la enfermedad, el sufrimiento y la desdicha estarán mucho más presentes entre nosotros que en la actualidad. Para evitar que esos malos augurios lleguen a cumplirse sólo hay dos caminos: hacer un uso más moderado y racional de los antibióticos, e investigar más para desarrollar terapias eficaces, sea con antibióticos o de cualquier otro modo.

—————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————————

Este artículo fue publicado en la sección #con_ciencia del diario Deia el 5 de junio de 2016.

El artículo Superbacterias se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una nueva vía para la lucha contra la resistencia a los antibióticos
  2. Pezqueñiñes no, gracias… ¿o sí?
  3. El camino hacia los antibióticos inservibles
Categorías: Zientzia

Asteon zientzia begi-bistan #124

Zientzia Kaiera - Dom, 2016/10/16 - 10:00
Uxue Razkin

acorns-1710577_1280

Paleontologia

Paleolitoko animalia grabatuak aurkitu dituzte Lekeitioko Armintxe kobazuloan, tartean bi lehoi. Grabatuen multzoa oso berezia da kalitate tekniko handia duelako eta oso argi ikusten delako. Aurkikuntzak hainbat animaliaren dozenaka grabatu inguru jasotzen ditu, eta tartean Kantauri Itsasoaren inguruan oso berriak diren figura batzuk ageri dira, esaterako felinoak. Madeleine garaiko Goi Paleolitoko grabatuak hauek tamaina handikoak dira. Guztira, berrogeita hamar animaliaren figurek osatutako multzoa da, eta duela 14.000 urte inguru erabilitako teknika oso deigarria da; izan ere, irudiak arraste teknika baten bitartez eginda daude, eta horrek altxadura txikiak eragiten ditu; hala, lerro argi bat sortzen da, eta horri esker figurak argi ikusten dira. Irudikatutako figurek bi dimentsiodun bolumena daukate.

Geologia

Eurasia eta Indiako plakek talka egin zuten duela hirurogei milioi urte inguru eta bion gainean zegoen lurrazalaren masaren erdia galdu egin zela kalkulatu dute Chicagoko Unibertsitateko ikertzaile batzuek. Azalpen posible bakarra, material hori guztia hondoratu egin zen, eta mantuarekin nahastu. Horrek orain arteko teoriak hankaz gora jartzen ditu. Izan ere, geologian irakasten denez, lurrazal kontinentalak dentsitate txikia du, eta horregatik, ezin du azpian duen mantuarekin nahastu.

Kimika

Euskal Herriko Unibertsitateko Ingeniaritza Kimikoa eta Ingurugiroa Saileko ikertzaileek, karbono zuntzezko materialen hondakinen %100 birziklatzeko metodo bat patentatu dute. Material horiek birziklatzea, dena dela, ez da batere erraza. Hiru arrazoi azaltzen ditu Isabel de Marco ikertzaileak: lehenik, material gehien-gehienak erretxina termoegonkorrez osatuta daude, hau da, ez dira urtzen beroa aplikatuta, eta, beraz, ezin dira berriz moldatu. Bigarrenik, askotariko osagai ugariz osatuta daude eta azkenik, nahasita egon daitezke, edo beste material batzuk eduki. Ikertalde honek argitaratutako patenteak metodo bat zehaztu du lurrunak tratatu eta hidrogeno proportzio handiko gas baliotsu bat lortzeko eta ondoren hori saldu ahal izateko. “Hidrogenoa etorkizuneko erregaia izango da, ez duelako kutsatzen: hidrogenoa erretzean, ura baino ez da sortzen. Gainera, sintesi kimikorako erabil daiteke hainbat eta hainbat aplikaziotan.

Kultura Zientifikoa

Herritarrak zientziari lotutako jardueretan parte hartzea ahalbidetzen duten ekimenak areagotu egin dira azken urteotan. Elhuyar Fundazioko Zientziaren Gizarteratzearen arloko arduradun Garazi Andonegik beste aurrerapauso bat emateko beharra azpimarratu du; datuak edo laginak biltzeaz harago doan ibilbide bat irekitzeaz ari da, hain zuzen. Zientziakide izena jarri diote proiektuari eta Pasaian abiatuko da hurrengo asteburuan. Hogei lagunek, AZTI zentroarekin batera, Pasaiako Badiako uraren kalitatea neurtuko dute eta Andonegik hala azaldu duenez, “prozesu osoan parte hartuko dute”.

Ikerketan parte hartuko dutenak profesionalak ez direnez, une oro AZTIko ikertzaileak izango dituzte alboan, laguntzeko prest. Ekimen honek Europako Batasuneko Horizon 2020 egitasmoan zehaztutako filosofia du oinarri.

Adimen artifiziala

Garuna imitatuz ikasteko gaitasuna duten neurona-sare artifizialei memoria nabarmen hobetu diete Google DeepMindeko ikertzaileek. Neurona-sare artifizialek garunaren antzera ikasteko gaitasuna dute, baina ez dute datu konplexuak prozesatzeko beharrezko den memoria-egiturarik. Bada, Google DeepMindeko ikertzaileek ordenagailuen eta neurona sareen ezaugarri horiek elkartuta “ordenagailu neuronal diferentziagarria” deitu diotena sortu dute. Elhuyarrek azaltzen digun moduan, neurona-sare bat da, adibideetatik abiatuta edo proba eta errorearen bidez ikasteko gai dena, baina, ordenagailuen RAM memoriaren gisako kanpo-egitura bat ere badu.

Medikuntza

Zika birusa gertutik ezagutzeko aukera dugu artikulu honen bitartez. Birusa Rhesus tximinotik isolatu zen 1947an Ugandako Zika basoan. Urte batzuk beranduago, 1952an, gizakietan detektatu ziren lehenengo kasuak, Tanzanian eta Ugandan. Ondoren Afrikatik irten eta Ozeano Bareko Yap estatura eta Mikronesiara iritsi eta hedatu zen; ordutik hona zenbait lurraldetatik hedatzen joan da, batez ere Filipina edo Asiako hego-ekialde inguruan. Azken urte honetan ordea, Brasilera heldu da eta hori izan da Amerikako kontinentean zabaltzeko izan duen atea. Hasieran Brasilen oso arin hedatu zen baina gaur egun Hego Ameriketako lurralde gehienetan detektatzen da Zika. Europara ere iritsi da, batez ere gaixoek transmitituta. Transmisio modu hori berria, birusak eragiten ari da infekzioa.

Osasunari jarraiki, datu-baseak uztartzea, botiken arteko interakzioak detektatzeko tresna eraginkorra dela frogatu dute Columbia Unibertsitateko ikertzaileek. Zehazki, botiken albo-ondorioen, elektrokardiogramen eta laborategiko esperimentuen milioika datu uztartu dituzte, eta ikusi dute bi botika arruntek bihotzaren jarduera asaldatzen dutela, elkarrekin hartzen badira. Bata, zeftriaxona, antibiotikoa bat da, eta bestea, lansoprazola, protoi-punpen inhibitzaile bat, bihotzerrearen kontra erabiltzen dena. Banaka ez dute eraginik bihotzaren jardueran, baina biak elkarrekin hartuz gero arritmia eragiteko arriskua dute, eta, kasu okerrenetan, baita heriotza ere.

Genetika

Julen Díaz bioteknologoa eta EHUko ikertzailea da eta dopin genetikoa detektatzeko metodo bat ikertzen ari da, pasaporte biologikoan oinarrituta eta kirol errendimenduan eragina duten geneak aztertuta. Ikerlariak dio egun ez dela ezagutzen %100 eraginkorra den dopin genetiko detekzio metodorik. Bi arlotan ari da Díaz: alde batetik, genetika lesio arriskua murrizteko nola erabil daitekeen ikertzen dute eta bestetik, dopin genetikoaren detekzioa. Haiek darabilten metodoa azaltzen du elkarrizketa honetan: “Pasaporte biologikoaren eredua erabili nahi dugu, eta kirolarien informazio genetikoa aztertzea bere ibilbideak irauten duen bitartean. Detekzio probekin arlo genetikoa ere aztertzea da asmoa, bereziki kirol errendimenduarekin harremana duten geneak”. Egun, dopin genetikoa detektatzeko erabiltzen dituzten teknikak izan ditu mintzagai ere. Teknika ezberdinak ezagutzen direla azaltzen du, eta zuzenean edo zeharka detekta dezakete dopina: “Batzuk sartu ahal izan den material genetikoa detektatzen zentratzen dira, eta beste batzuk dopin genetikoa txertatzeko metodoen arrastoa jarraitzen dute. Adibidez, dopin genetikoaren teknologiak erantzun immuneak eragin ditzake, eta horien arrastoa azter daiteke ea zerbait arraroa dagoen”.

Emakumeak zientzian

Itziar Garate Lopez Meteorologia Dinamikoaren laborategian lan egiten du, doktoretza-ondoko ikerketa egiten. Orain Parisen dagoen arren, amaitu bezain pronto Euskal Herrira bueltatu nahi du. Orain tesian egindako ikerketaren osagarria egiten ari da. Tesian, Artizarraren poloan dagoen zurrunbilo bat aztertu zuen, Venus Express espazio-ontziaren Virtis espektometroak hartutako datuetan oinarrituta. “Hortik zurrunbiloaren hainbat ezaugarri ezagutu nituen, baina ez zen nahikoa ondo ulertzeko. Orain, zurrunbilo hori bera aztertzeko aukera izango dut, beste modu batera: ordenagailu bidezko simulazioen bitartez, hain justu”.

Biologia

Animalien natura ikasteko beste kapitulu bat dugu hauxe: itsastartzat ditugun hegaztiak. Hauek bizitza gehiena lehorrean edo airean egiten dute eta zentzu horretan, itsasoaren baldintza osmotikoetatik ihes egiteko gaitasuna dute. Bada, badira nagusiki itsastarrak direnak; pinguinoak, esaterako. Hauek ezin dute hegan egin, hortaz uretan edo lehorrean egon behar dute. Hauek bai uretan murgilduta ematen dutela bizitza gehiena, uraren eta gatzen kontzentrazio-gradiente baten aurka borrokatuz. Bestalde, badira itsaso zabalean bizi diren txoriak ere; hauek lehorrean eta airean dihardute gehienbat, baina ez dute ur geza lortzeko modurik. Beraz, itsastarrak diren hegaztiek itsasoko beste ornodun guztien arazo bera dute: gatzik gabeko ura lortzea, gatz-kontzentrazio altua duen uretan bizi direla. Itsas hegaztiek itsasoko ura edaten dute. Baina itsas ugaztunek ez bezala, hegaztiek ezin dute gatz-kontzentrazio altua duen gernurik ekoitzi. Hortaz, nola moldatzen dira itsas txoriak itsasoko ura edanda ur horrek dituen gehiegizko gatzak kanporatzeko? Erantzuna testuan topatuko duzue!

—–—–

Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.

———————————————————————–

Egileaz: Uxue Razkin Deiako kazetaria da.

———————————————————————–

The post Asteon zientzia begi-bistan #124 appeared first on Zientzia Kaiera.

Categorías: Zientzia

#Naukas15 ¿Esto es una bomba? Esto es una bomba

Cuaderno de Cultura Científica - Sáb, 2016/10/15 - 11:59

bomba

En la carrera por construir formas eficientes de destrucción nada gana a la imaginación de un físico teórico. Mario Herrero lo ilustra.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 ¿Esto es una bomba? Esto es una bomba se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas15 Estoy bien, estoy bien
  2. #Naukas15 Músicos, muleros y otros científicos de éxito
  3. #Naukas15 El día que Maxwell no vio al gorila
Categorías: Zientzia

Ezjakintasunaren kartografia #130

Zientzia Kaiera - Sáb, 2016/10/15 - 10:05

figure-4

Zelan jarraituko dugu modu esponentzialean hazten diren datuak biltzen, egun erabiltzen ditugun lehengaiak desagertzen direnean? Tommaso Fracesek iradokizun bat du: The future of information storage devices: molecule-based magnets.

Imajina ezazu saileko kide bati Nobel saria ematen diotela. Zer egingo zenuke? Pablo Ortizek, esaterako, gaiari buruz artikulu bat idatzi du: World’s smallest machines: Nobel Prize in Chemistry 2016.

Etorkizuna energia berriztagarriena da, ez dago zalantzarik. Etorkizun hori aurreratzea material berri eraginkor eta merkeengan datza. Material horiek garatzea da Meilani Wiboworen zeregina:  Organic photovoltaic advantages.. or challenges?

–—–

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #130 appeared first on Zientzia Kaiera.

Categorías: Zientzia

Proyecto Mohole, un fracaso que no hacía falta

Cuaderno de Cultura Científica - Vie, 2016/10/14 - 11:59

El objetivo del proyecto era simplemente hacer un agujero en el fondo del mar. Pero no un agujero cualquiera, sino el más profundo que jamás hubiese hecho la humanidad. Se llamó proyecto Mohole y comenzó en 1957; en 1966 el Congreso de los Estados Unidos decidió que ya estaba bien de gastar dinero y fue cancelado. Su objetivo: alcanzar la discontinuidad de Mohorovičić, la interfaz entre la corteza terrestre y el manto.

800px-earth-crust-cutaway-numbered-svgLa discontinuidad de Mohorovičić está marcada con el número 2

Esta discontinuidad fue descubierta por el sismólogo croata Andrija Mohorovičić en 1909, quien se dio cuenta de que las ondas sísmicas que volvían de las profundidades indicaban que debía existir una zona a varios kilómetros de profundidad en la que se producía un cambio brusco en la velocidad de estas ondas sísmicas. Esta zona define la base de la corteza terrestre y marca un cambio de composición: la superficie de separación entre los materiales rocosos menos densos de la corteza, formada fundamentalmente por silicatos de aluminio, calcio, sodio y potasio, y los materiales rocosos más densos del manto, constituido por silicatos de hierro y magnesio. La profundidad de Moho (que es como se llama menos formalmente la discontinuidad) varía entre los 25-40 km en los continentes y los 5-10 km bajo el suelo oceánico, y su espesor máximo es de unaos 500 m.

Profundidad de la discontinuidad de MohorovičićProfundidad de la discontinuidad de Mohorovičić

Antes de seguir conviene señalar que, tras la aceptación universal de la tectónica de placas, los geólogos llegaron a la conclusión que más importantes que los cambios en la composición son los cambios en la manera de deformarse a la hora de entender la estructura de la Tierra. Por eso actualmente dividen la parte más externa del planeta en litosfera (rígida), que incluye la corteza y la parte superior del manto, que cubre la mucho más deformable astenosfera.

El proyecto Mohole (de Moho y “hole”, agujero en inglés) fue una ocurrencia de un grupo, informal, de científicos asociados a la marina de los Estados Unidos y que se creó en los años cincuenta. El grupo lo lideraba Gordon Lill de la Oficina de Investigación Naval y se dedicaba a recopilar ideas y proyectos de investigación de los científicos de la armada que no encajaban en ninguna parte, de ahí el nombre del grupo: Sociedad Miscelánea Americana (AMSOC, por sus siglas en inglés). Para ser aceptado en el grupo solo era necesario que dos o más miembros estuviesen juntos.

FunafutiFunafuti

Antes del Mohole, todas las perforaciones que se hacían en la corteza terrestre tenían como objetivo encontrar petróleo o gas y se habían limitado a tierra firme y a aguas poco profundas. Perforar con fines científicos era mucho menos común. Este tipo de perforaciones habían comenzado con la idea de determinar la estructura, composición e historia de las islas coralinas. En 1877 la Royal Society de Londres financió una perforación que llegó a los 350 m en Funafuti, el atolón en el que está la capital de Tuvalu, en el Pacífico Sur. En 1947, antes de los ensayos nucleares en Bikini, una perforación llegó en este atolón a los 780 m. Finalmente, en 1952 una prospección en Enewetak consiguió llegar a la corteza basáltica debajo de la roca coralina a una profundidad de 1200 m, aún muy lejos de Moho. A lo largo de los años cincuenta algunos países, notablemente Canadá y la Unión Soviética, anunciaron públicamente proyectos de perforaciones en la corteza terrestre; no se conoce que se llevaran a cabo.

El proyecto Mohole presentado por la AMSOC consiguió financiación pública para la idea de hacer la perforación en el fondo oceánico, todo un reto tecnológico para la época. El proyecto era perforar a una profundidad de agua de miles de metros, algo nunca hecho hasta entonces.

Si bien el proyecto consiguió dos perforaciones notables, primero a una profundidad marina de 950 m y después otra a 3560 m, no llegó ni a aproximarse a Moho. El proyecto Mohole, probablemente uno de los grandes proyectos públicos de gran ciencia (el primero fue secreto y fue el proyecto Manhattan, que creó la bomba atómica) terminó cuando se quedó sin dinero en 1966 siendo considerado un fracaso. Dos años antes AMSOC se había disuelto.

CUSS ICUSS I

Con todo, el proyecto demostró que la perforación en el suelo oceánico usando barcos era posible (el CUSS I empleado en el proyecto, fue uno de los primeros barcos del mundo capaz de perforar en profundidades de agua de hasta 3.600 m, mientras mantenía la posición en un radio de 180 m) y dio pie, además, al Proyecto de Perforación en Mares Profundos de 1968, que se dedicó a investigar las capas de sedimentos del fondo oceánico.

El principal logro del proyecto Mohole fue convertir la investigación del suelo marino en una empresa multinacional, ya sean prospecciones científicas o llevadas a cabo por compañías transnacionales. En los 50 años transcurridos desde la finalización del proyecto Mohole, sin embargo, ningún proyecto ha llegado a Moho perforando el fondo del mar. Lo soviéticos fueron los que estuvieron más cerca, con una perforación de 12,262 m en tierra firme, en la península de Kola, en 1989.

Según cuentan las crónicas, el proyecto Mohole fracasó por falta de financiación suficiente y porque estuvo mal gestionado. De hecho, puede que la informalidad de AMSOC fuese en parte responsable de iniciar un proyecto que era tecnológicamente interesante pero cuyo objetivo científico era dudoso.

ChertChert

¿Por qué era dudoso? A finales del siglo XIX varios científicos europeos se habían dado cuenta de que la corteza oceánica afloraba en los Alpes en forma de capas de chert (sedimentos del suelo marino hechos roca, litificados) superpuestas a capas basálticas (que corresponderían con la corteza oceánica), superpuestas a su vez a capas ultramáficas (rocas de alta densidad ricas en hierro y magnesio); esta estructura se conoce como trinidad de Steinmann, en honor de Gustav Steinmann. En general, estas asociaciones de rocas se llaman ofiolitas y la transición de la capa basáltica a la ultramáfica no sería otra cosa que la discontinuidad de Mohorovičić, ahí, a simple vista.

Moho a la vista¿Moho a la vista? Ofiolita de Terranova

Para saber más:

El proyecto Mohole – Wikipedia

Project Mohole – National Academies

Este post ha sido realizado por César Tomé López (@EDocet) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Proyecto Mohole, un fracaso que no hacía falta se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué hago yo si papá viaja hacia al norte y mamá hacia el sur?
  2. El camino hacia la neoeugenesia
  3. La biblioteca del proyecto Manhattan.
Categorías: Zientzia

Itziar Garate: “Txikitan, astronomiak ez ninduen bereziki erakartzen. Baina asmatu dut”

Zientzia Kaiera - Vie, 2016/10/14 - 09:00
Ana Galarraga / Elhuyar Zientzia Itziar Garate Lopez Parisen dago, Meteorologia Dinamikoaren laborategian, doktoretza-ondoko ikerketa egiten. Parisen egotea amets baten modukoa ote den galdetuta, aitortu du ezetz, berez, doktoretza amaitu ondoren, nahiago zuela Euskal Herrian gelditu: “Orain oso pozik nago, eta ez nuen uste hala izango zenik, lehenago bi urtez kanpoan izana bainintzen (Kanarietan) eta orain nahiago bainuen etxean geratu. Baina hona etortzea eskaini zidaten. Eta proiektua hainbeste gustatu zitzaidan eta orain nire tutore denak ere hainbeste animatu ninduen, azkenean etorri egin nintzen, eta orain benetan gustura nago”.

Hain zuzen ere, tesian egindako ikerketaren osagarria da, guztiz, orain egiten ari dena. Tesian, Artizarraren poloan dagoen zurrunbilo bat aztertu zuen, Venus Express espazio-ontziaren Virtis espektrometroak hartutako datuetan oinarrituta. “Hortik zurrunbiloaren hainbat ezaugarri ezagutu nituen, baina ez zen nahikoa ondo ulertzeko. Orain, zurrunbilo hori bera aztertzeko aukera izango dut, beste modu batera: ordenagailu bidezko simulazioen bitartez, hain justu”.

 Itziar Garate astrofisikaria.
Irudia: Itziar Garate astrofisikaria.

Ikerketa-gai berarekin jarraitzen du, beraz, baina beste tresna bat erabiliko du gaia aztertzeko. Hala, Parisen emango dituen lehen hilabeteak metodologia horretaz jabetzen emango ditu.

Metodologia ez ezik, ikerketa bizitzeko modua ere aldatu zaio. Hala ere, dena lotuta dagoela ohartarazi du Garatek. “Azken finean, simulazioan ateratakoa behaketa errealekin alderatzen dut”. Horrek egiten du proiektua hain erakargarri Garaterentzat. Lekuak ere garrantzia handia du: “Laborategi honek Artizarraren atmosfera osoaren oso eredu ona du; horregatik etorri naiz hona. Kontua da justu poloan eredua ez dela hain egokia, eta nire zurrunbiloa hortxe dago. Beraz, nire lehen egitekoa eredua hobetzea da, poloan hobeto funtziona dezan”.

Hobetze horretan, laborategiko kideekin batera ari da lanean. Lanerako inolako arazorik ez duela esan du Garatek; jendeak abegikor hartu omen du, eta, laneko hizkuntza ingelesa denez, ondo moldatzen omen da. Harreman informaletan, ordea, frantsesez aritzen omen dira, “azkar”, eta gehiago kostatzen zaio elkarrizketak jarraitzea, baina “denbora-kontua” izango dela uste du.

Aurreikusi gabeko bidea

Bere ikerketari buruz zein grinatsu hitz egiten duen kontuan hartuta, inork pentsa lezake txikitatik nahi zuela astronomo izan. Ez da hala, ordea: “Txikitan astronomiak ez ninduen bereziki erakartzen. Baina erraztasuna nuen matematikan eta halakoetan, eta garbi nuen zientziak ikasi nahi nituela. Gero, fisika aukeratu nuen iruditzen zitzaidalako etorkizunean hor izango nituela aukera gehien, eta gustuko nuelako, noski. Fisika ikasten ari nintzela, berriz, astrofisika ikasi nahi zuela garbi zuen lagun-min bat egin nuen, eta hark kutsatu zidan pixka bat. Astronomia-hitzaldietara joaten hasi nintzen, Agustin Sanchez Lavega astrofisikariaren berri izan nuen, harekin harremanetan jarri, eta hark bultzatuta sartu nintzen honetan”.

Azkenean, hark zuzentzen duen UPV/EHUko Zientzia Planetarioen taldean bukatu zuen tesia egiten, eta mundu horretan gero eta gusturago dagoela onartzen du: “Asmatu nuen, bai”.

Fitxa biografikoa:

Itziar Garate Lopez astrofisikaria. Itziar Garate 1986an jaioa da, Zarautzen. Leioan hasi zituen Fisikako ikasketak, baina astrofisikan espezializatzeko Tenerifera joan zen. Hala, La Lagunako Unibertsitatean lizentziatu zen. Ondoren doktoretza egin zuen, Bilboko Ingeniaritza Goi Eskola Teknikoan, Zientzia Planetarioen Taldean. Tartean, hiru hilabete igaro zituen Holandan, ESAren ESTEC zentroan. Doktoretza-ondokoa hasi aurretik, ingeniaritza eskolan klaseak ematen aritu da. Orain, Parisko Meteorologia Dinamikoaren laborategian, doktoretza-ondoko ikerketa egiten.

———————————————————————————-

Egileaz: Ana Galarraga Aiestaran (@Anagalarraga1) zientzia-komunikatzailea da eta Elhuyar Zientzia eta Teknologia aldizkariko erredaktorea.

———————————————————————————-

Elhuyar Zientzia eta Teknologia aldizkariarekin lankidetzan egindako atala.

zientzia_gr_RGB

The post Itziar Garate: “Txikitan, astronomiak ez ninduen bereziki erakartzen. Baina asmatu dut” appeared first on Zientzia Kaiera.

Categorías: Zientzia

#Naukas15 Si Pitágoras fuese nutricionista

Cuaderno de Cultura Científica - Jue, 2016/10/13 - 17:00

schokolade

El amor de Pitágoras por los triángulos supondría un riesgo para tu salud. Aitor Sánchez sobre las falacias alimentarias.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo #Naukas15 Si Pitágoras fuese nutricionista se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas14 Si Guardiola fuese nutricionista
  2. #Naukas15 Luis Quevedo entrevista a Eudald Carbonell y Goyo Jiménez
  3. #Naukas15 Endosimbiontes
Categorías: Zientzia

Realidad conexa, porque todo está conectado.

Cuaderno de Cultura Científica - Jue, 2016/10/13 - 11:59

Llevamos varias semanas hablando de artistas científicos, de colaboraciones interdisciplinares exitosas y de la necesidad de encontrar caminos transversales entre ciencia y arte.

A veces, para un espectador poco acostumbrado a este enfoque interdisciplinar, esta búsqueda de caminos confluyentes, esas interrelaciones, puede parecer forzada, artificial, pero no lo es. Sencillamente, lo que nos ocurre es que no sabemos verlas, que no nos hemos parado a buscarlas.

Realidad Conexa es una nueva iniciativa del programa Mestizajes, del Donostia International Physics Center (DIPC), destinada a mostrarnos de manera visual, dinámica y accesible para todo tipo de público esas conexiones, esos encuentros que no sabemos ver.

La premisa con la que Gustavo Ariel Schwartz, fundador y director del Programa Mestizajes, y Ana Montserrat Rosel, guionista y directora de TV, se enfrentaron al proyecto es que “todo, absolutamente todo, está conectado”. Se trata de exponer de manera sencilla, visual y comprensible que el conocimiento humano no está formado por compartimentos estancos independientes unos de otros, sino por puntos que se conectan unos con otros a través de líneas que están ahí, a nuestro alcance, y que solo tenemos que aprender a ver. Los caminos para llegar al conocimiento no son únicos, desde distintos puntos de salida se puede llegar a la misma meta, se llega de hecho al mismo punto, y esas rutas distintas son todas igualmente válidas y enriquecedoras.

El proyecto, en esta primera entrega (esperamos que sean muchas más), consta de 8 cápsulas de dos minutos de duración que dejan en el espectador diferentes sensaciones. Primero cierta desconfianza ¿qué van a contarme?, segundo sorpresa ¿en serio, cómo no sabía esto?, tercero asombro, cuarto y último curiosidad por saber más. Esta última reacción es la que Realidad Conexa busca, encender la chispa de la curiosidad es un poderoso acicate para mover hacia el conocimiento.

Hasta ahora se han publicado cuatro cápsulas, la presentación y tres episodios más, en las que con un lenguaje claro, preciso e identificable se nos muestran diferentes conexiones para abordar nuestra realidad.

En Borges y la memoria, la primera frase ya nos deja con ganas de saber qué van a contarnos porque apela a algo que todos conocemos: “Pensar es olvidar. Olvidar para recordar”. Con este gancho la voz en off nos lleva a conocer la historia de la increíble coincidencia entre un personaje de Borges, Funes El Memorioso, y Salomón Shereshesky, el hombre que recordaba todo. Ficción y realidad coincidentes en el tiempo pero no en el espacio, una historia que nos sorprende, nos asombra y, después, nos deja pensando ¿cuánto recuerdo yo?, ¿qué hago con mi memoria?, ¿cómo la utilizo?, ¿recuerdo u olvido?

En Arte, Literatura y Ciencia, el gancho para atraer nuestra atención es la frase que, a mi juicio, es la esencia del enfoque de todo el proyecto: “El pintor comprende la realidad, el escritor controla la historia y el científico describe verdades”. Esta cápsula ilustra una idea que en el Cuaderno de Cultura Científica se ha tratado muchas veces: cómo el conocimiento se abordaba de una manera global en la Antigüedad y el Renacimiento y cómo el siglo XX constituye una ruptura de ese acercamiento.

En Magia y neurociencia, el enfoque de la conexión está centrado en cómo algo tan poco científico como la magia y los trucos puede ayudar a los neurocientíficos a conocer cómo decide nuestro cerebro lo que percibimos y lo que no. ¿Prestamos atención a lo que queremos o creemos prestar atención mientras en realidad nuestro cerebro nos engaña?

El resto de las cápsulas irán publicándose en las próximas semanas en el Canal Mestizajes del DIPC y tratarán temas tan interesantes como la relación entre el poema Eureka de Poe y la infinitud del Universo, la colaboración inesperada entre las proteínas y los videojuegos, o la conexión entre nuestra preferencia al girar la cabeza para besar, los retratos de Rembrandt y el cerebro. También aprenderemos cómo el placer que las grandes obras de la literatura o el desagrado de los peores textos escritos responden a patrones matemáticos o cómo Cezanne intuyó mucho antes que la ciencia que lo que creemos ver no es lo que hay sino una construcción de nuestro cerebro.

Me gustaría señalar, por último, que el aspecto formal de las cápsulas es fabuloso y está muy cuidado. En una época de bombardeo visual una buena idea, como es Realidad Conexa, no puede confiarse en la excelencia de su planteamiento intelectual y debe cuidar su presentación para hacerse atractiva, interesante y tener una imagen característica. Para esto, el lenguaje visual, los grafismos, la música y la locución deben tener una marcada personalidad que les dé continuidad y que sirva para que el espectador, a pesar de estar inmerso en el visionado de una cápsula en concreto, sepa identificar de un solo vistazo cualquier otra.

Realidad conexa es una iniciativa original, atractiva, y esperemos que exitosa, que busca provocar asombro y curiosidad, y que el espectador se plantee preguntas sobre sí mismo, preguntas qué pueden parecer “tontas” pero qué son el camino para querer saber más: ¿hacia qué lado beso? ¿Por qué me gustan más los libros con grandes exposiciones que los que tienen mucho diálogo? ¿Lo que veo es lo que hay?

Otro objetivo del proyecto es buscar que las distintas disciplinas aprendan a mirarse y sobre todo aprendan a verse, que sean capaces de visualizar esas líneas de puntos que los conectan para recorrer esas conexiones y llevar a cabo colaboraciones fructíferas y provechosas para ellos y para todos.

Realidad conexa. No dejéis de verla, os sorprenderá.

Sobre la autora: Ana Ribera (Molinos) es historiadora y cuenta con más de 15 años de experiencia en el mundo de la televisión. Es autora del blog Cosas que (me) pasan y responsable de comunicación de Pint of Science España.

El artículo Realidad conexa, porque todo está conectado. se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¡Esta mierda es buena!
  2. Ya está aquí Pint of Science 2016
  3. ¿Qué pasa si me río de todo?
Categorías: Zientzia

Lurrak lurra irentsi zuen

Zientzia Kaiera - Jue, 2016/10/13 - 10:00
Amaia Portugal Eurasia eta Indiako plakek talka egin zutenean, bion gainean zegoen lurrazalaren masaren erdia galdu egin zela kalkulatu dute Chicagoko Unibertsitateko ikertzaile batzuek. Azalpen posible bakarra aurkitu diote desagertze horri: material hori guztia hondoratu egin zen, eta mantuarekin nahastu.

Duela hirurogei milioi urte inguru egin zuten talka Eurasia eta Indiako plaka tektonikoek. Lurrazalaren zati bat harrotu egin zen inpaktuarekin, eta ondorioz, Himalaia mendilerroa jaio. Beste zati bat, aldiz, mugitu egin zen bi plaken ertzeetan behera, eta hala sortu ziren gaur egungo Asia hego-ekialdeko lurraldeak. Baina hori izan al zen guztia?

Chicagoko Unibertsitateko (AEB) ikertzaile batzuk ezezkoan daude. Haien kalkuluen arabera, talkaren aurretik lurrazalak zuen masa askoz ere handiagoa zen; mendilerro, irla eta penintsula berriek hartu zutena baino handiagoa. Gainontzekoa ezin izan zen besterik gabe desagertu. Orduan, non dago? Zientzialariok argudiatu dutenez, Lurraren mantuak irentsi zuen lurrazalaren zati bat. Hala azaldu dute Nature Geoscience aldizkarian, sarean argitaratutako artikulu batean.

 NASA)
1. irudia: Plaken arteko talkak mugiarazi zuen lur masaren zati handi bat Himalaia mendilerrora joan zen, baina beste zati handi bat desagertu egin zen lurrazaletik. (Argazkia: NASA)

Orain hirurogei milioi urte hor zegoen masaren erdia desagertu egin da lurrazaletik”, azaldu du Miquela Ingalls ikerketaren arduradunak. Datu hori ez dute arinkeriaz eman. Izan ere, batetik, berriki berrikusiak izan diren plaken mugimenduei buruzko estimazioak baliatu dituzte, denboran atzera egin eta talkaren aurretik bi plakek zer azalera zuten kalkulatzeko. Eta bestetik, Lurreko zenbait zonaldetako datu geologikoak aztertu dituzte, duela hirurogei milioi urteko lurrazalak zer lodiera zuen argitu nahian. “Funtsezko datu multzoak aztertuta, talkaren hastapenetan lurrazal zati horrek zer masa zuen zehaztu ahal izan dugu”, gaineratu du David Rowleyk, ikertzaileetako batek.

Halako masa kantitate handia galdu bada eta aurkitzen ez badute, mantuan behera hondoratu delako behar du izan, ikertzaileok artikuluan azaldu dutenez. Horrek orain arteko teoriak hankaz gora jartzen ditu, ordea. Izan ere, geologian irakasten denez, lurrazal kontinentalak dentsitate txikia du, eta horregatik, ezin du azpian duen mantuarekin nahastu. Hau da, teoria horri eusten badiogu, Eurasia eta Indiako plakek talka egin zutenean, astindutako lurrazalak ezingo zukeen hondoratu. Mantuaren gainetik geratuko zen, hondartzako baloiak ur azalean nola, inoiz behera egin gabe.

“Lurrazal kantitate handia desagertu da, eta mantuaren barruan baino ezin du egon. Pentsatzen genuen mantuak eta lurrazalak oso interakzio txikia zutela elkarren artean, baina lan honek iradoki bezala, egoera zehatz batzuetan behintzat, hori ez da hala”, dio Rowleyk.

 Jean Lachat)
2. irudia: Miquela Ingalls, David Rowley eta Albert Colman, Chicagoko Unibertsitateko ikertzaileak. (Argazkia: Jean Lachat)

Duela hirurogei milioi urteko talka hark mugitu zuen masaren erdia Himalaiara, Asia hego-ekialdera eta itsas sedimentuetara joan zen, beraz; eta beste erdia, Lurreko arrakaletan behera. Hala iradokitzen dute artikulu honetan. Baina gainera, proposamen berri hau baliagarria da beste misterio geokimiko bat ere argitzeko.

Erupzioak gertatzen direnean, mantuak jaurtitzen dituen askotariko substantzien artean daude beruna eta uranioa, baina bi elementu horiek ez dira mantuaren berezko osagaiak. Nola liteke, orduan? Bada, lurrazalean bai, maiz aurkitzen dira beruna eta uranioa, eta artikulu honetan iradoki bezala, lurrazalaren eta mantuaren arteko interakzioa uste baino handiagoa bada, hor legoke galderaren erantzuna. Rowleyk adierazi bezala, “India eta Eurasiako plaken talka prozesu jarraitua bada [gure oinen azpian, oso poliki bada ere, mugitzen segitzen baitute], lurrazal kontinentaleko elementuak mantuarekin nahasten ari dira etengabe, eta horregatik, mantutik gaur egun ateratzen diren material bolkanikoetan ikus ditzakegu”.

Erreferentzia bibliografikoa:

Miquela Ingalls et al. Large-scale subduction of continental crust implied by India-Asia mass-balance calculation. Nature Geoscience. Published online Sept. 19, 2016. DOI:10.1038/ngeo2806

———————————————————————————-

Egileaz: Amaia Portugal (@amaiaportugal) zientzia kazetaria da.

———————————————————————————-

The post Lurrak lurra irentsi zuen appeared first on Zientzia Kaiera.

Categorías: Zientzia

Inflación caliente à la Higgs

Cuaderno de Cultura Científica - Mié, 2016/10/12 - 17:00

Casi seguro que has oído hablar del Big Bang, ese acontecimiento, por llamarlo de alguna manera, que marca el comienzo de nuestro universo. Lo que es posible que no sea tan seguro es que estés familiarizado con el concepto de inflación cósmica.

La inflación cósmica es una teoría que afirma que muy poco tiempo después de esa singularidad que es el Big Bang, y por poco tiempo queremos decir 10-36s, y durante solo un momento, porque terminó a los 10-32s del Big Bang, el universo (el espacio) sufrió un crecimiento exponencial enorme. Tras este periodo inflacionario el universo siguió, y sigue, expandiéndose pero a un ritmo muchísimo menor.

inflacion-cosmica-caliente

La inflación cósmica surgió para explicar el origen de la estructura a gran escala del universo. Muchos físicos creen también que explica por qué es igual en todas direcciones (isótropo), por qué el fondo cósmico de microondas, el rastro más cercano al Big Bang que podemos observar, se distribuye de forma homogénea en el cielo, por qué el universo es plano y por qué no se han observado los monopolos magnéticos (los equivalentes a las cargas eléctricas positivas y negativas que se pueden encontrar por separado).

Pero los científicos no cesan de investigar posibilidades hasta que una de ellas demuestra que es el modelo que mejor describe la realidad. Así, esta descripción que hemos dado se corresponde a la versión “fría” de la inflación cósmica. Pero existe otra versión, la “caliente”. Y estos días se ha publicado un resultado que podría afianzarla como competidora.

Si la inflación fría data de los años ochenta del siglo XX, la versión caliente es de mediados de los noventa. Sin embargo, en veinte años esta versión no ha avanzado tanto como para ser considerada una teoría completa. Ello se debe a que, en este caso, los investigadores no han sido capaces de construir un modelo sencillo de la inflación caliente a partir de primeros principios. De hecho esto se consideraba poco menos que imposible. Hasta ahora.

inflacion-caliente

En un trabajo encabezado por Mar Bastero-Gil, de la Universidad de Granada, y en el que es coautor el padre de la idea de la inflación caliente, Arjun Barera, de la Universidad de Edimburgo (Reino Unido), los autores toman prestado un concepto de las teorías de física de partículas para derivar exactamente eso, un modelo a partir de primeros principios.

En la inflación estándar cualquier radiación preexistente se estira y dispersa durante esta breve fase expansiva y no se produce nueva radiación. La temperatura del universo, por tanto, cae vertiginosamente y es en un periodo posterior en el que el universo recupera su temperatura y se llena de nuevo de radiación (termalización). La inflación caliente es más sencilla. Se produce constantemente nueva radiación por un fenómeno llamado desintegración del campo inflatón (es este campo el que da lugar a la inflación); la temperatura no baja drásticamente, sino que se mantiene alta (de ahí lo de inflación caliente) y no hace falta introducir una fase de recalentamiento. A pesar de ser una idea más sencilla, irónicamente, la inflación cósmica necesitaba echar mano de, literalmente, miles de campos adicionales acoplados al de inflación para justificar su masa.

Lo que Bastero-Gil y sus colaboradores han hecho ha sido utilizar el mecanismo que estabiliza la masa del bosón de Higgs en las teorías de física de partículas, reduciendo de esta manera el número de campos necesario a un muy manejable cuatro y sin tener que introducir correcciones de masa. A este recurso lo llaman “pequeño Higgs”.

La comparación que los autores hacen entre las predicciones observacionales de su modelo con los límites a la inflación que se deducen de las observaciones del satélite Planck del fondo cósmico de microondas indican que encajan bastante bien.

En la teoría inflacionaría todo encajaba salvo algunos flecos. Ahora esto se pone interesante.

Referencia:

Mar Bastero-Gil, Arjun Berera, Rudnei O. Ramos, and João G. Rosa (2016) Warm Little Inflaton Phys. Rev. Lett. doi: 10.1103/PhysRevLett.117.151301

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Inflación caliente à la Higgs se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El Higgs aún podría no ser el bosón de Higgs del modelo estándar
  2. Un agujero negro de laboratorio con radiación de Hawking caliente
  3. El universo no rota
Categorías: Zientzia

Páginas