Cuaderno de Cultura Científica jarioa-rako harpidetza egin
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Eguneratua: duela 43 min 48 seg

Asesinos en serie

Al, 2018-02-19 17:00

Este capítulo, así como el que se refiere a la utilización política de la violencia que vendrá más adelante, no me dan para escribir mucho. Es un tema poco estudiado con enfoque científico y, a la vez, es muy popular. Una pequeña introducción, aclarar algunos conceptos y dejar hablar a los asesinos, ellos lo dicen todo y, espero, nos quedarán pocas dudas sobre lo que son. Y es difícil encontrar una explicación evolutiva a su existencia. Por ahora sigo en la duda.

Uno de los más famosos asesinos en serie, Jack “el destripador”, representado en una caricatura de “Punch” de 1888 como el fantasma de la muerte que recorre Whitechapel.

Los asesinos en serie, que forman parte de la humanidad desde siempre, y solo hay que recordar los 28 cadáveres de la Sima de los Huesos en Atapuerca, quizá más crimen en masa que asesinatos en serie, son el 1% del total en Estados Unidos, el país donde más abundan las investigaciones y las estadísticas sobre este asunto. Se define al asesino en serie como el que comete tres o más asesinatos en lugares y tiempos diferentes, con fases temporales de recuperación y con fallos emocionales o psicopatológicos. Pueden ser organizados o desorganizados, localizados o itinerantes, visionarios o controladores, y otros tipos.

Peter Kurten: La verdadera historia de Peter Lorre

Tenía un pequeño cuchillo de bolsillo con el cual corté su garganta. Oí los chorros y el goteo de la sangre en la estera al lado de la cama. Salió a borbotones en un arco. La cosa entera duró cerca de tres minutos. Entonces salí, cerré la puerta otra vez y regresé a mi casa en Düsseldorf.”

Siempre recordaré a El Vampiro de Düsseldorf, con el rostro atormentado y los ojos saltones de Peter Lorre en la película, dirigida por Fritz Lang, estrenada en 1931, el mismo año en que el verdadero Vampiro fue ejecutado. Se llamaba Peter Kurten y había nacido el 26 de mayo de 1893 en Mülheim, que hoy forma parte de Colonia. Era el tercero de 13 hermanos de una familia pobre sometida a un padre alcohólico y violento que los maltrataba y llegó a violar a alguna de las hermanas de Peter; es probable que el mismo Peter también fuera violado. A los ocho años huyó de casa y cometió diversos delitos y eran frecuentes sus entradas y salidas de la cárcel. A los nueve años, y según propia confesión, asesinó a dos amigos ahogándolos en el Rhin. Fueron sus primeros asesinatos. También violaba, torturaba y mataba animales, sobre todo perros, e incluso llegó a trabajar en una perrera. Entre 1902 y 1913, es acusado de estafa, robo con fractura, pirómano y desertor.

En 1913 estranguló y degolló a Kristine Klein, de trece años, que se encontraba en una casa en la que entró a robar. Kurten se casó en 1921 y se trasladó a Altenburg donde encontró trabajo de camionero. Su boda, una condena en la cárcel y la Primera Guerra Mundial interrumpieron los asesinatos. Pero en 1925 volvió a Düsseldorf y volvió a matar.

Su año más sangriento fue 1929. El 8 de febrero, atacó a una joven y violó y mató a Rosa Ohliger, una niña de ocho años; el 13, apuñala veinte veces a un inválido borracho, mecánico de oficio, y cuando es descubierto el cadáver, Kurten aparece por allí y charla sobre el caso con la policía; el 11 de agosto, estrangula y apuñala a una criada llamada Marie Hahn; el 21, ataca con su navaja a tres personas; el 23, dos hermanas de cinco y catorce años; el 24, mata a un hombre; en septiembre, comete dos violaciones y dos asesinatos, y en uno de ellos mata a una mujer con un martillo; y el 7 de noviembre, otra niña de cinco años. De este último asesinato, envió a la prensa un mapa para que pudieran localizar el cadáver. La policía, ante la cantidad de ataques y la diversidad de armas y víctimas, empieza a creer que hay más de un loco suelto. En febrero y marzo de 1930, ataca a varias personas con el martillo pero ninguna muere.

Düsseldorf enloqueció de terror. Nadie se atrevía a salir solo a la calle. La recompensa por la captura del asesino alcanzó cifras fabulosas y la policía recibió denuncias de hasta 900000 personas. Se siguieron 12000 pistas y hasta 200 personas se acusaron de ser los autores de los crímenes del Vampiro.

Maria Budlick era criada. Conoció a Kurten el 14 de mayo de 1930. La convenció para ir a un bosque y allí la estranguló y violó. Pero Maria sobrevivió al ataque. Acudió a la policía y describió a Kurten y pronto su retrato robot circulaba por toda Alemania. Era cuestión de tiempo.

Kurten, con su habitual y extraña conducta, le confesó a su esposa quien era y, para no perder el dinero de la recompensa por su captura, le pidió que le delatara a la policía. El 24 de mayo de 1930, el Vampiro de Düsseldorf se entregó a la policía. Confesó sus crímenes, aunque en el juicio que se celebró un año después, en mayo de 1931, cambió varias veces su declaración. Con un acuerdo muy amplio entre los conocedores de la historia de Kurten, se le atribuyen nueve asesinatos, siete intentos frustrados y unas ochenta agresiones sexuales. Los expertos psiquiatras lo declararon responsable de sus actos y fue condenado a muerte.

Peter Kurten murió guillotinado en el patio de la prisión de Klügelputts el 2 de julio de 1931, a los 48 años. Según cuentan, quizá es una leyenda, una de las últimas frases de Kurten, raro como era, fue preguntar si “una vez guillotinado, aunque sea por poco tiempo, ¿podré oír la sangre saliendo de mi cuello?”

El 11 de mayo de 1931, durante el juicio de Kurten y mes y medio antes de su ejecución, Fritz Lang había estrenado en Berlín M, El Vampiro de Düsseldorf. Sólo dirigió una película más en Alemania; pronto marcharía, primero a Francia y después a Estados Unidos. El fantasma del nazismo cubría Alemania. Hasta 1959 no volvería a dirigir películas en su país.

Saber por qué un asesino mata a menudo es una incógnita de difícil respuesta. Kurten, en el juicio, habló de su pasión por beber la sangre de sus víctimas, en un síndrome llamado hematodipsia, del placer sexual en el momento de matar y, también, de matar para “aleccionar a una sociedad opresiva”. También declaró que llegaba al orgasmo cuando mataba y que variaba el número de puñaladas según el tiempo que tardaba en eyacular. Además, estaba su vampirismo, su afán de beber sangre, con implicaciones sexuales. El vampirismo se define, en términos psiquiátricos, como el acto de extraer sangre de un objeto, normalmente un objeto de amor, y recibir excitación sexual y placer. La sangre se puede obtener de varias maneras, aunque las usuales son la puñalada y el mordisco. El momento de extraer o sorber la sangre de la herida es una parte importante de la acción del vampiro. Como ven, todo coincide con las declaraciones de Peter Kurten.

El Vampiro de Düsseldorf fue la cristalización del miedo de todo un pueblo. Como ocurre con nuestro Sacamantecas, al que tanto se parece, el Vampiro sigue dando miedo en la actualidad. Un vampiro siempre ejerce una cierta fascinación, tiene poder sobre otras personas y produce terror. Hablar del Vampiro es hablar de un ser maléfico difícil de encarnar en una persona concreta, en el ciudadano llamado Peter Kurten (o en el rostro de Peter Lorre). El Vampiro es, al final, un mito cuyas apariciones traen, y a la vez predicen, los malos tiempos que se viven. Hay que recordar que estamos en la torturada Alemania de entreguerras, y pronto llegará el nazismo, que ya era entonces una realidad palpable en las calles de Alemania.

Arnold Edelstein, del Sistema de Prisiones de Israel, publicó hace unos años una revisión de los tipos de asesinos en serie. Para el autor está el asesino en serie en sentido estricto, con una víctima en cada crimen y repitiendo después de un intervalo de tiempo, hasta llegar a las tres víctimas y convertirse, oficialmente, en asesino en serie. En cambio, el asesino de masas llega a las tres víctimas en un solo episodio. Y también define Edelstein al asesino de masas en serie como el que coloca bombas, con muchas víctimas, en varias ocasiones. Finalmente, el autor comenta la orgía de asesinatos de quien mata a tres o más víctimas en varios episodios separados por horas o por pocos días.

Cuesta encontrar un motivo o, si se quiere, un móvil, para estos crímenes. O. por lo menos, un motivo que entendamos los demás. Ya veremos más adelante que, viendo sus antecedentes y la historia de su vida, sobre todo en la infancia, quizá podamos llegar a las causas de su conducta pero es difícil captar la justificación de sus actos. Como ocurre a menudo en este libro, podemos explicar pero eso no justifica en absoluto el comportamiento de los asesinos desde nuestra cultura y sociedad.

En general, se afirma que, para los asesinos de un solo crimen, la violencia quizá sea un experimento sin control. Sin embargo, para el asesino en serie, la violencia es el equivalente de un programa de intenciones, incluso de un programa de investigación, con diferentes experimentos para mejorar lo que busca el autor, sea lo que sea.

El asesino en serie se enfrenta al caos o al disparate que para él es su vida e intenta, con sus crímenes, ponerle un orden y encontrarle un sentido. Como escribió hace unos años un asesino en serie “se convierte la vida en un cómic en el que cualquier cosa es posible”. Por ejemplo, es, en el fondo, lo que intentan conseguir los profesionales de la medicina que matan deliberadamente a sus pacientes con la excusa de liberarles de su sufrimiento.

Sylvestre Matuska: El amante de los trenes

Austríaco, de origen húngaro, era un ingeniero de ferrocarriles que, por lo que cuentan, solo alcanzaba el orgasmo ante una catástrofe ferroviaria con descarrilamiento incluido. Quizá, en psiquiatría, esta obsesión hasta tiene un nombre específico; lo ignoro, pero la obsesión es fascinante.

Nació Sylvestre Matuska, o Szilveszter Matuschka, el 29 de enero de 1892 en Csantaver, en la Vojvodina, pueblo que ahora se llama Cantavir y pertenece a Serbia. Hijo de un zapatero, fue movilizado en 1914 por el ejército austro-húngaro durante la Primera Guerra Mundial. En 1915 pertenece a un regimiento de zapadores que cubre la retirada ante el avance de los rusos en Galitza, hoy Polonia. Su regimiento vuela puentes, carreteras, vías de tren y esclusas y Matuska, ya ingeniero, destaca por su habilidad y sangre fría. Ingeniero mecánico especializado en trenes, inventó un sistema de frenos para locomotoras y tenía otras 92 patentes depositadas.

Aunque incluso es condecorado, cuando la guerra termina, la vida en Hungría derrotada es difícil. Prueba varios oficios y fracasa; es comerciante, tendero, albañil, transportista y, por fin, prospera con la explotación de una cantera. Excelente marido y padre, se instala en Viena como un buen burgués y un católico practicante

En Austria, en diciembre de 1930 y enero de 1931, hizo sus dos primeros intentos, uno en Viena y otro en Berlín, ambos fallidos, para descarrilar un tren y provocar un desastre. Tuvo éxito el 8 de agosto de 1931 al conseguir que descarrilara el tren expreso Berlín- Basilea. No hubo víctimas. Entre los restos se encontró un medio destrozado periódico nazi y, por ello, se supuso que había sido un atentado con trasfondo político. Se ofreció una fuerte suma como recompensa por la captura de los culpables.

Un mes más tarde, el 13 de septiembre, a las 12.20 horas, el expreso de Viena descarriló y cayó del viaducto de Biatorbagy, cerca de Budapest. Matuska voló parte del puente y la locomotora y nueve de los once vagones cayeron unos 30 metros al barranco. Murieron 22 personas y 120 resultaron heridas, 17 de ellas de gravedad. Entre los pasajeros que se salvaron estaba la cantante y actriz Josephine Baker, que entretuvo a los heridos y a los viajeros ilesos con sus canciones.

Matuska, que, por supuesto, estaba en la escena del crimen observando, y supongo que disfrutando, todo lo que veía, se hizo pasar por un pasajero del tren que no había resultado herido y le dejaron marchar.

Sin embargo, ya en ese momento, la policía de varios países perseguía al autor de los cuatro descarrilamientos o intentos de descarrilamientos. Sospechaban de Matuska y le detuvieron en Viena un mes más tarde, el 10 de octubre de 1931, y pronto confesó.

En Austria le juzgaron y le condenaron por los atentados fallidos pero, a continuación, fue extraditado a Hungría, con la condición de que no fuera ejecutado. Así ocurrió: fue condenado a muerte y su pena conmutada por cadena perpetua.

Escapó de la cárcel en 1944, en la confusión del final de la Segunda Guerra Mundial, cuando el ejército soviético invadió Hungría, todavía aliada de los alemanes. Matuska desapareció, aunque hay quien asegura que se convirtió en un experto en explosivos en el Ejército Rojo y que, incluso, participó en la guerra de Corea.

Los motivos de Matuska para descarrilar trenes son, por supuesto, o desconocidos o estrambóticos. En el juicio declaró que se lo había ordenado Dios. Además se explayó afirmando que “destrozo trenes porque me gusta ver a la gente morir, me gusta escuchar como gritan”. También se afirmó en el juicio que Matuska solo alcanzaba el orgasmo cuando veía los trenes que había descarrilado.

Un personaje así parecía fuera de lugar en nuestra época pero, en 1990, la banda Lard, de heavy metal, lo recuperó y compuso una canción con su nombre y su historia (se puede escuchar en YouTube). Es obvio que es un tema heavy metal y, por lo tanto, feroz y ruidoso. Una de las estrofas dice así:

Es un mensaje de Dios

Dinamita

Fin de la línea

Rechina el metal

Gritan los heridos

Explotan las bombas”.

Cuenta Juan Antonio Cebrián que hay tres características en los niños que les hacen candidatos a asesinos en serie: micción nocturna, hacer daño a animales o amiguitos, y atracción por el fuego. Por supuesto, no todos los que llevan estas conductas serán, al crecer, asesinos. Sería terrible porque esas conductas se dan en muchos niños. Vienen de la incompetencia de los padres, a menudo delictiva, con un entorno social poco eficaz y con fantasías ligadas al sexo y a la violencia.

Los asesinos en serie no sienten que sean malos sino, más bien, que las humillaciones y las provocaciones les obligan a cometer todo tipo de actos terribles. Eran, muchos de ellos, psicópatas, pero no enfermos mentales y distinguían con claridad el bien y el mal.

Todas estas características de los asesinos en serie las comenzó a organizar a finales de los ochenta Robert Ressler, entonces en el FBI. Fue el primero en utilizar el término de asesino en serie después de que, en una conferencia, uno de los asistentes hiciera una referencia a “crímenes en serie”. A Ressler le gustó el término y, a su vuelta al cuartel del FBI, comenzó a utilizar el concepto de asesinos en serie para aquel que “comete un crimen, y otro y otro de manera repetitiva”.

Definió asesino en serie y enumeró las conductas y comportamientos que lo caracterizaban. También afirmó que un asesino en serie es un don nadie que quiere ser alguien, y no a través de una fama positiva, sino de la infamia y la crueldad. Cualquier tipo de reconocimiento es bueno para él. Muchos comienzan a matar porque son tan inadecuados para otra cosa que se sienten incapaces de sentir reconocimiento por lo que hacen. Fantasean con ser asesinos, con matar, con ser famosos,… Son el centro de atención, se sienten bien, aunque la atención sea positiva o negativa, les da igual.

Pittsburgh Phil Strauss: El mejor trabajador de la empresa

Es el más profesional de los asesinos de la Mafia y fascina por su sangre fría y su indiferencia ante el dolor de los demás. Declaró en una ocasión que, como un jugador de fútbol, “me preparé para hacer este trabajo; los jefes se fijaron en mí, y acabé jugando en primera división”. Es cierto, personas con tanta experiencia y criterio como Lucky Luciano, Joe Adonis o Albert Anastasia se fijaron en Pittsburgh Phil Strauss y terminó siendo el asesino más eficaz de la Murder, Inc., la empresa de crímenes por encargo con sede en Nueva York y contratos por todo Estados Unidos. De Brooklyn al cielo, si lo deseabas, y los expertos de Murder, Inc., te facilitaban el tránsito al otro mundo.

Nacido en Brooklyn como Harry Strauss en 1908, adoptó el alias de Pittsburgh Phil aunque no tenía nada que ver con la ciudad del mismo nombre, pero le sonaba bien. De todas formas, sus amigos de confianza le llamaban “Pep”.

Era todo un experto en mil maneras de matar, como el buen profesional y artesano que aspiraba a ser. Cuando tenía que cumplir un contrato en cualquier lugar del país, ponía en su maleta una camisa, unos calcetines, unos calzoncillos, una pistola, un cuchillo, un trozo de cuerda bueno para estrangular y un pico de hielo, herramienta que le gustaba especialmente. Iba en tren o en avión, hacía su trabajo y cogía el siguiente enlace a Nueva York. A menudo, Pittsburgh Phil no sabía quién era el muerto, es más, no le importaba en absoluto no saberlo.

Cuando en 1940 la fiscalía de Brooklyn, dirigida por William O’Dwyer, desmanteló Murder, Inc., encontraron pruebas suficientes como para acusar a Pittsburgh Phil de 28 asesinatos. Son los probados; hay quien afirma que el total se acercaría a los 500. Quizá es exagerado, pero es muy probable que superen en mucho los 100.

Era y se sentía un dandi, elegante y mujeriego, y ocupaba la habitación de hotel más cara y lucía la ropa más fina de la ciudad. Un comisario de policía que le interrogó dijo que era el tío más elegante del lugar y, sin embargo, no había tenido un trabajo honrado en su vida. Es obvio que el bribón, alto, esbelto y elegante Pittsburgh Phil tuvo gran éxito con las mujeres. En Brooklyn, donde le conocían bien, le perseguían y su romance con Evelyn Mittelman, incluido el asesinato de un rival, contribuyó a que la chica fuera conocida como “Miss Beso Mortal”.

En su trabajo, Pittsburgh Phil era eficaz y salvaje. Uno de los asesinatos que se le atribuyen es el de George Rudnick, que tenía la mala fama de ser confidente de la policía. Cuando se encontró su cuerpo, la descripción del forense es fría y directa: “Es un varón adulto, algo desnutrido, con un peso aproximado de 140 libras y 6 pies de altura. Presenta 63 heridas de puñales en el cuerpo. En el cuello tiene 13 puñaladas. En la parte derecha del tórax tiene 50 heridas circulares. Tiene una laceración en la región frontal de la cabeza; la herida es abierta y el hueso está hundido. El rostro está azul. La lengua sobresale de la boca. A la altura de la laringe se observa un surco, blanco y hundido, más o menos de la anchura de una cuerda de colgar la ropa (de tendedero). En la disección del corazón se observó que su pared estaba completamente atravesada por puñaladas. Mi conclusión es que la causa de la muerte fueron múltiples puñaladas y asfixia debida a estrangulamiento.”

Todo un profesional Pittsburgh Phil Strauss. Si le encargan un asesinato, se asegura a conciencia de que el “contrato” está muerto y bien muerto. Vamos, ni siquiera el forense sabe de qué ha muerto al haber tantas causas probables.

En otra ocasión, en un contrato en Detroit no encontraba manera de cumplirlo pues el condenado, Harry Millman, siempre se mantenía a cubierto o entre multitudes o comía en restaurantes repletos de comensales. Es igual, nuestro asesino se harto de esperar y, cuando Millman estaba comiendo, apareció armado con dos revólveres y lo mató y, de paso, hirió a otros cinco clientes del establecimiento. O como cuando mató a un tipo al que se acusaba de quedarse el dinero de las tragaperras. Se lo cargó con 32 golpes de un pico para el hielo, lo ató a una tragaperras y lo tiró a un lago en las montañas Catskills. Una semana más tarde, el cadáver subió a la superficie del agua, hinchado por los gases de la descomposición. Pittsburgh Phil comentó a sus colegas que para conseguir que este tipo no flotara había que ser doctor en medicina. Así, nuestro experto asesino aprendió algo más sobre el caprichoso comportamiento de los cadáveres.

Que se sepa, Pittsburgh Phil solo falló en el cumplimiento de un contrato. Fue a Florida a matar a un mafioso. Lo siguió, entró en un cine y se sentó en la última fila. Pittsburgh Phil llevaba una pistola pero pensó, con razón, que usarla sería muy ruidoso. Vio un hacha en un armario contraincendios. La cogió y, cuando se acercaba a su víctima, esta se levantó y se volvió a sentar unas filas más adelante, en el centro del patio de butacas. Nuestro asesino se hartó y dejó el hacha, salió del cine y volvió a Brooklyn. Allí contó a sus amigos que el tipo era “un maldito culo inquieto”.

A veces, un experto, si no encuentra las circunstancias apropiadas, las crea. También fue en Florida donde Pittsburgh Phil Strauss tenía que asesinar a un mafioso ya entrado en años y que no hablaba ni palabra en inglés. Nuestro experto no encontraba forma de llevarle a algún lugar discreto donde asesinarlo sin testigos. Se le ocurrió una solución ingeniosa pero, también complicada. Visitó al mafioso, le enseñó una maleta llena de armas y, por señas, le pidió ayuda para cumplir un contrato. El viejo mafioso, feliz de volver a ser útil, cogió una cuerda de la maleta y llevó a Phil a un callejón oscuro muy apropiado para cumplir un contrato. Y se cumplió el contrato. Phil le quitó la cuerda de las manos y le estranguló allí mismo.

Fue Abe Reles, su compañero de negocios en Murder, Inc., quien comenzó a cantar para la policía y la fiscalía de O’Dwyer y no paró y acabó por enviar a todos sus colegas a la silla eléctrica. Así pasó hasta que el mismo Reles fue objeto de contrato y saltó desde la ventana de la habitación del hotel, la 623 del Half Moon Hotel de Coney Island, en el que vivía protegido por las fuerzas del orden.

Mientras Abe Reles volaba, Pittsburgh Phil Strauss iba a juicio el 4 de septiembre de 1939, junto a su compañero en Murder, Inc., Martin “Buggsy” Goldstein, por el asesinato por estrangulamiento del corredor de apuestas Irving “Puggy” Feinstein, cuyo cadáver apareció quemado en un solar. Phil, para salvarse en el juicio, se hizo el loco y él, tan elegante, dejó de afeitarse y lavarse, iba con la ropa sucia y sus declaraciones eran un balbuceo incoherente a la vez que mascaba sin parar la correa de un maletín. No convenció a nadie y el 12 de junio de 1941, en una calurosa noche de verano, Pittsburgh Phil Strauss, a los 31 años de edad, se sentó en la maldita silla eléctrica del penal de Sing Sing.

Referencias:

Abeijón, s.f. Peter Kürten: El Vampiro de Dusseldorf. http://www.asesinos-en-serie.com/Peter_Kurten/El_Vampiro_de_Dusseldorf.php

Cebrián, J.A. 2007. Psicokillers. Perfiles de los asesinos en serie más famosos de la historia. Ed. Nowtilus. Madrid.

Cuquerella Fuentes, A. 2004. Asesinos en serie. Clasificación y aspectos médico-forenses. Estudios Jurídicos 4135-4160.

Edelstein, A. 2014. Re-thinking typologies of multiple murders: The missing category of serial-mass murder and its theoretical and practical implications. International Journal of Emergency Mental Health and Human Resilience 16: 122-126.

Garrido Genovés, V. et al. 2015. Asesinos múltiples en un solo acto. Mente y Cerebro 72: 64-69.

Kinnell, H.G. 2000. Serial homicide by doctors: Shipman in perspective. British Medical Journal 321: 1594-1597.

Olmos, M. 2010. El vampiro de Düsseldorf. El Correo 11 septiembre.

Reouven, R. 1976. Diccionario de los asesinos. DOPESA. Barcelona. 386 pp.

Ressler, R.K. & T. Shachtman. 2005. Asesinos en serie. Ariel/Centro Reina Sofía para el Estudio de la Violencia. Barcelona. 382 pp.

Schroeder, B. 2007. Strange and Terrible!: Serial Killers. Number 1: Why did they do it? Zem Books. Marion, Indiana. 84 pp.

Sifakis, C. 2005. The Mafia Encyclopedia. Facts On File, Inc. New York. 510 pp.

Turkus, B.B. & S. Fidler. 1966. Crímen, S.A. Ed. Bruguera. Barcelona. 671 pp.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Asesinos en serie se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los asesinos
  2. Nuestros ancestros asesinos
  3. Apilando bloques: de los Lemmings a la serie armónica cruzando el Guadalquivir
Kategoriak: Zientzia

El gran encéfalo humano es un “encéfalo social”

Al, 2018-02-19 11:59

Los seres humanos actuales tenemos encéfalos muy grandes, más grandes que casi todos nuestros antecesores. De hecho, el volumen de nuestro cráneo es tres veces mayor (corregido el efecto del tamaño corporal) que el de nuestros antecesores austraolopitecinos. Las excepciones son los primeros seres humanos de nuestra especie y los neandertales, que tenían cerebros algo más grandes que nosotros. Probablemente, gracias a esos encéfalos más grandes exhibimos habilidades cognitivas valiosas, aunque no está muy claro cuál es el elemento -si es que pudiese atribuirse a uno único- que habiendo resultado de esas habilidades, ha constituido factor de éxito en términos evolutivos.

Los científicos de este campo han venido considerando tres razones posibles por las que resultan ventajosas las habilidades cognitivas de que son capaces encéfalos más grandes. Una es que esos encéfalos proporcionan a sus poseedores la capacidad para hacer frente a cambios climáticos y meteorológicos haciendo uso de tecnologías adecuadas para ello; gracias a esa capacidad se habrían podido superar los obstáculos que se derivan de variaciones temporales y geográficas del clima y que hubiesen podido limitar la continuidad de la especie en el tiempo o su distribución geográfica. De ser correcta esta hipótesis, los aumentos en el volumen encefálico se habrían producido bajo la presión selectiva de la variabilidad e impredecibilidad climática.

Otra posible razón es que las mayores capacidades cognitivas hicieron a los miembros de nuestra especie más capaces para hacer uso de diferentes fuentes de recursos alimenticios, principalmente mediante la caza, y búsqueda y recolección de alimentos; en particular, el desarrollo de variadas técnicas de caza pudo resultar clave a la hora de capturar animales de todo tipo. Esta idea se basa en la observación de que las especies con comportamientos alimenticios complejos o de intensa actividad depredadora tienden a tener volúmenes encefálicos comparativamente grandes.

Y la tercera razón es que esas habilidades cognitivas permitieron un mejor desenvolvimiento en las relaciones que se establecen con los otros en las cada vez más complejas sociedades humanas. Según sus defensores, nuestros antecesores homínidos desarrollaron adaptaciones que les permitieron un uso muy eficiente de los recursos biológicos y un mayor control de sus propias condiciones de vida. Esas capacidades propiciaron menores tasas de mortalidad y, en consecuencia, aumentos en el tamaño de las poblaciones. Un mayor número de individuos habían de competir por los recursos disponibles y, de esa forma, se dieron las condiciones que facilitaron el desarrollo de habilidades que mejoraron la cooperación dentro de unos grupos que eran cada vez de mayor tamaño. A esta tercera se la denomina “hipótesis del encéfalo social”.

Pues bien, según las conclusiones de un estudio realizado por Drew H. Bailey y David C. Geary, de la Universidad de Missouri en Columbia, es este tercer elemento el que resultó determinante. Lo sostienen basándose en un análisis del tamaño de 175 cráneos de diferentes especies de homínidos, correspondientes a variadas localizaciones geográficas y a un periodo comprendido entre 1’9 millones y 10.000 años de antigüedad. Entre las diferentes variables con las que correlacionaron el tamaño de los cráneos, fue el tamaño poblacional el que resultó ser el mejor predictor de aquél, aunque a la vista del efecto de otros predictores, las variables de carácter climático, también han podido ejercer una cierta influencia.

Referencia:

Drew H. Bailey y David C. Geary (2009): “Hominid Brain Evolution. Testing Climatic, Ecological and Social Competition Models”. Human Nature, vol. 20, p. 67-79.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El gran encéfalo humano es un “encéfalo social” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El encéfalo humano
  2. Errar es humano
  3. Sistemas nerviosos: evolución del tamaño encefálico
Kategoriak: Zientzia

Insectos agrícolas

Ig, 2018-02-18 11:59

Jorge Poveda Arias

La primera imagen que nos viene a la cabeza cuando pensamos en insectos son las típicas moscas molestas y avispas peligrosas que nos llegan a margar las tardes de verano, pero, ya lo dijo el microbiólogo descubridor de la primera vacuna contra la polio, Jonas Salk: “Si desaparecieran todos los insectos de la tierra, en menos de 50 años desaparecería toda la vida. Si todos los seres humanos desaparecieran de la tierra, en menos de 50 años todas las formas de vida florecerían”.

Los insectos son una clase de animales invertebrados de seis patas incluidos dentro del Phylum de los artrópodos. Estos últimos se caracterizan por tener el cuerpo dividido en segmentos a los cuales se les unen diferentes apéndices (patas, antenas, alas), además de tenerlo recubierto de quitina, de la cual necesitan desprenderse para crecer mediante mudas sucesivas. Las principales clases dentro de este grupo son los crustáceos, los arácnidos, los miriápodos y los insectos, diferenciándose estos últimos del resto por tener el cuerpo dividido en tres regiones (cabeza, torax y abdomen), y poseer un par de antenas, un par de alas y tres pares de patas.

La denominada como “entomología agrícola” se describe como la ciencia que estudia todos aquellos insectos capaces de relacionarse directamente con el sistema agrícola y modificarlo. Por lo tanto, dentro de esta definición se incluyen los insectos polinizadores, los fitófagos (que se alimentan de material vegetal) y los que desarrollan una simbiosis mutualista (ambos individuos obtienen un beneficio), por ejemplo, al vivir en el interior de las plantas, como es el caso de varias especies de hormigas que viven en estructuras formadas en las ramas de las acacias y la protegen si algún herbívoro pretende consumir sus hojas. Además, todos aquellos insectos que interaccionen con ellos directamente, también podrán ser objeto de estudio de esta ciencia.

Hormigas en simbiosis mutualista con acacia. Wikimedia Commons

Por lo que se refiere a la polinización de los cultivos, se calcula que el 80% la llevan a cabo insectos polinizadores como las abejas de la miel (Apis mellifera), de ahí la enorme importancia de los insectos en la productividad agrícola de alimentos. Pero no solo las abejas (melitofilia) son capaces de transportar el polen de una flor a otra provocando su fecundación, también otros insectos visitan las flores con el fin de alimentarse de su néctar, como los escarabajos (cantarofilia), las moscas (miofilia), las avispas (esfecofilia), las hormigas (mirmecofilia) o las mariposas (faenofilia y psicofilia). Por otro lado, las hormigas también pueden dispersar activamente las semillas de diferentes plantas, al perderlas en el camino de vuelta al hormiguero.

En lo concerniente a los insectos fitófagos, destacar que la mitad de ellos consumen materia vegetal en algún momento de sus vidas, clasificándose en defoliadores (comen hojas), minadores o barrenadores (forman galerías en los tallos), xilófagos (consumen madera) o chupadores (succionan los fluidos vegetales). Para que una población de insectos pase de estar simplemente presente en un cultivo agrícola a conformar una plaga es necesario que ocurran cambios en la presión que el medioambiente ejerce sobre ellos. Los insectos siguen la denominada como estrategia biológica de la “r”, basada en tener gran cantidad de descendientes de los cuales muy pocos llegarán a la edad adulta para reproducirse. Esto es debido a la presión del medio, que incluye, la temperatura, la humedad, el viento, los depredadores etc. Si el ser humano disminuye la presión que estos factores externos ejercen sobre los insectos fitófagos, por ejemplo, aumentando la temperatura debido al cambio climático o esparciendo por el cultivo insecticidas que acaben con todos sus enemigos naturales, la población de insectos perjudiciales no dejará de aumentar y su daño sobre las plantas será tan elevado que conformarán una plaga.

Myzus persicae es el nombre científico con el que se le conoce al pulgón verde del melocotonero. Este pequeño insecto se incluye dentro del grupo de los hemípteros y se alimenta introduciendo un pico en el interior de las plantas y absorbiendo sus fluidos nutritivos. Su ciclo de vida comienza en árboles del género Prunus (ciruelos, cerezos, melocotoneros, almendros) donde las hembras pusieron sus huevos el otoño anterior. Estos huevos eclosionan justo antes de empezar la primavera y surgen pequeños pulgones verdes sin alas que se alimentan sobre estos árboles. Tras un par de generaciones, los individuos que nacen de los nuevos huevos ya presentan alas y se dispersan, atacando a prácticamente cualquier planta que encuentren a su paso, incluyendo cultivos hortícolas. Sobre estos nuevos hospedadores desarrollan varias generaciones, volviendo a los árboles Prunus en septiembre. Esta plaga es capaz de provocar graves daños a los cultivos, al atacar hojas, flores y frutos, produciendo su secado o manchas que dificultan su venta. Además, al alimentarse de gran cantidad de plantas diferentes es transmisor de más de 100 virus vegetales distintos.

La mosca de la fruta (Ceratitis capitata) es un díptero algo más pequeño que la mosca doméstica (Musca domestica) con colores muy llamativos. El verdadero problema en la agricultura lo causan sus larvas, al alimentarse de los frutos de cítricos y frutales de pepita y hueso. En primavera surgen las moscas adultas que, tras reproducirse, pondrán sus huevos en los frutos que encuentren. Entonces la larva nacerá e irá alimentándose de la pulpa del fruto hasta que alcance su máximo tamaño y se transforme en mosca adulta. Los frutos atacados muestran graves daños, caracterizados por una pulpa semilíquida en la cual se desarrollan diferentes hongos.

Mosca de la fruta (Ceratitis capitata). Wikimedia Commons

El escarabajo de la patata (Leptinotarsa decemlineata) es un coleóptero cuyo adulto es redondeado y listado en amarillo y negro. Por otro lado, las larvas son de color rojo-amarillo, muy blandas y gibosas. Aunque es un insecto que puede alimentarse de las hojas de cualquier solanácea (tomate, berenjena) prefiere la patata sobre cualquier otra planta. Son animales muy voraces, que consumen el tejido vegetal hasta dejar a las plantas totalmente defoliadas, disminuyendo enormemente la formación de los tubérculos, tanto en número como en tamaño. Como curiosidad, destacar que estos escarabajos se encontraban aislados en la zona de las Montañas Rocosas, alimentándose únicamente de una especie silvestre de solanácea, pero con la expansión del cultivo de la patata por todo el territorio americano estos insectos salieron de su aislamiento, aumentando enormemente su población y estando presentes, en la actualidad, en todo el hemisferio norte.

Larva del escarabajo de la patata comiendo hoja. Wikimedia Commons

El control biológico se define como la utilización de organismos vivos con el fin de disminuir la población de alguna especie que cause perjuicios al hombre. En este sentido, contra los insectos plaga de los cultivos agrícola existen diferentes estrategias, como son la utilización de microorganismos entomopatógenos (hongos, bacterias, virus y nematodos) o la utilización de otros insectos. Las estrategias seguidas en la utilización de insectos que acaben con otros insectos plaga se basan en conservar a los enemigos naturales presentes en el propio cultivo, incrementar el número de estos enemigos por liberación de nuevos individuos, o introducir nuevos enemigos exóticos.

Larva de mariquita cazando pulgones. Wikimedia Commons

Existen muchos ejemplos de éxito dentro de esta forma sostenible de reducir las plagas agrícolas, muchos de los cuales pueden ser adquiridos de forma comercial por los agricultores. Por ejemplo, contra los pulgones existen depredadores muy efectivos como las mariquitas (Coccinellidae), cuyas larvas y adultos atacan activamente a todos los pulgones que encuentran a su paso, consumiéndolos por completo. También contra los pulgones, existen los denominados como insectos parasitoides, los cuales ponen sus huevos en el pulgón y la larva que nazca lo irá devorando internamente, dejando únicamente su cutícula externa. Dentro de este grupo destacan pequeñas avispas, como Lysiphlebus testaceipes.

Avispilla introduciendo su huevo en pulgón. Wikimedia Commons

La importancia que los insectos tienen sobre el sistema agrícola es de elevada relevancia, no sólo vistos como un problema, sino también como medios para aumentar su productividad, al favorecer la polinización o atacar directamente a otros insectos perjudiciales.

La ciencia que no es divulgada hacia la sociedad es como si no existiera

Referencias y más información:

Avilla, J. (2005). El control biológico de plagas y enfermedades. La sostenibilidad de la agricultura mediterránea. Universitat Jaume I de Castellón.

Barrientos, J. A. (Ed.). (2004). Curso práctico de entomología (Vol. 41). Univ. Autònoma de Barcelona.

Dajoz, R. (2001). Entomología forestal: los insectos y el bosque: papel y diversidad de los insectos en el medio forestal. Mundi-prensa.

Gillott, C. (2005). Entomology. Springer Science & Business Media.

Jacas, J. A., & Urbaneja, A. (Eds.). (2008). Control biológico de plagas agrícolas. Phytoma.

Moreno, A. A. & Álvarez, C. S. (2005). Entomología agraria: los parásitos animales de las plantas cultivadas. Diputación Provincial de Soria.

Planelló M.R., Rueda M.J., Escaso F., Narváez I. (2015). Manual de entomología aplicada. Sanz & Torres.

Sobre el autor: Jorge Poveda Arias está realizando su tesis doctoral sobre la interacción planta-microorganismo en el grupo de investigación ‘Fitopatología y control biológico’ del Centro Hispano-Luso de Investigaciones Agrarias (CIALE) – Universidad de Salamanca

El artículo Insectos agrícolas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. “Las plantas transgénicas y los retos agrícolas del siglo XXI” por F. García Olmedo
  2. Subproductos agrícolas para mantener la calidad nutricional de los lácteos
  3. Una hiperlente que permite ver un virus en la superficie de una célula viva
Kategoriak: Zientzia

Naukas Bilbao 2017 – Álex Méndez: Luz de luna

La, 2018-02-17 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Alex Méndez se dedica profesionalmente a simular la luz y sus efectos. En esta charla aplica sus conocimientos para desmontar las bases de dos de las conspiranoias que afirman que el hombre no llegó a la Luna.

Alex Méndez: Luz de Luna

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Álex Méndez: Luz de luna se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
  2. Naukas Bilbao 2017 – Francisco R. Villatoro: El espín para irreductibles
  3. Naukas Bilbao 2017 – Teresa Valdés-Solís: Limpia, fija y da esplendor
Kategoriak: Zientzia

BertsoBot, el robot versolari

Or, 2018-02-16 17:00

BertsoBot. Imagen: Nagore Iraola. UPV/EHU

Una de las líneas de trabajo del grupo de investigación Robótica y Sistemas Autónomos (RSAIT) de la Facultad de Informática de la UPV/EHU consiste en progresar en la interacción entre humanos y máquinas o robots. Uno de sus principales proyectos es el denominado BertsoBot, “en el que ponemos a los robots a cantar bertsos”, comenta el líder del grupo, Basilio Sierra. El grupo de investigación trabaja en múltiples aspectos de ese proceso: la comprensión de la señal de voz, la visión a través del ordenador, la navegación, la generación de nuevas melodías musicales, etc.

La investigadora y doctoranda Izaro Goienetxea trabaja en dos de estos temas: la generación automática de música y la clasificación automática de la música. La investigadora señala que ya hay numerosos métodos de generación automática de música, basados en modelos gramaticales o estadísticos; pero en ellas “habría que tener en cuenta la coherencia de las melodías, para generar melodías fáciles de comprender. Habría que tener la seguridad de que dentro de la melodía se repite algún segmento, tanto en lo que respecta a las notas como en otros niveles más complejos de la melodía”.

La labor de esta investigadora comenzó en la generación musical, pero los resultados la llevaron a estudiar las formas de clasificarla. Goienetxea destaca el interés que tiene la clasificación, ya que “en Internet cada vez hay más música al alcance, y cada vez está adquiriendo más importancia el poder realizar la clasificación de la música de forma automática, y poder organizar grandes recopilaciones musicales”.

En un artículo publicado por la revista PLOS ONE, el grupo de investigación ha presentado dos métodos fruto de este trabajon. Por un lado, un método para clasificar la música en función del género, basado en una forma nueva de representar la música lograda a través de la agrupación de melodías de bertsos semejantes. Con este método, “analizamos una melodía, y determinamos a qué se parece, es decir, en qué género podemos clasificarla”, explica Goienetxea. Esos agrupamientos son utilizados, asimismo, para generar de forma automática nuevas melodías del estilo de las que forman ese conjunto. “Las nuevas melodías son parecidas a las originales”, concreta la investigadora. “Y si se incluye en el sistema más de un modelo musical, creará otra melodía nueva, una nueva versión, que será una mezcla de los diferentes géneros”, añade Sierra.

En el desarrollo de su trabajo, la investigadora se ha servido de un corpus o conjunto de melodías de bertsos. “Proponemos la forma en la que se pueden representar los bertsos, y, posteriormente, cómo clasificar esas melodías. En nuestro grupo hemos conseguido el método, que puede ser aplicado en cualquier otro tipo de corpus, o de música”, declara Goienetxea.

Según la investigadora, han conseguido generar de forma automática melodías de bertsos, “pero este método puede servir para aplicaciones de musicoterapia, el aprendizaje de composición musical, o también en los programas de composición, entre otros”.

Referencia:

I. Goienetxea, J. M. Martínez-Otzeta, B. Sierra, I. Mendialdua Towards the Use of Similarity Distances to Music Genre Classification: a Comparative Study (2017) PLoS ONE doi: 10.1371/journal.pone.0191417

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo BertsoBot, el robot versolari se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Traducción automática neuronal sin supervisión
  2. Estroncio en la leche
  3. Fotovoltaicos siempre a máxima potencia
Kategoriak: Zientzia

La movilidad contraintuitiva

Or, 2018-02-16 12:00

El 30 de marzo del pasado año un incendio presuntamente provocado provocó el colapso de un viaducto en la Interestatal 85 a su paso por Atlanta. Cuatro kilómetros de uno de los sentidos permanecieron cortados al tráfico hasta el verano mientras se reparaba. La I-85 es la vía que más tráfico desplaza en la ciudad de la Coca-Cola y se preveía un auténtico caos circulatorio y de atascos. La realidad es que no pasó nada incluso el tráfico se redujo en las vías alternativas. ¿Qué estaba pasando?

Para los que trabajamos en cuestiones de movilidad (la de mover personas, no la de los teléfonos) existen algunos conceptos que cuesta hacer entender a los gestores, pero sobre todo al gran público, y que son fundamentales para comprender por qué esta disciplina es tan compleja de gestionar. Estos conceptos son totalmente contraintuitivos y hace falta mucha pedagogía y buena comunicación para tomar la decisión correcta.*

El error de acabar con los atascos con más infraestructuras

Cuando tenemos un atasco recurrente en una vía, la solución más sencilla suele ser pensar en su posible ampliación. Cuando esta ampliación se ejecuta, a los pocos meses se vuelven a producir los mismos atascos y no hemos solucionado nada.

Al ampliar una vía con más carriles, mucho de los usuarios que no se planteaban usar el coche por los continuos atascos, ahora si se lo plantean porque perciben el tráfico fluido. Pero los atascos no se debían a que la infraestructura estuviera mal dimensionada sino a otros factores como, por ejemplo, acabar en el cuello de botella de una ciudad. Como más usuarios se plantean coger el coche al final tenemos un vía con más coches pero nuevamente atascada. Es lo que se llama demanda inducida y es un error que hemos estado cometiendo desde los años 50 del siglo pasado.

23 carriles para el mayor atasco del mundo | Wikipedia

Pero si la demanda se puede inducir, ¿se podrá también disipar? Sí, y eso fue exactamente lo que ocurrió en la I-85. Al preverse más tráfico con menos espacio, las personas no solo tomaron rutas alternativas sino que lo hicieron fuera de sus horarios habituales. Incluso se plantearon si ir en coche era necesario. Solo cogían el coche aquellos que lo necesitaban. Y tenemos otro ejemplo más cercano en el famoso cierre de la Gran Vía al tráfico por Navidad que causó menos tráfico y no más en las vías no afectadas por los cortes como la M-30, por ejemplo.

Esto no funciona siempre, si reduces carriles o cortas tráfico en las vía diseñadas precisamente para ser alternativas a las congestionadas solo vas a conseguir aumentar los atascos, como se ha podido comprobar en Murcia al quitar un carril por sentido en sus rondas exteriores.

Si queréis saber más sobre el tráfico disipado os recomiendo leer el documento «Reclamando las calles de la ciudad para las personas» de la Comisión Europea.

En la cantidad está la seguridad

¿Qué ocurre si paulatinamente fuéramos aumentando el número de ciclistas en una ciudad? ¿Aumentarían los accidentes de forma proporcional? Eso es lo que nos diría la lógica pero los accidentes ni siquiera se mantienen estables sino que disminuyen. Y todo esto no es achacable por completo a la creación de vías segregadas y seguras sino que hay otro factor implicado.

Este factor se llama “seguridad por número” y va relacionado con nuestro comportamiento al volante y la costumbre que tengamos de encontrarnos imprevistos. En una ciudad donde los ciclistas sean algo testimonial, los conductores se comportarán como si estos no existieran, no tomarán las precauciones necesarias para evitar accidentes. Sin embargo, conforme el número de ciclistas va aumentando los conductores interiorizarán una serie de hábitos para evitar los accidentes: frenarán en las intersecciones, abrirán las puertas mirando si no viene nadie (el caso extremo es la “apertura a la holandesa”, con la manos contraria), reducirán su velocidad…

El caso de Sevilla con la ampliación de sus carriles bicis es un buen ejemplo. En el año 2006 la ciudad contaba con 12 km de carril bici, 3 millones de desplazamiento y se producían 16 accidentes coche-bici cada millón de viajes. Siete años después la red se había ampliado hasta llegar a los 152 km, los desplazamientos se habían multiplicado por 5,4, 16 millones de desplazamientos fluían por sus calles y los accidentes habían disminuido hasta los 6 por millón (1).

Otro ejemplo de ello es la ciudad de Nueva York, que va camino de los 140 millones de viajes y ha reducido su accidentalidad ciclista un 71 % en 20 años. Y esto es algo que se mantienen más o menos por todo el mundo: donde hay más ciclistas hay menos accidentes (2).

Fuente: Departamento de Transporte de Nueva York

Menos carriles para mover a más personas

Cuando pensamos en vehículo motorizados, nos movemos de forma muy ineficiente. La cantidad de área que necesita un coche para moverse en una ciudad es desorbitada si tenemos en cuenta que la media de ocupación es 1,2 personas por vehículo. Quitarle carriles a los coches hace que más personas puedan circular por esa calle.

Volvamos al ejemplo de la Gran Vía. En una situación ideal de tráfico, los dos carriles dedicados a los coches moverían unos 1200 vehículos/hora, unos 1500 pasajeros/hora. Si destinamos ese espacio a peatones en una situación de flujo peatonal denso como el que se vive en Navidad estaríamos hablando de 13.000 peatones/hora (si nos vamos a las situaciones previas al colapso tenemos 25.000 peatones/hora). Destinar esos dos carriles a peatones multiplica por 10 el número de personas que circulan por ellos.

La imagen de la izquierda fue tomada originalmente por @ClaraCarlille; la imagen derecha está extraída de la cuenta de @hcjulio

Queda mucho más claro en la siguiente gráfica que la NACTO incluyó en su «Guía global para el diseño de calles» usando los datos de circulación de Estados Unidos y Canadá. Cuando destinamos más espacios a medios de desplazamientos que mueven a más personas por área, el tránsito que puede soportar una calle se dispara.

Fuente: NACTO

En resumen: ampliar o disminuir la autopistas puede tener el efecto contrario al deseado; cuantos más ciclista haya en una ciudad menor será el número de accidentes y quitar carriles de coches en una calle hace que aumente el número de personas que pueden circular por ella.

Cuando leas que tu ayuntamiento va a realizar esta o aquella actuación y creas que va a suponer caos, colapso, víctimas mortales, apocalipsis y atascos de tráfico párate a pensar si en realidad la situación no será la contraria y te están haciendo un favor tanto si vas a pie como si vas en coche.

Este post ha sido realizado por Txema Campillo (@Txemacg) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Nota del autor: *Luego existen otros mitos contraintuitivos como que los vehículos privados no están subvencionados o que ocupar el espacio público no cuesta dinero pero entran más en el terreno de la economía y no los trataré aquí.

Referencias y más información:

(1) On the effect of networks of cycle-tracks on the risk of cycling. The case of Seville. Marqués y Hernández-Herrador, Accidents; analysis and prevention. 2017 May;102:181-190 https://www.ncbi.nlm.nih.gov/pubmed/28319756

(2) Safety in numbers: more walkers and bicyclists, safer walking and bicycling. Jacobsen, P. L., Injury Prevention. 2003;9:205–209 https://ecf.com/sites/ecf.com/files/Safety_in_Numbers_JacobsenPaper.pdf

El artículo La movilidad contraintuitiva se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Por qué no nos basta con el viento
  2. Del zumo de naranja a la selva, un ejemplo de reciclaje extremo
  3. La carrera hacia la supremacía cuántica
Kategoriak: Zientzia

La evaluación y los deberes escolares

Og, 2018-02-15 17:00

¿Cómo se tratan algunos de los trastornos cognitivos más frecuentes en las aulas? ¿Son efectivos los programas y herramientas del sistema educativo actual? ¿Carecen de eficacia algunas de las prácticas educativas más populares?

Estas son algunas de las cuestiones que se debatieron en la jornada “Las pruebas de la educación”, que se celebró el pasado 2 de febrero de 2018 en el Bizkaia Aretoa de Bilbao. El evento, en su segunda edición, estuvo organizado por la Cátedra de Cultura Científica de la UPV/EHU y el Consejo Escolar de Euskadi, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT).

Las ponencias de los expertos que expusieron múltiples cuestiones relacionadas con la educación, basándose siempre en las pruebas científicas existentes. Los especialistas hicieron especial hincapié en destacar cuál es la mejor evidencia disponible a día de hoy con el objetivo de abordar las diferentes realidades que coexisten en las aulas y en el sistema educativo en general.

“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde diversos ámbitos de la actividad científica. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.

Partiendo de la premisa de que en educación existe una brecha profunda entre la investigación y la práctica educativa, la doctora en psicología Marta Ferrero aborda los pormenores de estrategias que se han convertido en la actualidad en “enemigos públicos” del sistema: la evaluación y los deberes escolares. Ferrero explica, desde la evidencia, cómo estas prácticas educativas, utilizadas correctamente, pueden constituir una auténtica herramienta aliada para el profesorado.

La evaluación y los deberes escolares: ¿Enemigos públicos o fieles aliados?

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo La evaluación y los deberes escolares se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. A favor de la evaluación escolar objetiva
  2. Autismo y educación: problemas y pautas en el aula
  3. Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
Kategoriak: Zientzia

Lo que la magia esconde

Og, 2018-02-15 11:59

Muchas personas creen en algún tipo de magia, probablemente incluso usted, que se considera superescéptico pero aprieta varias veces el botón del ascensor porque así llegará antes, o ‘toca madera’ golpeándose la cabeza on los nudillos cuando habla de algo que desea ocurra. Nuestro cerebro es una enloquecida máquina de establecer conexiones causa-efecto entre distintos aspectos de lo que ocurre a nuestro alrededor, igual que una parte de ese cerebro es una enajenada máquina de encontrar caras en cada agrupación de dos puntos con una raya o hueco debajo que nos entre por la vista. Si una vez hicimos el pino aburridos porque el autobús no llegaba y el autobús llegó ya nada podrá quitarnos la profunda convicción de que hacer el pino atrae a los autobuses por mucho Martin Gardner y Carl Sagan que hayamos leído y aunque jamás lo digamos en voz alta. Es un defecto de fábrica de la Humanidad y sólo podemos saberlo y tratar de limitar sus efectos deletéreos en lo posible.

Para lo cual hay una reflexión que nos puede ser útil, una herramienta para ayudarnos a luchar contra esa desaforada tendencia que tenemos a asignar causas a cualquier efecto, que consiste en recordar que la magia esconde una desmesurada, una increíblemente desmedida arrogancia, por no citar chulería, y un egocentrismo inconmensurable con cualquier sistema de medida.

Porque en el fondo todos los tipos de magia se reducen a esta afirmación: el Universo entero, el Cosmos todo, está dispuesto a suspender las reglas que se aplican a todo el resto de lo existente para favorecer MIS intereses personales. ¿Qué es un hechizo al estilo Harry Potter? Es el Universo obedeciendo a MIS palabras. ¿Qué es un milagro? Es el Cosmos suspendiendo sus leyes para MÍ por intervención de MI divinidad o santón favorito. ¿Qué es el Karma? Es Todo lo que Es ocupándose de compensar alguna maldad que alguien me ha hecho a MÍ con un castigo conmensurado con su ofensa. El horóscopo son los planetas gobernando MI vida; la homeopatía es el agua cambiando las propiedades que caracterizan a esta sustancia en todo el resto del espacio conocido cuando se aplica a MÍ. La magia no es más que el cosmos a MI servicio particular.

Y no hablemos de las religiones, esas que postulan que existen seres lo bastante poderosos como para crear Todo lo que Existe que no tienen otra cosa que hacer que preocuparse de que cumplamos con el número de genuflexiones correcto, la dieta adecuada y el empleo inocente de las manos debajo de las cobijas de nuestras camas. Tanto la religión como la magia asumen que todos y cada uno de nosotros somos tan importantes en el devenir cósmico que todo lo demás, literalmente, gira alrededor de nuestras necesidades, pasiones, intereses y acciones; hasta tal punto que las entidades más poderosas o las leyes más universales sólo se preocupan de cada uno de nosotros.

Ante tamaño empeño la palabra arrogancia se queda corta; quizá pueda emplearse el término yiddish ‘chutzpah’, que designa una desvergüenza de tan exagerado calibre que no queda por menos que admirarla incluso cuando se rechaza. De manera que cuando alguien le sugiera que rezar a determinado santo, realizar determinado ritual, alinear algunos cristales concretos o esquivar a un gato de determinado color su suerte va a cambiar, pregúntese: ¿Soy YO lo bastante importante como para que el Cosmos suspenda sus reglas de funcionamiento por mí? ¿No sería el colmo de la arrogancia pensarlo?

Y si la respuesta es sí, recuerde: eso es lo que hay debajo de la magia. Un egocentrismo que no cabe en el Sistema Solar.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo Lo que la magia esconde se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas14: Magia y neurociencia
  2. La magia y el nacimiento de la ciencia moderna
  3. Una de mates: Magia matemática
Kategoriak: Zientzia

Corrimientos, diatomeas y tsunamis

Az, 2018-02-14 17:00

Efectos del tsunami de Tokohu, Japón, en 2011.

¿Cómo prevenir el efecto de los tsunamis? Aparte de dar la alarma cuando se detecta un terremoto, otra forma de hacerlo sería conseguir lo mismo que se tiene en las montañas nevadas en invierno: conocer qué zonas y en qué condiciones hay riesgo de aludes. Increíblemente para conseguirlo hay que estudiar el clima del Jurásico. Y es que na reciente investigación puede que haya encontrado qué indicios buscar en el fondo del mar.

Los mayores corrimientos de tierra del planeta no ocurren en tierra firme, sino en el fondo marino. Estos mega-corrimientos pueden mover miles de kilómetros cúbicos de material y, a veces, provocar tsunamis. Sin embargo, sorprendentemente, ocurren en pendientes casi planas, de menos de tres grados de inclinación. ¿Cómo es esto posible? Morelia Urlaub, del Centro de Investigación Oceánica Geomar Helmholtz (Alemania)y sus colegas puede que hayan descubierto la respuesta: una capa de microfósiles silíceos de unas algas unicelulares llamadas diatomeas que aparecieron en el Jurásico.

Diatomeas al microscopio

Este trabajo es el primero en identificar la capa débil responsable de un mega-corrimiento submarino. Aunque la naturaleza de estas capas débiles críticas ha sido muy debatida, su estudio ha sido casi imposible porque, en general, se destruyen durante los corrimientos de tierra.

Urlaub estaba compilando datos de perforaciones oceánicas desde 1980 del Ocean Drilling Program cuando se dio cuenta de que la mayoría de sus datos muestreaba el lecho marino justo en el borde del corrimiento Cap Blanc, un mega-corrimiento de 149,000 años de antigüedad frente a la costa del noroeste de África. Correlacionó esos datos con datos de reflexión sísmica de alta resolución registrados en la misma área en 2009. Juntos estos datos indicaban la presencia capas ricas en diatomeas, de hasta diez metros de grosor, que iban directamente desde la zona muestreada hasta la base de las capas de corrimiento en el Cap Blanc.

Además, cada capa de diatomeas tenía encima una capa de sedimentos ricos en arcilla. La presencia de esta arcilla es la clave que llevó al equipo a una solución del problema. Las capas de diatomeas son muy compresibles y ricas en agua, a medida que aumenta la presión el agua sería “exprimida” desde la capa de diatomeas hacia la arcilla. En última instancia, la arcilla o la interfaz entre la arcilla y las diatomeas falla, lo que hace que los sedimentos que están encima se deslicen aunque la pendiente sea muy pequeña.

En el corrimiento de Cap Blanc el fondo marino tiene una inclinación de solo 2,8 grados. Sin embargo, cuando se desprendió, el corrimiento movió más de 30 kilómetros cúbicos de material (el equivalente a 30.000 veces el volumen interior del estadio Santiago Bernabéu) y se extendió al menos 35 kilómetros. Otro mega-corrimiento submarino hace 8.500 años frente a Noruega movió uns impresionantes 3.000 kilómetros cúbicos, causando un tsunami terrible. Y algunos científicos especulan que el tsunami de Tohoku (Japón) de 2011, el que causó el desastre de Fukushima, pudo haber sido amplificado por un mega-corrimiento submarino.

Aunque corrimientos de esta magnitud no ocurren muy a menudo, su tamaño los hace bastante significativos. Se cree que una quinta parte de todos los tsunamis puede tener su origen en mega-corrimientos submarinos. Si las capas de diatomeas son un factor importante, conocer en qué lugares las condiciones paleoclimáticas en el Jurásico pudieron favorecer el crecimiento de estas algas podría ayudar a crear un mapa de riesgos de mega-corrimientos submarinos y poder vigilarlos para así poder dar las alarmas de tsunami lo antes posible.

Referencia:

M. Urlaub, Jacob Geersen, Sebastian Krastel, and Tilmann Schwenk. (2018) Diatom ooze: Crucial for the generation of submarine megaslides? Geology: 10.1130/G39892.1.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Corrimientos, diatomeas y tsunamis se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La presencia de sales podría hacer que exista una tectónica de placas en Europa
  2. Escaneando la Tierra con neutrinos solares
  3. Ox Bel Ha, un ecosistema tropical alimentado por metano
Kategoriak: Zientzia

¡Nos encanta Fibonacci!

Az, 2018-02-14 11:59

Sí, no hay duda, nos encanta Fibonacci… bueno, mejor dicho, nos encanta la sucesión de Fibonacci

Mi compañero Raúl cambió los conejos por las vacas en su entrada Las vacas de Narayana, la versión hindú de los conejos de Fibonacci, y en Cronología porcina hablé de la sucesión de Vauban que modeliza la reproducción de cerdos y cerdas en lugar de la de los mamíferos de largas orejas.

En esta entrada, cambiamos la reproducción por la poesía, sin abandonar la sucesión de Fibonacci…

Las relaciones numéricas existen en la naturaleza: la forma en la que un puerro se envuelve sobre sí mismo desde el interior, y la parte superior de un girasol, ambas están basadas en estas series.

Inger Christensen

Una de las obras más conocidas de la escritora y poeta danesa Inger Christensen (1935-2009) es Alfabet (1981), un poemario traducido al castellano por Francisco J. Uriz en Alfabeto (Ed. Sexto Piso, edición bilingüe danés-español, 2014).

La editorial presenta el libro del siguiente modo:

‘Alfabeto’ es uno de los libros esenciales de la poesía europea del siglo XX. Hasta hoy era, de forma incomprensible, inédito en nuestra lengua. Es un largo poema cuya forma sigue dos principios de composición. El primero es la secuencia de Fibonacci. Es decir, cada verso es la suma de los dos precedentes: 0, 1, 1, 2, 3, 5, 8, 13… El segundo es el alfabeto. Cada poema, y las palabras que utiliza, sigue el orden de las letras: a, b, c, d, e. Sin embargo, bajo esta forma aparentemente estricta, hay lugar para el azar.

En efecto, el poemario está basado en el alfabeto –cada una de sus catorce series comienza y está dominada por una letra, de la A [albaricoquero] a la N [noche]– y la sucesión de Fibonacci –cada poema posee tantos versos como el término correspondiente de esta sucesión, prescindiendo de los dos primeros–. Además, la división de las estrofas muestra también algunos de los términos de la sucesión de Fibonacci.

Dominan en el poemario los conceptos de existencia y destrucción. La autora enumera, confronta, describe y analiza. Las continuas repeticiones, como si de un eco se tratara, inciden en el encanto de la naturaleza y en los estragos producidos sobre ella por la acción del ser humano.

Estos son los primeros versos de Alfabeto:

1-A
los albaricoqueros existen, los albaricoqueros existen

2-B
los helechos existen; y zarzamoras, zarzamoras
y bromo existen; y el hidrógeno, el hidrógeno

3-C
las cigarras existen; chicoria, cromo
y limoneros existen; las cigarras existen;
cigarras, cedros, cipreses, cerebelo

Las razones del agua (Adeshoras, 2017) es un poemario del escritor Francisco Javier Guerrero (1976), dividido en tres partes –Valle en V, Vega y Estuario– y cuyos versos se estructuran siguiendo los quince primeros términos de la sucesión de Fibonacci.

La editorial presenta el libro del siguiente modo:

‘Las razones del agua’ es un único poema, escrito sin puntuación y sin mayúsculas, dividido en tres partes que aluden al curso de un río: valle, vega y estuario. La unidad, la aspiración totalizadora, ese anhelo por decirlo todo, está presente desde el principio del volumen: “voy a escribir la vida / que yace con nosotros o el lenguaje la ciencia / hoy me voy a morir escribiendo la historia”. Con ese propósito, Francisco Javier Guerrero articula quince secuencias que coinciden con los primeros términos de la sucesión de Fibonacci. Así, la matemática es uno de los ejes vertebradores de esta obra, que gravita también alrededor de reflexiones metapoéticas, el compromiso comunitario y la memoria personal.

La primera parte –Valle– se organiza a partir de los once primeros números de la sucesión, es decir, sus estrofas contienen 0, 1, 1, 2, 3, 5, 8, 13, 21, 34 y 55 versos respectivamente. La segunda parte –Vega– continúa con los tres números 89, 144 y 233 de esta sucesión; ellos dictan la cantidad de versos que constituyen los tres poemas de Vega. Los 377 versos de Estuario son los que cierran el poemario, y nos transportan a una página desplegable que revela una bellísima ilustración de la bióloga y artista Lola Castillo (1971).

La sucesión de Fibonacci no sólo está presente en la estructura del texto. El poeta alude a la manera de construirla, y menciona algunos términos relacionados con ella, como las espirales, los caracoles logarítmicos, la divina proporción, el número phi, los girasoles, etc.

El séptimo poema de Las razones del agua dice así:

8

qué será de nosotros si nos acomodamos

al silencio ovalado de las tumbas abiertas

al dolor de la infancia a la lluvia de otoño

al lapso horizontal que equilibra un presente

convulso y lapidario con su abrasador péndulo

cómo se puede ser siendo solo uno mismo

si somos la delgada nervadura en las hojas

de los espinos blancos su olor y su reflejo

¿Conoces más poemarios en los que la sucesión de Fibonacci sea su ‘hilo conductor’?

Más información:

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo ¡Nos encanta Fibonacci! se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los números (y los inversos) de Fibonacci
  2. Las vacas de Narayana, la versión hindú de los conejos de Fibonacci
  3. La magia del teorema de Zeckendorf
Kategoriak: Zientzia

Sistemas respiratorios: transporte de dióxido de carbono

Ar, 2018-02-13 17:00

El dióxido de carbono es un producto terminal del metabolismo energético aerobio. Su presencia en los fluidos internos a altas concentraciones altera el pH, por lo que ha de ser eliminado. El CO2 sigue la misma ruta que el O2, aunque en sentido contrario. Pasa de las células a la sangre u otros fluidos internos y de ahí al exterior a través de la pared corporal o del órgano respiratorio.

Sin embargo, el transporte de dióxido de carbono se produce de forma muy diferente a como ocurre el del oxígeno. El CO2 puede hallarse en la sangre (1) en forma disuelta, (2) combinado con proteínas sanguíneas en forma de compuestos carbamino, y (3) combinado químicamente con el agua en forma de ión carbonato o bicarbonato.

Cuando el CO2 se disuelve en disoluciones acuosas experimenta una serie de reacciones:

CO2 + H2O ⇌ H2CO3

H2CO3⇌ H+ + HCO3–

HCO3–⇌ CO32- + H+

En condiciones fisiológicas, el ión carbonato se encuentra en los fluidos de la mayoría de animales en concentraciones muy bajas, por lo que a los efectos que nos interesan aquí podemos limitarnos a la siguiente reacción:

CO2 + H2O ⇌ H+ + HCO3–

La concentración de dióxido de carbono disuelto en una disolución acuosa dependerá, como ocurre con el oxígeno, de su tensión parcial y vendrá determinada por los principios de la solubilidad de los gases. Sin embargo, la concentración de bicarbonato va a depender de la presencia de sustancias tamponadoras (amortiguadoras) del pH.

Aplicando la ley de acción de masas a la ecuación anterior tenemos que [HCO3–] [H+]/[CO2] = K, siendo K una constante.

Dado que [CO2] se mantiene constante, también lo es el producto [CO2] K, por lo que la expresión anterior indica que la concentración del ión bicarbonato ([HCO3–]) dependerá de la concentración de protones ([H+]), de manera que cuanto menor sea esta, mayor será aquella. Por lo tanto, si la concentración de protones se mantiene baja, el bicarbonato podrá alcanzar una concentración relativamente alta. Por esa razón, si en la disolución hay sustancias tamponadoras efectivas, la concentración de protones podrá mantenerse relativamente baja y, en consecuencia, podrá alcanzarse una alta concentración de bicarbonato.

Las reacciones de amortiguación pueden representarse de la siguiente forma: HX ⇌ H+ + X– , donde X– representa a los compuestos o grupos químicos que se combinan con los protones, amortiguando el pH de ese modo. Así, cuando se añaden protones a una solución tamponada, la reacción se desplaza a la izquierda, lo que ayuda a mantener a bajas concentraciones la concentración de H+. Y por otro lado, si se retiran protones de la disolución, la reacción se desplazará hacia la derecha, liberándose aquellos del compuesto HX. Como en el caso anterior, de acuerdo con la ley de acción de masas tenemos que [H+] [X–]/[HX] = K’, siendo K’ otra constante.

Se da la circunstancia de que la efectividad de una reacción amortiguadora es máxima cuando la mitad de los grupos X– están combinados con los H+ y la otra mitad no lo están; en otras palabras, el cambio que sufre el pH al añadir o retirar protones de la disolución es mínimo cuando [HX] = [X–]. Bajo esas condiciones [H+] = K’, por lo que la máxima capacidad tamponadora se produce cuando pH = pK1. Así pues, si se aplica este principio a una sangre cualquiera, las reacciones de amortiguación relevantes son aquellas cuyos valores de pK’ se encuentran próximos al pH de la sangre.

La sangre de los mamíferos y de la mayor parte de los demás vertebrados es muy eficaz amortiguando el pH porque contiene abundantes grupos tampón, la mayor parte en la hemoglobina. Los grupos con valores adecuados de pK’ son los amino terminales de las proteínas sanguíneas y, sobre todo, los grupos imidazol, que se encuentran allí donde en una estructura proteica haya histidina. Son estos últimos los principales grupos amortiguadores, y son tan efectivos que retiran de la disolución el 99.999% de los protones que se producen. Gracias a ello, la sangre tiene capacidad para captar importantes cantidades de dióxido de carbono, ya que la mayor parte del mismo se encuentra en forma de ión bicarbonato.

También en el caso del CO2, como en el del O2, cabe hablar de curvas de disociación o curvas de equilibrio, aunque la forma y el significado de estas difiere de forma notable de las correspondientes para el oxígeno. Como se ha señalado más arriba, además de la fracción que se combina con el agua para dar iones bicarbonato y protones, la sangre contiene CO2 en forma disuelta y también en forma de compuestos carbamino. A las tensiones parciales de CO2 propias de la sangre arterial y de la sangre venosa, su concentración total (disuelto o en forma de otra especie química) no se aproxima a un valor asintótico máximo como lo hace el O2, sino que mantiene una tendencia creciente.

En las especies cuya sangre experimenta el efecto Bohr, la curva de disociación del CO2 es dependiente del grado de oxigenación de la sangre. A este fenómeno se le denomina efecto Haldane y consiste en una menor afinidad para con el CO2 de la sangre oxigenada que de la desoxigenada. Esto quiere decir que cuando la sangre llega al órgano respiratorio y empieza a captar oxígeno, cede el CO2 con mayor facilidad. Se debe a que la sangre oxigenada tiene menos capacidad amortiguadora que la desoxigenada, razón por la cual, también tiene menos capacidad para contener iones bicarbonato. Como ocurría con la descarga de O2 en los tejidos a causa del efecto Bohr, el efecto Haldane facilita la descarga de CO2 en la sangre que llega a los pulmones, con lo que eleva la capacidad de la sangre para transportarlo.

La conversión de CO2 en bicarbonato en el plasma sanguíneo de los vertebrados es un proceso relativamente lento: se necesita un minuto para alcanzar el equilibrio. Sin embargo, las cosas son muy diferentes en el interior de los eritrocitos, ya que en estos se encuentra la anhidrasa carbónica, enzima que acelera el proceso de forma muy notable.

Así pues, cuando entra el CO2 en la sangre, una pequeña parte se disuelve y otra, mucho más importante, difunde rápidamente al interior de los glóbulos rojos. Allí una fracción se combina con los grupos amino de la hemoglobina para formar carbaminohemoglobina (o carbohemoglobina) y otra fracción se convierte rápidamente en bicarbonato gracias a la acción de la anhidrasa carbónica. Ambos procesos dan lugar a la aparición de protones, que se unen, principalmente, a los grupos imidazol de la misma hemoglobina y de esa forma se amortigua el pH del interior de los glóbulos rojos. El bicarbonato formado en los eritrocitos, por su parte, no se acumula en su interior, ya que es intercambiado por iones cloruro gracias a la acción de una transportador antiporte de membrana. De no producirse tal intercambio, el aumento de su concentración dentro de los glóbulos rojos provocaría una disminución de la velocidad de la reacción catalizada por la anhidrasa carbónica.

Aparte de en los eritrocitos, también hay anhidrasa carbónica en las membranas de las células endoteliales que forman las paredes de los capilares pulmonares y en las membranas de las células musculares esqueléticas en algunos vertebrados. Los protones que resultan de la reacción del CO2 con el agua para dar bicarbonato se combinan con proteínas plasmáticas, lo que permite amortiguar el pH también en el plasma.

Un aspecto muy importante del transporte de CO2 en la sangre es que cada una de las formas en que este se produce contribuye en una medida muy diferente al total. Veamos esto con cierto detalle en la sangre humana2, la más estudiada y, por ello, mejor conocida a estos efectos.

La concentración total de CO2 en la sangre venosa es de 23.21 mmol·l-1 y en la arterial, de 21.53 mmol·l-1, por lo que la descarga total es de 1.68 mmol·l-1. La fracción que se descarga, como puede verse, es muy pequeña, de algo más de un 7% del dióxido de carbono que hay en la sangre venosa.

En el plasma venoso hay 16.99 mmol·l-1, de los que 0.8 se encuentran en forma disuelta y 16.19 en forma de ión bicarbonato; en el plasma arterial, por su parte, la concentración total es de 15.94 mmol·l-1, del que 0.71 se encuentra disuelto y 15.23 como ión bicarbonato. La descarga total es de 1.05 mmol·l-1 (0.09 en forma disuelta y 0.96 en forma de iones bicarbonato), por lo que esta es la principal contribución al transporte de dióxido de carbono, ya que representa el 62.5% de la total. Hay que tener en cuenta, no obstante, que la mayoría de iones bicarbonato se forman en el interior de los eritrocitos por lo que, en última instancia, los glóbulos rojos juegan un papel determinante y muy principal en el proceso.

Los eritrocitos contienen 6.22 mmol·l-1 de CO2 en la sangre venosa y 5.59 mmol·l-1 en la arterial. La descarga de esa fracción es de 0.63 mmol·l-1, un 37.5% del total. Y en lo relativo a las diferentes formas de transporte, se puede precisar que en forma disuelta se transporta una fracción mínima (las concentraciones venosa y arterial son, respectivamente, de 0.39 y 0.34 mmol· l-1), en forma de bicarbonato la descarga es de 0.13 mmol· l-1 (4.41 y 4.28 mmol·l-1 en sangre venosa y arterial, respectivamente), y 0,45 mmol· l-1 en forma de carbohemoglobina, aunque las concentraciones de CO2 en esta forma son realmente bajas (1.42 y 0.97 mmol· l-1). Como puede apreciarse, aunque la concentración de dióxido de carbono en forma de carbaminos es relativamente baja, su contribución al transporte no lo es tanto.

En conclusión cabe señalar que la mayor parte del CO2 se transporta en forma de CO3H–, ya que considerada en conjunto la descarga de esa forma es de 1.09 mmol·l-1, un 65% de la total. En forma de compuestos carbamino se descargan los 0.45 mmol· l-1, un 27% del total. El resto, 0.14 mmol·l-1, se descarga de forma disuelta, pero tan solo representa un 7%. En todo caso, conviene resaltar que el pigmento respiratorio es protagonista principal, tanto de forma directa –por su contribución gracias a la combinación del CO2 con grupos amino y grupos imidazol- como de forma indirecta, por su efecto amortiguador del pH- del transporte del dióxido de carbono.

Fuentes:

Richard W. Hill, Gordon A. Wyse & Margaret Anderson (2004): Animal Physiology. Sinauer Associates, Sunderland.

John D. Jones (1972): Comparative physiology of respiration. Edward Arnold, Edinburgh.

Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.

Notas:

1pK’ = -log K

2Las cifras no son muy diferentes para el resto de mamíferos, aves y reptiles. Sin embargo, en peces y anfibios no se forman grupos carbamino porque su hemoglobina se encuentra acetilada y eso impide la combinación con el CO2.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas respiratorios: transporte de dióxido de carbono se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas respiratorios: los pigmentos respiratorios
  2. Sistemas respiratorios: el pulmón de los mamíferos
  3. Sistemas respiratorios: la emergencia de un doble sistema circulatorio
Kategoriak: Zientzia

¿La teoría de la invariancia es física o metafísica?

Ar, 2018-02-13 11:59

La hipótesis que plantea Einstein en sus artículos de 1905 no es solo elegante y simple, es de consecuencias enormes, aunque estas consecuencias fueron tan sorprendentes en su momento como aún lo son hoy cuando se las aborda por primera vez. Tan contraintuitivas son, que todavía hoy son legión los que afirman que Einstein estaba equivocado (el que ello esté relacionado con el antisemitismo de la llamada “física alemana” nazi, es un factor menor, aunque no marginal).

Recopilemos algunos aspectos importantes de lo que hemos visto hasta ahora antes de seguir y veremos que nos falta por tratar algo importantísimo.

Einstein se da cuenta de que existe una inconsistencia en la interpretación habitual de la teoría de Maxwell, y al generalizar las ideas de Galileo sobre el movimiento relativo establece dos postulados generales. De estos dos postulados extrae consecuencias que afectan al estudio de los procedimientos para medir los conceptos más fundamentales de la física (tiempo, longitud, masa, energía); estas consecuencias se extraen de la misma forma en la que se obtienen resultados geométricos a partir de postulados: solo se usa la lógica.

Usando la lógica, pues, llega a la conclusión general de que las mediciones de estas variables pueden ser diferentes para diferentes observadores en movimiento relativo entre sí. Concluye que, mientras que las leyes de la física [1] y la velocidad de la luz son las mismas para todos los observadores, de ahí que Einstein hablase de teoría de la invariancia, los valores de conceptos básicos que entran en las leyes de la física, como el tiempo o la masa, no son los mismos para todos, son relativos con respecto al marco de medición. Es por esto que popularmente se llama teoría de la relatividad; en concreto teoría de la relatividad especial, ya que en esta teoría las velocidades relativas de los observadores deben ser uniformes (sin aceleración), por lo tanto, se aplican únicamente a un caso especial, el de sistemas inerciales.

Pero alguien podría objetar que esto es indiscernible de las discusiones metafísicas sobre el sexo de los ángeles. Cualquiera puede inventar un par de postulados y, siguiendo la lógica, llegar a las conclusiones más absurdas, pero perfectamente consistentes, y afirmar que tiene una teoría revolucionaria [2]. ¿Por qué aceptamos la teoría de Einstein como ciencia? Por tres razones: la primera y principal es por la confirmación experimental; la segunda por su consistencia interna y la tercera porque es coherente con otras teorías bien establecidas.

Esta última frase merece que nos detengamos en ella un poco más, habida cuenta de la cantidad de personas que parecen tener dificultad para distinguir lo que es ciencia de lo que son patrañas evidentes [3], como las “teorías” que niegan a Einstein sin fundamento.

Cada hipótesis científica, ya sea deducida a partir de unos pocos postulados o inducida experimentalmente, debe pasar la prueba rigurosa del examen experimental por varios investigadores, habitualmente de forma reiterada e independiente y a lo largo de un período de tiempo que puede ser largo. De hecho, cuanto más implicaciones tenga la nueva hipótesis, más extensa será la evidencia experimental requerida antes de que pueda ser aceptada.

Debería parecer obvio que, además, la derivación de una nueva hipótesis no puede contener ningún error lógico o violación infundada de leyes y principios aceptados. Y que debe ser compatible con las teorías existentes, o bien debe mostrar convincentemente cómo y por qué estas teorías deben ser revisadas. De hecho, se necesitó más de una década para comprobar la consistencia interna, la coherencia y confirmar experimentalmente las ideas de Einstein.

Lejos de ser “dogmáticos”, como algunos prejuzgan, los científicos siempre son escépticos hasta que la evidencia sea abrumadora. Dicho de otra forma, la falsabilidad bien entendida afirma que toda hipótesis es falsa hasta que se demuestra más allá de toda duda razonable lo contrario [4].

Hemos visto cómo y por qué la física clásica de Newton y Maxwell tuvo que revisarse para su aplicación a fenómenos a altas velocidades relativas. Pero no olvidemos que, a medida que la velocidad relativa disminuye, todos los resultados “extras” de la teoría de la relatividad se desvanecen suavemente hasta dejarnos con la familiar física clásica del mundo cotidiano. La teoría de la relatividad está tan probada que ahora se usa como una herramienta para estudiar teorías relacionadas y para construir nuevos experimentos. La mayoría de estos experimentos involucran partículas subatómicas que se mueven a velocidades extremadamente altas, como los aceleradores de partículas, aunque algunos también son realizables en condiciones más ordinarias. Estos resultados experimentales serán lo próximo que veamos.

Notas:

[1] En puridad, las leyes de la física generalizadas para todos los rangos de energía posibles; las leyes newtonianas son casos particulares de esta generalización.

[2] Esto es mucho más común de lo que se cree. Hay dos grandes tipos de “teorías de esta especie”, la de los revolucionarios incomprendidos (habitualmente de la física), con teorías del todo y grandes soluciones, pero que desarrollan en foros, blogs y webs, y curiosamente nunca en artículos con revisión por pares, y las pseudociencias. Un ejemplo magnífico es la homeoptía: de dos postulados falsos, uno de ellos incompatible con una verdad científica incuestionable, la existencia de los átomos, se desarrolla todo un cuerpo de doctrina que permite que algunos ganen mucho dinero a costa de la salud de otros.

[3] No hablamos aquí del problema de la demarcación, algo mucho más sutil y peliagudo, sino de distinguir lo que es ciencia real de mentiras que deberían ser evidentes.

[4] A este respecto quizás sea interesante leer Provisional y perfectible

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo ¿La teoría de la invariancia es física o metafísica? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La teoría de la invariancia
  2. Incompletitud y medida en física cuántica (I): la teoría superpositiva
  3. El principio de relatividad (y 4): la versión de Einstein
Kategoriak: Zientzia

¿En qué se parecen un ratón y una manta raya?

Al, 2018-02-12 11:59

Un ejemplar de “Leucoraja erinacea”, la raya que camina en el fondo del océano

Parece el comienzo de un chiste, ¿verdad? Pero no lo es. Se trata de una pregunta que se han hecho científicos genetistas de la Universidad de Nueva York. ¿En qué se parecen un ratón y un tipo de raya conocida como Leucoraja erinacea?

La primera respuesta que nos viene a la mente es que nada, no se parecen en nada. Uno es un mamífero de sangre caliente, con pelo y bigotes que vive en un laboratorio o como polizón inadvertido en una casa, mientras que el otro es un pez que respira a través de agallas, que repta por el fondo del océano, de un acuario o de la piscina también de un laboratorio.

Y sin embargo, algo tienen en común: la habilidad de caminar, y esto podría cambiar nuestra idea sobre cómo evolucionó esa habilidad en los animales terrestres, un momento considerado como el de cambios adaptativos más radicales en la evolución de los animales terrestres.

Por qué unos nadan y otros caminan

Pero vayamos por partes. Resulta que la capacidad locomotora de la mayoría de los peces se basa en movimientos ondulatorios, mientras que la habilidad de caminar en los animales cuadrúpedos se basa en un patrón locomotor que alterna los lados derecho e izquierdo. Es fácil de entender porque nuestro propio caminar se basa en ese patrón. Ese patrón se corresponde con una huella genética que predispone a los animales a desarrollar esa capacidad.

Siempre se ha considerado que el paso de los movimientos ondulatorios al movimiento alternante derecha-izquierda fue algo lineal y que ocurrió después de que los primeros animales saliesen del océano.

Bien, pues los científicos de la Universidad de Nueva York han descubierto que la Leucoraja erinacea, a diferencia de la mayoría de los peces, posee esa huella genética que le predispone a ese movimiento alternante derecha-izquierda y, según sus conclusiones, esos genes provienen de un ancestro común de las rayas con los primeros tetrápodos y que vivió hace 420 millones de años, mucho antes de que los vertebrados saliesen del mar y caminasen por la tierra.

Es decir, que algunos animales pudieron tener la configuración neurológica necesaria para caminar mucho antes de que saliesen del mar.

Un pez que camina, ¿cómo lo hace?

La investigación comenzó con una pregunta sencilla: ¿cómo ha evolucionado con el tiempo la forma de moverse de distintas especies? El autor del estudio, Jeremy Dasen, profesor asociado del Intituto de Neurociencia de la Universidad de Nueva York, ya había trabajado antes estudiando el movimiento de las serpientes, pero en este caso no sabía por dónde empezar.

Así que hizo lo que haríamos todos: buscar en Google. Buscó vídeos de rayas, y encontró uno en el que una de ellas parecía estar caminando por el fondo del océano. Le pareció muy interesante, y de ahí surgió la primera pregunta: ¿cómo lo hace?

Con ayuda del Laboratorio Biológico Marino de Woods Hole, de la Universidad de Chicago, recogieron unos cuantos ejemplares y comenzaron a observarlos. Comenzaron por lo básico: estas rayas son habitantes del fondo marino que no tienen patas, y por tanto, su caminar no se parece en nada a lo que estamos acostumbrados. Lo que utilizan son unas aletas situadas en la parte anterior de su pelvis, situadas debajo de su gran aleta en forma de rombo, que compone todo el cuerpo y que se ondula cuando nadan.

Normalmente se desplazan nadando, pero cuando comen o quieren moverse más despacio es cuando ponen en marcha ese movimiento aleatorio derecha-izquierda en el que parece, visto desde debajo, que unos diminutos pies impulsan al animal.

Los mecanismos neuronales que nos hacen caminar

Pero a Dasen y su equipo no les interesaba solo la biomecánica del pez, también los genes que controlan los mecanismos neuronales de ese movimiento. Comenzaron estudiando los genes Hox, un grupo de genes con un papel esencial en el desarrollo embrionario y por tanto en que el organismo en cuestión tenga la forma y las partes correctas. Cuando estos genes se silencian o están desordenados, el organismo puede terminar siendo deforme o no salir adelante.

Vistas desde abajo se distinguen las dos aletas pélvicas con las que caminan las rayas

Los científicos analizaron también la transcripción genética del gen FOXP1 que se encuentra en la espina dorsal de los cuadrúpedos y que interviene en la formación de las neuronas motoras que dan pie al movimiento de caminar. Cuando el factor FOXP1 es silenciado en ratones, los animales pierden la habilidad de coordinar los músculos de las piernas y sufren una descoordinación motora severa: no es que no tengan las patas para caminar, es que su cerebro no sabe cómo hacerlo.

Ambos están presentes en las rayas, igual que lo están en los ratones, y se cree que se remontan hasta hace más de 420 millones de años lo cual es sorprendente porque se creía que la habilidad para caminar después de que la vida saliese de los océanos o ocupase firme, y no antes.

“No hay fósiles de neuronas”

“Hay mucha literatura científica sobre la evolución de las extremidades, pero muy poca tiene en cuenta el aspecto neuronal porque es mucho más difícil de estudiar: no hay fósiles de los nervios o las neuronas. Pero hay formas mejores de estudiar la evolución que simplemente mirando estructuras óseas”, explica Dasen a The Smithsonian Magazine.

Efectivamente, otros investigadores han analizado fósiles para aprender más sobre los primeros animales que se arrastraron por la tierra. Uno de ellos fue el Elginerpeton pancheri, uno de los primeros tetrápodos que vivieron fuera del océano hace unos 375 millones de años, o el Acanthostega, otro vertebrado primitivo cuyos fósiles han sido estudiados par aprender sobre el desarrollo de sus extremidades.

Mientras, algunos biólogos han ido uniendo piezas analizando algunos de los peces más extraños que aún viven hoy, la mayoría con líneas ancestrales que se remontan millones de años, como los celacantos, los sarcopterigios o los peces pulmonados (estos también mueven sus aletas pélvicas de forma parecida a caminar).

Los poliptéridos son peces con pulmones además de agallas capaces de caminar cuando se encuentran fuera del agua

Por último, un protagonista en esta búsqueda del eslabón que falta en la cadena de acontecimientos que nos llevó a caminar fuera del agua ha sido el poliptérido, o bichir, una especie de pez africano que tiene pulmones además de agallas y que puede sobrevivir fuera del agua, donde se mueve de forma similar al caminar.

La flexibilidad del sistema nervioso

Ahora, los científicos saben cómo son las rutas neuronales de ese caminar, y lo parecidas que son a las de los animales terrestres, algo que, indican los científicos, es una señal de la flexibilidad del sistema nervioso, de su desarrollo y sus funcionales.

Una flexibilidad que ha sido clave a lo largo de la historia evolutiva de todas las especies: gracias a ese ancestro común que vivió hace 420 millones de años, ahora hay en la Tierra peces que nadan, serpientes que reptan, ratones que caminan y mantas raya que utilizan una combinación única de todos esos movimientos.

Y quizá, ahora que sabemos todo esto, podamos aprender un poco más el bipedismo en nosotros, los humanos.

Referencias:

Heekyung Jung et al (2018) The Ancient Origins of Neural Substrates for Land Walking Cell doi: 10.1016/j.cell.2018.01.013

Lorraine Boissoneault What a walking fish can teach us about human evolution Smithsonian Magazine 08/02/2018
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo ¿En qué se parecen un ratón y una manta raya? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Antes de que el león se hiciese con el trono de rey de la selva
  2. Adiós al yeti: las desventuras y tribulaciones de un criptozoólogo
  3. Los enigmas que nos cantan desde el fondo del océano
Kategoriak: Zientzia

No es una percepción

Ig, 2018-02-11 09:00

De acuerdo con las conclusiones de un estudio recién publicado por el Pew Research Center [1], el lugar de trabajo de las mujeres que desempeñan profesiones relacionadas con ciencia, tecnología, ingeniería o matemáticas (agrupadas bajo el acrónimo STEM) es un entorno diferente, en ocasiones más hostil, que el de sus compañeros masculinos. Perciben con más frecuencia discriminación y acoso sexual [2], y piensan que el ser mujer representa más una desventaja que una ventaja para el éxito de sus carreras.

Entre todas las que trabajan en estas áreas, la probabilidad de que declaren haber sido tratadas peor es mayor en tres grupos de mujeres: las que trabajan en entornos en los que la mayoría de compañeros son hombres, las que trabajan en tareas relacionadas con ordenadores y las que tienen estudios de posgrado.

El estudio aporta información adicional acerca de la distribución de hombres y mujeres en las 74 ocupaciones clasificadas dentro de la categoría STEM, con un desequilibrio a favor de las mujeres en el campo de la salud (75% mujeres) y a favor de los hombres en física (39% mujeres), informática y ordenadores (25%) e ingeniería (14%). Hay un cierto equilibrio en matemáticas (47%) y ciencias de la vida (48%); en conjunto, el 50% de los puestos de trabajo está ocupado por mujeres. Estos y los anteriores datos corresponden a los Estados Unidos aunque lo más probable es que sus principales conclusiones sean válidas para el conjunto de países occidentales.

Si nos limitamos al mundo de la investigación y la academia, las investigadoras representan el 32 % del total en los países occidentales (Europa Occidental y Norteamérica), aunque en España ese porcentaje llega al 39 %. En nuestro entorno el porcentaje de mujeres en los estudios de grado y entre quienes completan el doctorado es algo superior al de hombres, y en algunos casos, como ocurre en la UPV/EHU, acceden al doctorado más mujeres (58%) que hombres (42%) en disciplinas STEM. Sin embargo, tal y como han mostrado diversos estudios, conforme se asciende en el escalafón y, sobre todo, en los niveles de máxima responsabilidad, autoridad y reconocimiento, las proporciones de mujeres se desploman hasta valores de entre el 10% y el 25%, dependiendo de la instancia y sector de que se trate. Los informes al respecto del CSIC, MICINN y Comisión Europea (She Figures 2015) aportan abundante y pormenorizada información.

Las tendencias que apuntan esos informes tienen su reflejo más depurado en la proporción de mujeres a las que se conceden los máximos galardones en sus respectivas disciplinas y, muy en especial, a las que se ha concedido el premio Nobel. Desde su creación, solo el 3% de estos premios ha sido otorgado a mujeres. Suele argumentarse, para justificar ese bajo porcentaje, que refleja la presencia de las mujeres en el mundo de la investigación científica desde que existen esos galardones. Es indudable que cuanto menos son los miembros de un colectivo a segmento de la población que desempeñan una actividad, menos son quienes alcanzan los niveles más altos. Pero si nos fijamos en la última década, se han concedido a mujeres el 6,5 % de los galardones. Y si bien es cierto que los méritos que se reconocen pueden datar de décadas atrás, es más que dudoso que las mujeres solo hayan representado el 6,5 % de quienes se dedicaron a la ciencia al más alto nivel durante el último cuarto del siglo XX. Y de haber sido así, tal desequilibrio sería, en buena medida, consecuencia de otros desequilibrios relacionados con las diferentes oportunidades de hombres y mujeres para acceder a los recursos y las posiciones que facultan para desempeñar una carrera científica al más alto nivel [3].

Los límites a la presencia de las mujeres en las posiciones de más alto rango en las carreras científica y profesional son, de suyo, injustos y tienen, además, dos consecuencias perniciosas. Por un lado, privan al sistema científico y a la sociedad en general de la aportación de las mujeres más capacitadas al bien común. Y por la otra, contribuyen a alimentar los estereotipos que muestran a las profesiones científicas y tecnológicas como inadecuadas o impropias de las mujeres, con las consecuencias amplificadoras que tales estereotipos tienen (el círculo vicioso).

La Universidad del País Vasco está comprometida con el objetivo de una sociedad en la que hombres y mujeres tengan los mismos derechos y gocen de las mismas oportunidades. La Cátedra de Cultura Científica de la UPV/EHU comparte ese compromiso y se ha propuesto, en la medida de sus modestas posibilidades, contribuir a cambiar ese estado de cosas. Por esa razón publica desde el 8 de mayo de 2014 Mujeres con ciencia.

Pero hoy, 11 de Febrero, no hemos querido quedar al margen de la celebración internacional, promovida por Naciones Unidas del Día Internacional de la Mujer y la Niña en la Ciencia. Con ese propósito hemos producido “No es una percepción“, el vídeo que acompaña este texto. Quiere ser un gesto de denuncia y, en consecuencia, una llamada a la acción y, sobre todo, al trabajo. Por eso, para la Cátedra de Cultura Científica de la UPV/EHU mañana, como ayer, también será día de la mujer y la niña en la ciencia.

No es una percepción” es una producción dirigida por Jose A. Pérez Ledo y grabada en la Universidad del País Vasco gracias a la colaboración de cinco científicas e investigadoras de la propia universidad:

  • Itziar Alkorta, bioquímica.
  • Arantza Aranburu, geóloga.
  • Gotzone Barandika, química.
  • Txelo Ruiz, ingeniera informática.
  • Ana Zubiaga, genetista.

Notas:

[1] Pew Research Center es un prestigioso think tank estadounidense especializado en el estudio de tendencias sociales y demográficas.

[2] Aunque los resultados del trabajo se publicaron el pasado 9 de enero, el trabajo de campo se realizó en el verano de 2017, antes de que se produjese la ola de denuncias por acoso sexual contra personajes masculinos prominentes de diferentes sectores profesionales.

[3] El caso de Jennifer y John es un ejemplo ilustrativo de los desequilibrios mencionados.

—————————————————————–

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

El artículo No es una percepción se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Presentación del estudio “Percepción social de la ciencia y la tecnología en el País Vasco”
  2. Hoy es el día de la mujer y la niña en la ciencia, todos lo son
  3. La percepción del propio peso es peor en las chicas que en los chicos
Kategoriak: Zientzia

Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis

La, 2018-02-10 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Raúl Gay habla de discapacidad desde una perspectiva muy diferente a la habitual: llamando a las cosas por su nombre. Posiblemente, una de las charlas más memorables de esta edición de Naukas Bilbao.

Raúl Gay: Todo sobre mi órtesis

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
  2. Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic
  3. Naukas Bilbao 2017 – Diana González: Identidad digital y robots
Kategoriak: Zientzia

Traducción automática neuronal sin supervisión

Or, 2018-02-09 17:00

La mayoría de los sistemas de aprendizaje automático requieren supervisión humana, y la traducción automática no es una excepción: el ordenador utiliza millones de traducciones hechas por personas para extraer patrones y, de esta forma, aprender a traducir cualquier texto. Este método funciona bien con pares de idiomas como el inglés y el francés, pues existen muchas traducciones entre ambos. Sin embargo, no es tan efectivo para la gran mayoría de pares de idiomas con recursos limitados, como es el caso del alemán-ruso o el euskera-inglés, por ejemplo.

En este contexto, Mikel Artetxe, Eneko Agirre y Gorka Labaka, investigadores del grupo IXA de la Facultad de Informática de la UPV/EHU, han desarrollado un método de traducción automática basado en el aprendizaje sin supervisión, es decir, sin necesidad de diccionarios o traducciones humanas.

“Imagina que le das a una persona una gran cantidad de libros escritos en chino y otros tantos, distintos, en árabe, con el objetivo de que aprenda a traducir del chino al árabe. A priori parece una tarea imposible para un ser humano. Pero nosotros hemos demostrado que un ordenador es capaz de hacerlo”, afirma Mikel Artetxe, que está realizando su tesis doctoral sobre el procesamiento del lenguaje natural y el aprendizaje automático.

Este nuevo método que proponen los investigadores de la UPV/EHU supone un gran avance en el campo de la traducción automática, ya que abre una nueva línea de trabajo que muestra que las redes neuronales, algoritmos informáticos que se inspiran en el cerebro humano, pueden aprender a traducir sin necesidad de traducciones preexistentes.

Se da la casualidad que otro estudio, desarrollado por un equipo de investigadores de Facebook y la Universidad de la Sorbona de París, ha propuesto un método similar. “Es sorprendente -subraya Artetxe- que nuestros métodos sean tan parecidos. Pero al mismo tiempo es positivo, pues significa que esta nueva aproximación va por el buen camino”.

Los dos estudios, de los que se ha hecho eco la revista científica Science en su sección digital de noticias, fueron publicados en el repositorio virtual arXiv con un día de diferencia, y serán presentados en uno de los congresos más relevantes del área, el sexto encuentro internacional sobre el aprendizaje de representaciones (International Conference on Learning Representations – ICLR), que se celebrará en el mes de abril en Vancouver, Canadá.

En los únicos resultados comparables entre ambos estudios, el método del grupo IXA de la UPV/EHU obtuvo resultados ligeramente superiores, con una puntuación BLEU del 15% entre el francés y el inglés. A modo de comparativa, la máxima puntuación la obtienen métodos supervisados como Google Translate con cerca del 40%, si bien una persona supera el 50%. “Estamos en los inicios -aclara Mikel Artetxe- por lo que no sabemos hasta dónde puede llegar esta nueva línea de investigación”.

Referencia:

Mikel Artetxe, Gorka Labaka, Eneko Agirre, Kyunghyun Cho (2017) Unsupervised Neural Machine Translation arXiv:1710.11041

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Traducción automática neuronal sin supervisión se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Buscando la traducción automática perfecta
  2. Chatbots de traducción automática profunda
  3. La hiperactividad neuronal impide que las microglías realicen su trabajo
Kategoriak: Zientzia

Nacido para ser autista

Or, 2018-02-09 12:00

Mary Temple Grandin

En los años sesenta, Leo Kanner (uno de los dos primeros descubridores del autismo) defendía su teoría de las “madres nevera/refrigerador”. En ella argumentaba que el autismo de los hijos era consecuencia de la falta de contacto materno adecuado: afirmaba que estas madres de hijos autistas eran distantes, poco afectivas con sus hijos y llegó incluso a decir que esas mujeres se habían “descongelado” lo justo para dar a luz a un hijo. Según Kanner, si una mujer tenía un hijo autista era porque ella había hecho algo mal. Esta idea falsa que directamente culpabilizaba a las madres tuvo un importante calado e incluso hoy en día es posible encontrar personas que argumentan que el origen de los trastornos del espectro autista (TDA) se deben a la educación, traumas, etc. Lo cual significa que hay gente que cree que los TDA son algo adquirido. Mientras que el enfoque opuesto es pensar que los TDA son trastornos del desarrollo: es decir, que su origen está en alteraciones internas producidas durante el propio desarrollo del individuo.

Antes de ver cuál de estos dos planteamientos es el correcto, creo que es importante aclarar qué es exactamente el autismo. Lo primero que debemos saber es que no existe “el autismo” sino los trastornos del espectro autista (TDA), dentro de los cuales hay una gran diversidad. Esto ya se ve en los dos primeros estudios donde se documentan estos trastornos: el trabajo de Leo Kanner (1943) describe niños que mayoritariamente tienen muchas dificultades para hablar y discapacidad intelectual, mientras que en el estudio de Hans Asperger (1944) los niños tienen un uso preciso del lenguaje y no presentan discapacidad intelectual. Hablo de niños porque los TDA afectan principalmente a varones en una proporción que va desde 4 a 1, hasta 8 niños por cada niña según el tipo de TDA. Independientemente del género, algunas de las características principales de los trastornos del espectro autista son problemas en el uso del lenguaje o habilidades sociales. Además, junto con el propio trastorno los pacientes suelen padecer algún tipo de discapacidad intelectual en más de la mitad de los casos o epilepsia (alrededor del 30% de los casos); entre otros problemas.

La primera pista sobre el origen de estos trastornos la tenemos en el incremento de los casos en las últimas décadas, que ahora se sitúa en cerca del 1% de la población y es un porcentaje superior al documentado con anterioridad. Esta subida se debe principalmente a tres motivos: el primero es una mejora de las técnicas diagnósticas que permiten detectar más casos, el segundo es un cambio en lo que entendemos por TDA hacia una definición clínica más amplia que recoge casos que antes no se consideraban TDA, y el tercer motivo es un incremento de la edad a la que las parejas conciben hijos. Aquí está la pista. Muchos estudios están documentando que cuanto más mayores son los progenitores a la hora de concebir un hijo (y en muchos de ellos se señala que es especialmente importante la edad del padre), más probable es que su descendencia tenga un TDA. ¿Por qué? Porque conforme envejecemos nuestra capacidad de generar células reproductoras es peor y los genes que trasmitimos a través de ellas contienen más fallos. Esto indica que los problemas genéticos tienen un papel importante en el desarrollo del TDA, y eso es algo que también se ve si uno estudia árboles genealógicos o trabajos donde se ha documentado casos de gemelos. En ellos se ha visto que si uno de ellos desarrolla un TDA, en el 60-90% de los casos el otro hermano también desarrollará un TDA.

Que la genética tenga un factor decisivo en la aparición de TDA no es suficiente para definirlo como un trastorno que se produce durante el desarrollo del organismo: para ello es esencial ver cuándo aparece el TDA. Los seres humanos nacemos extremadamente poco desarrollados, siendo además el cerebro el tejido más inmaduro y tarda unas dos décadas en acabar de formarse. Trastornos neurológicos que se manifiesten dentro de este espacio de tiempo pueden deberse en parte a anomalías del desarrollo, y cuanto más pronto aparezcan pues es más probable que el desarrollo nervioso esté implicado en su aparición. En el caso de los TDA, los diagnósticos tempranos se sitúan entorno a los dos/tres años de edad. Lo cual ya es muy temprano pero es que además, en estudios con bebés de seis meses ha sido posible analizar el funcionamiento de sus redes neuronales a los seis, doce y veinticuatro meses; encontrándose que aquellos pequeños que a los veinticuatro meses eran diagnosticados con un TDA, a los seis meses ya presentaban alteraciones en el funcionamiento de sus redes neuronales. Y además, se ha hallado una correlación entre la severidad de estas anomalías a los seis meses y la gravedad de los síntomas a los veinticuatro meses.

En resumen, todo esto nos dice que los TDA son intrínsecos a la propia formación del sistema nervioso del paciente y por lo tanto es parte de ellos mismos. No es algo que se adquiera después de nacer sino que se manifiesta después de nacer. Se nace siendo autista. Esto es importante por dos aspectos: en primer lugar para no culpar al entorno, la familia, el calendario de las vacunas infantiles, etc. de los casos que aparezcan. Y en segundo lugar es vital para el tratamiento: actualmente la única posibilidad para intentar mitigar los síntomas del TDA es diagnosticar y tratar a los pacientes cuanto antes, porque los procesos del desarrollo son mayoritariamente irreversibles pero durante las fases iniciales a veces hay un cierto margen para dirigirlos parcialmente en otra dirección.

Este post ha sido realizado por Pablo Barrecheguren (@pjbarrecheguren) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias:

  • Constantino, J. N., & Marrus, N. (2017). The Early Origins of Autism. Child and Adolescent Psychiatric Clinics of North America, 26(3), 555–570.
  • John D. Lewis*, Alan C. Evans, John R. Pruett Jr, Kelly N. Botteron, Robert C. McKinstry, Lonnie Zwaigenbaum, Annette Estes, Louis Collins, Penelope Kostopoulos, Guido Gerig, Stephen Dager, Sarah Paterson, Robert T. Schultz, Martin Styner, Heather Hazlett, and Joseph Piven, for the IBIS network. (2017). The emergence of network inefficiencies in infants with autism spectrum disorder. Biol Psychiatry. 2017 August 01; 82(3): 176–185.
  • Principles of Neural Science, Fifth Edition (2012). Editorial McGraw-Hill Education.
  • Swaab D. We are our brains (2014). Penguin Books.

El artículo Nacido para ser autista se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El universo recién nacido
  2. Luminoterapia para el cambio de estación
  3. ¿Cuántos animales se usan en España para experimentación?
Kategoriak: Zientzia

Autismo y educación: problemas y pautas en el aula

Og, 2018-02-08 17:00

¿Cómo se tratan algunos de los trastornos cognitivos más frecuentes en las aulas? ¿Son efectivos los programas y herramientas del sistema educativo actual? ¿Carecen de eficacia algunas de las prácticas educativas más populares?

Estas son algunas de las cuestiones que se debatieron en la jornada “Las pruebas de la educación”, que se celebró el pasado 2 de febrero de 2018 en el Bizkaia Aretoa de Bilbao. El evento, en su segunda edición, estuvo organizado por la Cátedra de Cultura Científica de la UPV/EHU y el Consejo Escolar de Euskadi, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT).

Las ponencias de los expertos que expusieron múltiples cuestiones relacionadas con la educación, basándose siempre en las pruebas científicas existentes. Los especialistas hicieron especial hincapié en destacar cuál es la mejor evidencia disponible a día de hoy con el objetivo de abordar las diferentes realidades que coexisten en las aulas y en el sistema educativo en general.

“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde diversos ámbitos de la actividad científica. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.

En “Autismo y educación: Problemas y pautas en el aula”, José Ramón Alonso, neurobiólogo y catedrático de biología celular en la Universidad de Salamanca, nos acerca al concepto del autismo, sus posibles causas y los tratamientos más empleados, con el objetivo de identificar las pautas concretas que pueden ayudar a maestros y profesores a tratar en el aula este trastorno cognitivo.

José Ramón Alonso: ''Autismo y educación: Problemas y pautas en el aula''

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Autismo y educación: problemas y pautas en el aula se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
  2. La ciencia perdida: los curiosos casos de los protocolos de TDAH y de leer.es
  3. Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje
Kategoriak: Zientzia

Si hacer fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino

Og, 2018-02-08 11:59

Muchos de los fármacos que conocemos son compuestos muy complejos. Esto quiere decir que están formados por muchos átomos unidos entre sí de una manera concreta. Hacer que estos átomos se unan de una forma y no de otra es una tarea complicada. Al estudio de estos procesos de ensamblaje de átomos se le llama «síntesis química».

Los átomos no se comportan como piezas de Lego. No siempre podemos ensamblarlos y desensamblarlos a nuestro antojo, ya que unos átomos tienen más afinidad por unos que por otros, tienen tendencia a colocarse en unas posiciones y no en otras, a girarse, etc. Por eso es tan importante diseñar una buena ruta de síntesis, en la que cada átomo acabe ocupando la posición deseada.

Uno de los átomos más famosos de los fármacos es el carbono. El carbono está presente en casi todos los fármacos que conocemos. Es capaz de unirse a otros átomos de forma muy diferente. El carbono es como una pieza de Lego con cuatro posiciones de ensamblaje. Desgraciadamente es muy difícil conseguir una pieza solitaria de este carbono. En la naturaleza siempre está unido a más piezas y, en el caso de tener alguna posición libre (formando lo que denominamos radicales libres) son muy inestables y enseguida encuentran a quién unirse.

Esto ha sido un quebradero de cabeza para los químicos que trabajan en síntesis. Al menos hasta ahora. Recientemente, un grupo de investigadores del Instituto Catalán de Investigación Química (ICIQ), liderado por el joven químico Marcos García Suero, acaba de encontrar un método revolucionario que permite conseguir la ansiada pieza solitaria de carbono. Esta pieza sólo tiene una de sus posiciones ocupadas por hidrógeno, el resto están listas para ensamblarse a los átomos que deseemos. Esta pieza se denomina carbino.

El carbino fue una de las primeras moléculas halladas en el espacio interestelar. Los astrofísicos lo detectaron en los años 30 del siglo pasado. Estos carbinos se detectan en eventos astonómicos muy energéticos y violentos, como en la formación de estrellas. Duran muy poco como carbinos porque tienen esa tendencia a unirse rápidamente a otros átomos. Esto es lo que los hace tan escurridizos.

Lo que han hecho los investigadores del ICIQ es sintetizar un equivalente de los carbinos. Este equivalente se llama radical diazometilo. Si seguimos con la analogía de las piezas de Lego, el radical diazometilo sería como una pieza de carbino con sus posiciones ocupadas por piezas de quita y pon, fáciles de intercambiar por piezas definitivas.

Tanto el hallazgo de este carbino equivalente, como la forma de sintetizarlo, ha llevado a estos investigadores a publicar su descubrimiento en la prestigiosa revista científica Nature. Su artículo lleva por título «Generación de carbinos equivalentes por medio de catálisis fotorredox». Para obtener carbino en el laboratorio no se pueden emular los violentos eventos astronómicos. Lo que han hecho estos investigadores es darle un empujón a la reacción de obtención de estos carbinos ayudándose de catalizadores. Los catalizadores que utilizaron son unos compuestos con rutenio sensibles a la luz, de ahí el prefijo foto de catálisis fotorredox. El catalizador, al recibir un fotón de luz LED, da el pistoletazo de salida para que se forme el carbino. Los procesos de fotocatálisis son, de hecho, una de las líneas de investigación más importantes del ICIQ.

Estos investigadores han probado la eficacia del carbino para modificar a antojo algunos medicamentos ya existentes. Así, han modificado con éxito el principio activo del ibuprofeno, del antidepresivo duloxetina, del antitumoral taxol, y del fingolimod, el primer tratamiento oral que existe para la esclerosis múltiple.

Este carbino no solo se podrá usar para mejorar los fármacos que ya conocemos, sino que podrá ayudar a acelerar el diseño y desarrollo de nuevos medicamentos. Si la química del desarrollo de fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino.

Agradezco a Fernando Gomollón Bel su ayuda con este artículo.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Si hacer fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cómo mecanizar una pieza de cobre usando bacterias
  2. Otra pieza en el puzle de la fotosíntesis
  3. Cómo hacer más eficiente un mini aerogenerador
Kategoriak: Zientzia

Óxido de vanadio (IV), un material para una revolución de ciencia ficción

Az, 2018-02-07 17:00

Nanoestrellas de óxido de vanadio (IV)

Primero vino el interruptor. Luego el transistor. Ahora otra innovación puede revolucionar la forma en que controlamos el flujo de electrones a través de un circuito: el óxido de vanadio (IV), de fórmula VO2. Una característica clave de este compuesto es que se comporta como un aislante a temperatura ambiente, pero como un conductor a temperaturas superiores a 68 °C. Este comportamiento, también conocido como transición de aislante de metal, podría ser muy útil para una variedad de aplicaciones nuevas y emocionantes.

Los científicos conocen desde hace mucho tiempo las propiedades electrónicas del VO2, pero no han podido explicarlas hasta ahora. Resulta que su estructura atómica cambia de fase a medida que aumenta la temperatura, pasando de una estructura cristalina a temperatura ambiente a una metálica, a temperaturas superiores a 68 ° C.

Lo verdaderamente interesante es que esta transición ocurre en menos de un nanosegundo, algo que lo hace muy útil para aplicaciones electrónicas. No solo eso, además de a la temperatura, resulta que el VO2 también es sensible a otros factores que podrían hacer que cambie de fase, como la inyección de energía eléctrica, determinadas iluminaciones, o la aplicación de un pulso de radiación de terahercios (en el límite entre microondas e infrarrojo). Todo ello implica que el consumo energético del interruptor es minúsculo.

Contrariamente a lo que podamos suponer, 68ºC es una temperatura de transición demasiado baja para la electrónica de los dispositivos actuales, donde los circuitos funcionan sin problemas a unos 100 ºC. Una solución a este problema la propusieron investigadores de la Escuela Politécnica Federal de Lausana (Suiza) en julio de 2017 que consistía en añadir germanio a una lamina de VO2. Simplemnete con esto la transición pasaba a ocurrir a 100 ºC.

Un chip basado en dióxido de vanadio (IV) fabricado en la Escuela Politécnica Federal de Lausana. Imagen: EPFL / Jamani Caillet

Solucionado este problema, investigadores del mismo grupo suizo, que incluye a la ingeniera española Montserrat Fernández-Bolaños, han sido capaces de fabricar por primera vez filtros de frecuencia modulables ultracompactos. Esta tecnología hace uso de las características de interruptor por cambio de fase del VO2 y es especialmente eficaz en un rango de frecuencias que es crucial para las comunicaciones espaciales, la llamada banda Ka. Esta banda es la que se emplea, por ejemplo, para la descarga de datos científicos del telescopio espacial Kepler y es la que se usará en telescopio espacial James Webb. Los filtros pueden programarse para modular entre los 28,2 y los 35 GHz.

Estos primeros resultados es muy posible que estimulen la investigación de las aplicaciones del VO2 en dispositivos electrónicos de potencia ultrabaja. Además de las comunicaciones espaciales que mencionábamos, otras posibilidades podrían ser la computación neuromórfica (computación basada en circuitos analógicos que simulan estructuras neurobiológicas) y los radares de alta frecuencia para automóviles autónomos.

Referencia:

E. A. Casu , A. A. Müller, M. Fernández-Bolaños et al (2018) Vanadium Oxide bandstop tunable filter for Ka frequency bands based on a novel reconfigurable spiral shape defected ground plane CPW IEEE Access doi: 10.1109/ACCESS.2018.2795463

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Óxido de vanadio (IV), un material para una revolución de ciencia ficción se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Siligrafeno, ¿el material para la revolución optoelectrónica?
  2. Un equipo de alta fidelidad de ciencia ficción
  3. Ciencia para todos a través del cine y la literatura de ciencia ficción
Kategoriak: Zientzia

Orriak