Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 17 mins 15 segs

El tamaño del átomo de hidrógeno

Mar, 2019/10/08 - 11:59
Visualización real de los estados de Stark de un átomo de hidrógeno. Fuente: A. S. Stodolna et al (2013) Hydrogen Atoms under Magnification: Direct Observation of the Nodal Structure of Stark States Phys. Rev. Lett. 110, 213001

Sin duda, una prueba de fuego para el modelo de Bohr tendría que ser explicar los espectros de los elementos, empezando por el del hidrógeno. Pero antes tenía que pasar una prueba cuantitativa básica: el tamaño del átomo derivado del modelo tenía que ser compatible con los datos ya conocidos.

De entrada estaban los órdenes de magnitud impuestos por los resultados de dispersión obtenidos por el laboratorio de Rutherford. De ellos se podían deducir algunas cosas interesantes. Para empezar, el tamaño aproximado del núcleo atómico. Supongamos que una partícula α se mueve directamente hacia un núcleo. Su energía cinética se transforma en energía eléctrica potencial: se ralentiza y finalmente se detiene, como una pelota rodando cuesta arriba. Lo más cerca que la partícula estará del núcleo puede calcularse a partir de la energía cinética original de la partícula y las cargas de la partícula y el núcleo. El valor calculado resulta ser de unos 3·10-14 m.

Si la partícula no penetra en el núcleo, esta distancia debe ser, al menos, la suma de los radios de las partículas y el núcleo; de aquí, el radio del núcleo no podría ser mayor que aproximadamente 10-14 m. Pero 10-14 m es solo aproximadamente 1/1000 del radio que establece la teoría cinética para un átomo. Como el volumen total del átomo es proporcional al cubo de su radio, eso quiere decir que el átomo está mayormente vacío, con el núcleo ocupando solo una milmillonésima parte del espacio. Esto explica cómo las partículas o los electrones pueden penetrar miles de capas de átomos en láminas de metal o en gases, con solo una desviación grande ocasional de la trayectoria y muy pocos rebotes.

Con estas condiciones de contorno veamos la aplicación del modelo de Bohr al átomo más sencillo, el hidrógeno que, recordemos, tiene un solo electrón alrededor del núcleo. Bohr supuso que las posibles órbitas de los electrones son circulares por simplicidad. El resultado de Bohr para los radios de las posibles órbitas estables rn fue rn = a·n2, donde a es una constante (a = h2 / 4π2mkqe2) [1] que se puede calcular a partir de valores físicos conocidos, y n representa cualquier número entero, n = 1, 2, 3… .

El resultado de Bohr es muy llamativo. En los átomos de hidrógeno los posibles radios orbitales de los electrones son múltiplos enteros de una constante que se puede calcular fácilmente; es decir, n2 adquiere valores de 12, 22, 32,. . . , y todos los factores a la izquierda de n2 en rn = a·n2 son cantidades conocidas previa e independientemente.

El valor de a es aproximadamente de 5,3·10-11 m. Por lo tanto, según el modelo de Bohr, los radios de las órbitas estables tenía que se n2 veces 5,3·10-11 m. Es decir, para n = 1, la primera órbita permitida el radio era, precisamente, 5,3·10-11 m, 4 veces esta cantidad la segunda y 9 veces la tercera. Entre ellas, simple y llanamente, no podía estar el electrón.

En resumen, las distintas órbitas electrónicas están espaciadas alrededor del núcleo de manera regular, con los radios permitidos cuantificados de manera regular. Por lo tanto, la emisión y absorción de luz debe corresponder a la transición del electrón de una órbita permitida a otra. La emisión de luz ocurre cuando el electrón «cae» de un estado de energía más alto a un estado más bajo; la absorción de luz ocurre cuando el electrón «salta» desde un estado de baja energía hasta un estado de mayor energía. Un resultado muy bonito que indica qué radios son posibles y dónde se encuentran. Pero hasta ahora, todo esto es la construcción de un modelo. ¿Soporta la comparación con los datos conocidos?

En su primer artículo de 1913, Bohr pudo dar al menos un «sí» parcial como respuesta. Hacía tiempo que se sabía que el átomo de hidrógeno normal «no excitado» tenía un radio de aproximadamente 5·10-11 m (es decir, el tamaño del átomo obtenido, por ejemplo, al interpretar las características medidas de los gases en términos de la teoría cinética) [2]. Este valor conocido de aproximadamente 5·10-11 m se corresponde mejor que bien con la predicción de la ecuación para el radio orbital r si n tiene el valor más bajo, es decir 1. El modelo proporcionaba un mecanismo para entender el tamaño del átomo de hidrógeno neutro y no excitado. Para cada átomo, el tamaño corresponde al tamaño de la órbita electrónica más interna permitida.

Nota:

[1] Esta constante, llamada radio de Bohr, comparte el honor con la constante de Boltzman o la constante de Avogadro, de haber sido descritas en realidad por otras personas (respectivamente, Haas, Planck y Cannizaro). Pero esto es otra historia…

[2] Este valor de 5·10-11 m para un átomo de hidrógeno no es más que la mitad del 10-10 m que proporcionaba la teoría cinética para la molécula de hidrógeno.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El tamaño del átomo de hidrógeno se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las regularidades en el espectro del hidrógeno
  2. La carga del núcleo y el sistema de periodos
  3. Un átomo con un centro masivo diminuto
Categorías: Zientzia

¿Es contagiosa la enfermedad de Alzheimer?

Lun, 2019/10/07 - 11:59

 

Angélique Igel-Egalon

Foto: Simon Wijers / Unsplash

En la actualidad se conocen más de cincuenta demencias resultantes de enfermedades neurodegenerativas, y la enfermedad de Alzheimer es la más extendida. Se estima que cerca de 35 millones de personas la sufren en el mundo, y que el número de enfermos podría alcanzar los 115 millones de personas en los próximos 30 años.

Aunque en algunos casos —pocos— el alzhéimer puede deberse a un problema genético, el factor de riesgo principal es el envejecimiento. Así pues, es lógico que la prevalencia de estas enfermedades guarde relación con el aumento de la esperanza de vida.

No obstante, recientemente se han llevado a cabo trabajos que también apuntan a que, en determinadas condiciones, la enfermedad de Alzheimer podría transmitirse entre personas. Es cierto que su mecanismo recuerda el de las enfermedades producidas por priones, como la enfermedad de Creutzfeldt-Jakob, de la que se produjeron decenas de casos como consecuencia de la crisis de las vacas locas. A continuación ofrecemos algunas explicaciones.

La enfermedad de Alzheimer, un problema de proteínas

Desde un punto de vista sintomático, el alzhéimer se caracteriza por un deterioro drástico de las facultades psíquicas y físicas debido a la muerte de las neuronas cerebrales. Cuando se analizan los cerebros de los pacientes fallecidos, se observa la presencia de dos tipos de depósitos de proteínas.

Las proteínas son moléculas de gran tamaño constituidas por una secuencia de moléculas más pequeñas denominadas aminoácidos. Se trata de componentes esenciales de la vida: las células y los tejidos de los seres vivos contienen miles de proteínas, que cumplen funciones variadas y específicas (hormonas, enzimas, proteínas de estructura como el colágeno, la tubulina, que constituye el “esqueleto” de las células y les da su forma, etc.). En la enfermedad de Alzheimer, algunas de estas proteínas se vuelven anormales y se acumulan.

El primer tipo de depósitos proteicos encontrados en el cerebro de pacientes con esta demencia contiene una proteína denominada “Tau” (del inglés Tubulin-associated unit). En condiciones normales, una de sus funciones es estabilizar la estructura de las neuronas. En la enfermedad de Alzheimer, Tau se modifica y deja de cumplir su función. Las neuronas se degeneran, mientras que las proteínas anormales se agregan unas a otras y se acumulan en las células nerviosas.

El péptido Aβ se produce a partir de un corte en la secuencia de aminoácidos de una gran proteína denominada APP o precursor proteico amiloide. Esta proteína se sitúa en la superficie de las neuronas e interviene sobre todo en su crecimiento, su supervivencia y su reparación.

En condiciones normales, los péptidos Aβ se eliminan, pero en la enfermedad de Alzheimer se acumulan en el exterior de las células nerviosas, en forma de placas amiloides, también denominadas placas seniles. Estos depósitos se encuentran, asimismo, alrededor de los capilares sanguíneos del cerebro y pueden ser causa de microhemorragias cerebrales denominadas angiopatías amiloides cerebrales.

Formación de las placas amiloides.
Wikimedia, CC BY

Proteínas capaces de contaminar otras

El aspecto más destacable de los mecanismos que dan lugar al alzhéimer es que la neurodegenerescencia no se deriva de una simple acumulación pasiva de proteínas.

En realidad, las proteínas implicadas cambian de forma, lo que modifica su acción a escala celular. Cabe señalar que la función de una proteína depende generalmente de su forma (que, a su vez, depende en gran medida de la secuencia de los aminoácidos que la compone). Este cambio de morfología es lo que confiere al péptido Aβ propiedades totalmente diferentes de las de su forma normal. Al ser capaz de autoagregarse, puede formar los depósitos de fibras amiloides que, probablemente, causan la muerte de las neuronas.

Pero aún hay más: los investigadores han demostrado que las formas tóxicas son capaces de obligar a sus álter ego normales a imitarlas y a adoptar a su vez una forma patógena. Este fenómeno, denominado “autorreplicativo”, explica cómo una célula enferma que produce la forma tóxica del péptido puede “contaminar” la célula vecina.

Este contagio de una célula a otra también explica por qué, durante la evolución de la enfermedad de Alzheimer, la propagación de las lesiones cerebrales se extiende de forma progresiva a todo el cerebro siguiendo un esquema bien determinado que se observa en todos los pacientes.

¿Qué es la enfermedad de Alzheimer?

Mecanismos similares a los de los priones

Este proceso autorreplicativo es similar al que se observa en el caso de otra enfermedad neurodegenerativa, la enfermedad de Creutzfeldt-Jakob. Esta se debe a la propagación en el seno del cerebro de un agente patógeno muy particular: el prion.

Aunque no es una bacteria, ni un parásito, ni un virus, ni un hongo, el prion es, sin embargo, transmisible. El descubrimiento de estas “partículas proteicas infecciosas” (el acrónimo prion procede del inglés proteinacious infectious particule) ha sido objeto de un amplio debate y ha obligado a los investigadores a crear un nuevo concepto, el de “agentes transmisibles no convencionales”. Al contrario de lo que ocurre con los otros agentes patógenos, los priones están desprovistos de genoma (no tienen ADN ni ARN) y se componen exclusivamente de una única proteína.

Como sucede con las proteínas implicadas en la enfermedad de Alzheimer, las células producen de forma natural una versión “normal” del prion. Esta versión cumpliría numerosas funciones biológicas, pero todavía no se conocen bien sus diversas utilidades. También posee la propiedad de replegarse y agregarse para formar partículas infecciosas. En su forma infecciosa, los priones son capaces de infectar a un nuevo individuo tras la ingesta de determinados tejidos contaminados, o a través de la sangre, por ejemplo.

La gran resistencia de los priones a los procesos de destrucción clásicos ha dado lugar a varias crisis económico-sanitarias de gran alcance, como la crisis de las vacas locas en los años ochenta y noventa o el escándalo de la hormona del crecimiento contaminada.

¿Es contagiosa?

Los procesos de agregación del péptido Aβ y de la proteína Tau presentan semejanzas con el proceso observado en los priones. Así pues, ¿es posible que la enfermedad pueda transmitirse entre personas, según un mecanismo idéntico al del prion? Diversos grupos de científicos han intentado responder a esta pregunta.

De forma experimental, varios equipos de investigadores han podido inducir la proliferación de agregados de péptidos Aβ en animales de laboratorio. Por otra parte, más recientemente, se han llevado a cabo diferentes trabajos que apuntan a la existencia de casos de transmisión iatrogénica del péptido Aβ patógeno, lo que ha dado lugar a angiopatías amiloides cerebrales. Las hormonas de crecimiento producidas, en particular, antes de 1977 no solo habrían estado contaminadas por el prion, sino también por el péptido Aβ, y habrían podido intervenir en el desarrollo de la enfermedad de Alzheimer.

Paralelamente a la publicación de estos trabajos, se ha detallado de manera especial otra población llamada “de riesgo”, la de los pacientes que han recibido un trasplante de duramadre. Esta fina membrana fibrosa que protege el cerebro podía extraerse de cadáveres y utilizarse como “gasa” tras la realización de operaciones neuroquirúrgicas invasivas. Esta práctica se prohibió en Francia en 1994, pues los trasplantes de duramadre dieron lugar a casos de transmisión iatrogénica del prion humano.

Se llevaron a cabo tres estudios (suizo, japonés e internacional) que mostraron respectivamente que el 71,4%, el 81% y el 61,5% de los pacientes que recibieron este tipo de trasplante desarrollaron posteriormente angiopatías amiloides cerebrales. Aunque no es posible aportar la prueba formal de la contaminación por causa de los trasplantes, la localización de las lesiones y de los depósitos proteicos indica con claridad que el trasplante es la causa del cambio de forma y de la agregación de los péptidos Aβ del receptor.

Un estudio también ha señalado que los instrumentos quirúrgicos utilizados en neurocirugía tal vez podrían constituir a veces una fuente de contaminación, aunque el riesgo es probablemente muy bajo. No obstante, los autores de estos trabajos proponen que se mejoren los procedimientos de esterilización.

¿Es una enfermedad producida por priones?

Desde un punto de vista mecanístico, queda claro que la enfermedad de Alzheimer se parece a las enfermedades producidas por priones. Si nos atenemos a la definición estricta de la palabra prion —partícula proteica infecciosa—, la enfermedad de Alzheimer debería estar incluida, puesto que ha quedado demostrado el carácter transmisible de los ensamblajes proteicos tóxicos que la causan, al menos de forma experimental.

No obstante, de acuerdo con los resultados de investigación, el concepto de prion se ha ampliado: se ha revelado la existencia de diferentes cepas de priones así como su capacidad para “mutar” y adaptarse a su nuevo huésped. En este aspecto, las enfermedades producidas por priones se diferencian de la enfermedad de Alzheimer. Así pues, de acuerdo con el nivel de conocimientos actual, parece más justo calificar esta última como “enfermedad de tipo prion” o “de amiloides infecciosos”. O ampliar el término de agente transmisible no convencional a los ensamblajes proteicos causantes de la enfermedad de Alzheimer.

Sobre la autora: Angélique Igel-Egalon es ingeniera de investigación del grupo de macroagregados proteicos y enfermedades priónicas del Inra

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Es contagiosa la enfermedad de Alzheimer? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Prevenir y tratar la enfermedad de Alzheimer: Una visión moderna
  2. El papel de la insulina en la enfermedad de Alzheimer
  3. El citoesqueleto de las neuronas y el alzhéimer
Categorías: Zientzia

Sin intimidad genética

Dom, 2019/10/06 - 11:59
Fuente: Pixabay

Madonna, la conocida cantante, contrata equipos para que limpien de manera concienzuda las habitaciones de hotel en que se ha alojado. Pretende evitar así que alguien consiga muestras biológicas de las que extraer material que pueda ser utilizado para secuenciar su genoma. Puede ser prudencia exagerada, pero no es ninguna extravagancia.

Al lado de la información genética que pueda extraerse de una muestra biológica mínima y, sobre todo, de la forma en que esa información sea transmitida al gran público, las imágenes que capturan hoy los paparazzi de las celebridades serían juegos de patio de colegio. ¿Se lo imaginan?

Angelina Jollie se sometió a sendas operaciones quirúrgicas para extirparse las mamas y los ovarios porque tenía, por causas genéticas, un 87 y un 50% de probabilidades de sufrir cáncer de mama y cáncer de ovario respectivamente. Hizo públicas esas decisiones porque quiso. Pero lo que teme Madonna es que otros, sin que ella pueda ejercer control alguno, puedan hacer pública alguna información de ese estilo relativa a su persona.

¿Se imaginan lo que harían ciertos medios o algunos políticos con información genética relativa a un adversario? Un candidato a ocupar un alto cargo podría ser presentado a la opinión pública como alguien predispuesto genéticamente a adoptar comportamientos de riesgo, por ejemplo. Incluso suponiendo que hubiera algo de verdad en esa supuesta propensión, ¿cómo lo presentaría un medio sensacionalista? ¿cómo se haría alusión a ello en las tertulias de radio o televisión? ¿cómo lo entendería el máximo responsable de su partido? ¿qué pensaráin los votantes de ese partido? Presumo que esas prácticas no serían legales, pero ¿supodría ello una diferencia importante en la práctica?

Análisis genéticos comerciales han servido ya en los Estados Unidos para localizar a la madre de un donante de semen. Cuando esa práctica se generalice, los donantes dejarán de ser anónimos, lo que introducirá cambios importantes en las reglas o podría, incluso, conducir a la desaparición de esa modalidad de donación.

Pero la pérdida del anonimato no se limita al ámbito de los donantes de semen. Solo en Estados Unidos hay del orden de 90 empresas que hacen análisis de ADN para rastrear los ancestros de quienes recurren a sus servicios. Pues bien, el acceso a un porcentaje muy pequeño de la población es suficiente para poder trazar la ascendencia de la gran mayoría. Eso, que resulta sorprendente, es consecuencia de la tupida red de relaciones familiares que tiene cada persona. En los Estados Unidos, por ejemplo, desde el 2% se puede acceder, a traves de primos terceros, a la información genética del 99% de la población.

En esa progresiva pérdida de intimidad, el rizo lo ha rizado Ancestry, una conocida compañía norteamericana de genealogía que comercializa tests genéticos. Tras aliarse con Spotify la conocida firma de música on-line, ofrece, además del correspondiente test de ADN, la lista de música inspirada, supuestamente, en los orígenes del cliente. Nada hay en el ADN de una persona que pueda servir a tal fin. Por mucho que el gusto genérico por la música pueda de alguna forma estar codificado en el genoma, no hay manera de saber qué música escuchaban nuestros ancestros, si es que escuchaban alguna, a partir de su análisis. Porque la particular forma que adquiere la expresión musical es un rasgo cultural y se transmite, por ello, mediante aprendizaje y contagio social.

Envoltorio musical aparte ¿a nadie se le ha ocurrido pensar el uso que una red social como Spotify podría hacer de la información genética de miles de usuarios? Recuerden lo que ha hecho Facebook con información igualmente sensible pero de otra naturaleza.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sin intimidad genética se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Poca influencia genética en el desempeño educativo
  2. Contra el furtivismo, genética molecular
  3. Genética en las aulas
Categorías: Zientzia

Materiales inteligentes y multifuncionales para impulsar el desarrollo tecnológico

Sáb, 2019/10/05 - 11:59

Los materiales inteligentes, también denominados activos o multifuncionales, son estructuras capaces de modificar sus propiedades como respuesta a estímulos físicos o químicos externos, como la presión, la temperatura o la humedad del entorno.

Por sus características, estos componentes ofrecen un elevado potencial de aplicación en sectores como el transporte, la energía o la biomedicina. Combinados con técnicas de fabricación avanzada como la fabricación aditiva o las nuevas tecnologías de impresión, estos materiales resultan particularmente relevantes en ámbitos como la Industria 4.0 o el denominado “Internet de las cosas”, con importantes implicaciones sociales, económicas y laborales, entre otras.

El físico Senentxu Lanceros-Mendez, actual director científico del BCMaterials (Basque Center for Materials, Applications and Nanostructures), analizó la relevancia de estos elementos en la conferencia titulada “Importancia de los materiales inteligentes y multifuncionales en el desarrollo tecnológico actual”, que se celebró el pasado 27 de febrero en la Biblioteca Bidebarrieta de Bilbao. El investigador Ikerbasque explica en ella no solo  los aspectos más destacados de los nuevos materiales inteligentes, sino también las aplicaciones hasta hace poco inimaginables que estos permiten y sus implicaciones económicas y sociales.

Senentxu Lanceros-Mendez es licenciado en Física por la UPV/EHU y doctorado por la Universidad Julius-Maximilians-Universität Würzburg (Alemania). Su investigación está centrada en el desarrollo de nuevos materiales inteligentes y multifuncionales para su aplicación en sensores, actuadores, energía y biomedicina.

La charla se enmarca dentro del ciclo “Bidebarrieta Científica” una iniciativa que organiza todos los meses la Cátedra de Cultura Científica de la UPV/EHU y la Biblioteca Bidebarrieta para divulgar asuntos científicos de actualidad.

Edición realizada por César Tomé López

El artículo Materiales inteligentes y multifuncionales para impulsar el desarrollo tecnológico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un atlas para materiales 2D
  2. Ciencia, arte y cultura callejera: materiales y obra artística
  3. Un algoritmo genético para buscar materiales 2D
Categorías: Zientzia

¿Son evitables los ataques con drones?

Vie, 2019/10/04 - 11:59


Julián Estévez Sanz

Foto: photoAC / Pixabay

La respuesta corta a la pregunta del título es: ahora mismo, no.

Si algún lector quiere seguir leyendo, desarrollaré un poco más la explicación. Al hilo de los ataques sufridos en las instalaciones de Saudi Aramco, muchas personas se preguntan si el ataque se pudo evitar. O incluso, pensando en el futuro, si se podrá evitar cuando vuelva a pasar. La respuesta es que no será nada fácil. No hay un sistema de contramedidas 100 % fiable.

¿Se acuerdan los lectores de que el año pasado unos drones obligaron a cerrar el aeropuerto de Gatwick? Fíjense en el caos y en la dificultad para tratar estas emergencias, que incluso las autoridades llegaron a pensar que quizás esos drones nunca habían existido. Había tal confusión que, meses más tarde, la policía en uno de sus informes finales recogió más de 100 visiones de estos multirrotores.

Unos drones domésticos paralizaron el aeropuerto de Gatwick.

El caso de Gatwick es diferente del de Aramco, ya que no se emplearon los drones para el ataque. Estas máquinas se llevan usando para hacer daño al enemigo desde hace bastante tiempo. Ya en el siglo XIII a.C. la dinastia china Song usaba cometas para sobrevolar por encima de sus enemigos, a las que entonces prendía fuego. Ese episodio representa el primer vestigio de la guerra con drones.

Si viajamos a tiempos más recientes, en 2003 la OTAN lanzó un programa que duraría 10 años para el estudio de contramedidas contra esta tecnología. Este informe no ha sido abierto al público. En 2008, el think tank RAND Corporation publicó un informe sobre la amenaza que los robots voladores suponían para la seguridad de Estados Unidos. El ISIS usó con gran éxito estos aparatos en sus ataques. Una de las maniobras más sonadas fue la de enero de 2018, cuando este grupo terrorista coordinó una docena de estos ingenios contra dos instalaciones militares en Rusia.

Además, a los responsables de seguridad les pone los pelos como escarpias la aparente naturalidad con la que los vehículos aéreos no tripulados se acercan a objetivos muy sensibles. Como Pedro por su casa, que dirían. En 2013, por ejemplo, el Partido Pirata alemán voló un drone muy cerca de Angela Merkel, sin ningún peligro, pero dejando muchas dudas sobre la preparación de la seguridad ante estas eventualidades. Incluso en 2015, un hombre estrelló su juguete en los terrenos de la Casa Blanca.

Medidas de defensa

Conviene aclarar que las medidas antiaéreas tradicionales no sirven de nada contra estos aparatos. En 2016, un sencillo drone que sobrevoló el cielo de Israel procedente de Siria no sucumbió ante el ataque de dos misiles Patriot ni de un misil aire-aire lanzado desde un avión israelí. Las medidas antidrones son más sutiles.

Actualmente, los sistemas para combatir a los vehículos aéreos no tripulados los podemos clasificar en los siguientes tipos:

Detección

Los drones son tan pequeños que no son fáciles de detectar con un radar. Se emplean otras tecnologías como sensores de radiofrecuencia, acústicos y ópticos. Estas medidas tienen la desventaja de que necesitan tener línea directa de visión con la máquina voladora. Para solventarlo, existen sensores acústicos, que se valen de grandes librerías que intentan detectar el sonido característico de estos aparatos. Pero la incorporación al mercado de estos drones es muy rápida, y la librería no siempre es fácil de mantener actualizada. Todas estas imprecisiones llevan a que haya un gran número de falsos positivos, lo cual no es nada deseable.

Interceptación

Estas medidas consisten en interrumpir las comunicaciones del drone. Ya sea con el operador que lo maneje, con una estación o con un satélite. Esto tampoco es 100 % efectivo, ya que muchos están programados para navegar de manera autónoma.

Por otro lado, también se contempla la idea de lanzar redes para atascar los rotores del drone. Hay espectaculares vídeos comerciales sobre estas iniciativas de derribo de UAVs con unas armas bastante aparatosas que normalmente requieren un espacio aéreo totalmente despejado.

Vídeo promocional de SkyWall 100, una bazuca anti drones.

En esta línea encontramos también el famoso caso de las águilas usadas por la policía holandesa, aunque esta idea se rechazó finalmente.

Algunos fabricantes de drones tienen la opción de configurar en qué área geográfica pueden operar sus productos, tal y como lo demostró la empresa DJI en el conflicto de Siria. Esta medida parece fácilmente salvable por unos terroristas.

Aunque el mayor problema de atacar un drone que transporta una bomba es: ¿qué hacer cuando caiga? Por lo tanto, vuelve a quedar claro que no existen medidas 100 % efectivas de interceptación.

Conclusión

El número y el mercado de contramedidas se ha multiplicado en los últimos años y la amenaza hace tiempo que está detectada. Muchas medidas que he presentado aquí no se pueden usar directamente en un aeropuerto, ya que podría interferir en la comunicación con los aviones, así que un caso como el de Gatwick podría repetirse.

Sin embargo, tanto pero no significa que evitar este tipo de ataques sea imposible. Aunque no sean tan mediáticos, ya existen casos de interceptación de drones, como en el aeropuerto de Londres hace unos pocos días. El interés de las fuerzas de seguridad y los ejércitos en este ámbito va en aumento.

Sobre el autor: Julián Estévez Sanz es profesor ayudante de Robótica e Inteligencia Artificial en el Departamento de Ingeniería Mecánica de la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Son evitables los ataques con drones? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ataques preventivos
  2. Marcas de agua digitales, qué son y para qué sirven
  3. Insectos agrícolas
Categorías: Zientzia

Adulterar los cigarrillos electrónicos te puede matar

Jue, 2019/10/03 - 11:59
Foto de Austin Lawrence

 

  • 805 afectados y 12 muertos

El New York Times alertaba a principios de septiembre de una nueva muerte consecuencia del vapeo en el estado de Oregón. Es la segunda muerte registrada después de la acontecida en Illinois hace casi dos meses.

Cuando el número de afectados ingresados llegó a 53, el Departamento de Salud Pública de Illinois elaboró un informe acerca de las similitudes de estos pacientes. Todos ellos presentaban infiltraciones pulmonares, es decir, tenían sustancias adheridas a los pulmones que dificultaban su normal funcionamiento, provocando inflamación e impidiendo la respiración. Fueron tratados con esteroides para frenar la inflamación, coma inducido, lavado broncoalveolar, antibióticos para tratar las neumonías y con respiración asistida. Los expertos se enfrentan a un nuevo síndrome cuyas causas, aseguran en el informe, requieren un estudio urgente.

Según los CDC (Centros para el Control y la Prevención de Enfermedades de Estados Unidos) los casos de enfermedad pulmonar asociados al mal uso de cigarrillos electrónicos aumentaron un 52% en la última semana. Hay 805 afectados y 12 muertos. En su mayoría adolescentes. En todos los casos parece que los consumidores manipularon los vapeadores para fumar otro tipo de sustancias, diferentes a las que contienen los cigarrillos electrónicos convencionales, y utilizaron cartuchos del mercado negro. La inhalación de sustancias tóxicas es el origen del misterioso síndrome pulmonar.

  • La “epidemia” no es por vapear. Hay algo más.

Lo más importante de este suceso es que los afectados no fumaban con vapeadores normales, sino que los manipularon y usaron cargas irregulares.

Mas del 90% de los afectados reconoció haber utilizado vapeadores cargados con aceites que contenían cannabinoides, como el THC (tetrahidrocannabinol) y el CBD (cannabidiol). Es decir, alteraron las cargas originales de estos dispositivos.

Se están estudiando otros posibles contaminantes como hidrocarburos aromáticos policíclicos, compuestos liposolubles como la vitamina E, nitrosaminas, productos químicos orgánicos volátiles como el formaldehído y productos químicos inorgánicos como metales. También se han detectado endotoxinas y compuestos aromatizantes como el diacetilo y la 2,3-pentanodiona.

En busca de respuestas, NBC News encargó a CannaSafe, un laboratorio experto en análisis de cartuchos de vapeadores, el análisis de 18 cartuchos, 3 comprados en dispensadores legales de California y 15 del mercado ilegal. De los tres comprados en dispensarios legales, la compañía de pruebas CannaSafe no encontró metales pesados, pesticidas o disolventes residuales como la vitamina E. Pero 13 de las otras 15 muestras de cartuchos de THC del mercado negro sí contenían vitamina E.

La vitamina E es una sustancia liposoluble, es decir, en los pulmones puede comportarse como un aceite que se va adhiriendo al árbol respiratorio. El organismo se defiende intentando eliminar ese cuerpo extraño y para ello utiliza las células expertas en ello: los eosinófilos. El resultado de esto puede derivar en neumonía eosinófila aguda.

CannaSafe también probó pesticidas en 10 de los cartuchos no regulados. Los 10 dieron positivo. Todos los productos contenían el fungicida myclobutanil, una sustancia que puede transformarse en cianuro de hidrógeno cuando se quema. El cianuro es tóxico por inhalación, ya que inhibe la respiración celular. Es mortal a partir de 300 ppm de concentración.

Los jóvenes afectados por esta “epidemia” no habían utilizado cápsulas comerciales, sino que las habían adulterado para poder fumar otras drogas o ahorrar dinero.

La razón por la que llevamos meses preguntándonos si el origen de este misterioso síndrome pulmonar está en los cigarrillos electrónicos, es que muchos de los jóvenes afectados ocultaron la información. Los médicos no sabían qué estaban fumando. Esto obstaculiza el tratamiento y el diagnóstico.

  • Composición de los cigarrillos electrónicos convencionales

Los principales componentes de los cigarrillos electrónicos convencionales a base de nicotina incluyen propilenglicol y glicerina, además de la nicotina. También algún aromatizante. En ningún caso contienen aceites.

A excepción de la nicotina, inhalar estas sustancias no supone ningún peligro. Sin embargo, aunque en estos dispositivos no se producen reacciones de combustión, tal y como ocurre con el tabaco convencional, sí se produce calentamiento. El calentamiento sí puede dar lugar a la formación de otras sustancias que están en el punto de mira. Se sigue estudiando la formación de sustancias peligrosas como el formaldehído y las acroleínas como subproducto de reacción en algunos de estos dispositivos. Sea como fuere, los niveles de estas sustancias potencialmente tóxicas que se pueden formar en los cigarrillos electrónicos estarán muy por debajo de las que se forman en el tabaco. Desde el punto de vista exclusivamente bioquímico, atendiendo a las sustancias presentes en el humo y su impacto en la salud, los cigarrillos electrónicos no son totalmente inocuos, pero sí son más seguros que fumar tabaco convencional.

  • Pros de los cigarrillos electrónicos

Durante la combustión del tabaco convencional se producen sustancias relacionadas con el cáncer, como bencenos, alquitrán y amoniaco. Sustancias que no se producen en los vapeadores.

Un estudio de Sigma Dos asegura que el 96,3% de los españoles recurren al cigarrillo electrónico como sustituto del tabaco. De ellos, el 69,8% ha logrado cambiar el humo por el vapor; reemplazar por completo el tabaco por los nuevos dispositivos electrónicos de liberación controlada de nicotina consiguiendo así no volver a fumar tabaco convencional.

Sin embargo, los estudios realizados hasta la fecha no son muy prometedores con respecto al abandono del tabaquismo. Aunque fumar es significativamente más insalubre que vapear, no hay evidencias sobre que el vapeo sea una estrategia útil para dejar de fumar. Al menos no parece ofrecer una tasa de éxito mayor que otras estrategias.

No obstante, en 2015 el Gobierno del Reino Unido decidió autorizar a los médicos de su sistema público de salud a prescribir los vaporizadores como tratamiento alternativo para dejar de fumar, igual que ocurre en España con las terapias de reemplazo de nicotina, como los parches o chicles de nicotina. Una decisión avalada por un informe del Real Colegio de Médicos británicos que asegura que el uso de vaporizadores es «un 95% menos dañino» que el tabaco.

Aunque los autores del trabajo en el que se citaba este dato fueron acusados de conflicto de interés, la evidencia científica nos dice que los cigarrillos electrónicos ofrecen niveles mucho más bajos de carcinógenos que los cigarrillos convencionales. No son inocuos, pero sí suponen una mejora significativa.

Con respecto a la salud cardiovascular, el cigarrillo electrónico no parece ofrecer ventajas frente al tabaco convencional. El riesgo de infarto de miocardio e ictus es prácticamente el mismo.

  • Contras de los cigarrillos electrónicos

Aunque la evidencia científica es escasa, con respecto a enfermedades pulmonares, todo apunta a que el cigarrillo electrónico podría aumentar el riesgo de bronquitis y asma. Pero este no es el contra más importante.

Austin Lawrence retratado por Matt Martin para GQ

Este tipo de dispositivos se han introducido en el mercado como sustitutos del tabaco, como una transición plácida hasta dejar definitivamente de fumar. Aparentemente es un win-win. Los consumidores van dejando de fumar y esto sigue reportando beneficios a la industria del tabaco. British American Tobacco (BAT), Philip Morris, Japan Tobacco International (JTI) y Altadis, las cuatro grandes del sector, comercializan distintas modalidades de cigarrillos electrónicos.

Pero a su vez, estos dispositivos que se presentaban como una alternativa para dejar de fumar, se han colado en el mercado como un caballo de Troya capaz de persuadir a nuevos clientes. Vapear se ha convertido en una moda que arrasa en las redes sociales. Uno de los más famosos es Austin Lawrence, que cuenta con más de 3 millones de seguidores en Intagram y en Youtube.

Los adolescentes son atraídos mediante técnicas de marketing que van desde el «esto que fumas no hace daño» hasta el «te ofrezco sabores como el de pepino«, claramente dirigidas a los más jóvenes. Las campañas publicitarias son del tipo “glamur y libertad”. Nos recuerdan a las que en su día se hacían con el tabaco convencional. Quienes comienzan a fumar utilizando cigarrillos electrónicos con nicotina no deberían olvidarse de que la nicotina es una sustancia adictiva, y la adicción es contraria a la libertad.

  • Los jóvenes fuman menos y empiezan más tarde, pero vapean más

En la encuesta Estudes sobre consumo de drogas entre estudiantes se muestra que el 20,1% de los alumnos ha utilizado cigarrillos electrónicos alguna vez en su vida, observándose una mayor extensión entre los chicos. Entre los que admiten haber vapeado en alguna ocasión, el 52,6% utilizó cartuchos sin nicotina, el 22,4% con nicotina y el 24,9% admitieron haber utilizado ambos tipos. La proporción de usuarios de cigarrillos electrónicos es considerablemente más alta ente los que fuman tabaco a diario que entre los que no lo hacen.

El 34,7% (31,4 en 2014) de los alumnos ha fumado tabaco en el último año. El consumo diario se sitúa en el 8,8% (8,9% en 2014), cifra mínima de la serie histórica de Estudes. En 2004, el 21,5% de este sector de la población fumaba a diario. Por término medio, el primer consumo de tabaco se produce a los 14,1 años; por primera vez a lo largo de toda la serie histórica de Estudes se supera la frontera de los 14 años. La adquisición del hábito de fumar diariamente, igual que ocurría en 2014, comienza a los 14,6 años de media, apenas medio año después de haberlo probado por primera vez. Parece que la irrupción del cigarrillo electrónico no ha aumentado el número de fumadores adolescentes ni la edad a la que empiezan a fumar. Parece que un hábito ha reemplazado en parte al otro.

Meme creado por Adam Padilla

 

Aunque el juguete mi primer vapeador no existe, fue un meme creado por Adam Padilla, sí se comercializaron cigarrillos de chocolate, que vienen a ser lo mismo. Los cigarrillos de chocolate fueron creados por Milton Snavely Hershey en 1906 y se popularizaron en España en la década de los 80, cuando un tercio de la población era fumadora. En 2005 fueron retirados del mercado español debido a la aprobación de la Ley Antitabaco, que especifica: «En particular, se prohíbe la venta de dulces, refrigerios, juguetes y otros objetos que tengan forma de productos del tabaco y puedan resultar atractivos para los menores».

La prohibición de los cigarrillos de chocolate pretendía lanzar el mensaje de que el tabaquismo no es un juego. El meme de Adam Padilla pretende lo mismo con respecto al vapeo. Del mismo modo, decenas de sociedades médicas han firmado la llamada Declaración de Madrid, promovida por el Comité Nacional de Prevención del Tabaquismo, que insta a aplicar la actual regulación sobre espacios sin humo a los cigarrillos electrónicos. El objetivo es doble. Por un lado, evitar la toxicidad pasiva que estos ocasionan, y por otro, conseguir la desnormalización del vapeo en lugares públicos.

  • Reflexión final

La manipulación de cigarrillos electrónicos ha causado la muerte de 12 personas y ya hay 805 afectados por un síndrome pulmonar grave. Los afectados adulteraron deliberadamente estos dispositivos, por lo que no podemos culpar a los cigarrillos electrónicos de esta “epidemia”. Lo responsable desde los medios de comunicación es alertar del peligro que supone adulterar estos dispositivos.

La evidencia científica apunta a que es mucho peor para la salud fumar que vapear. No está tan claro que sea una buena estrategia para dejar de fumar, pero al menos vapear en lugar de fumar sí es un cambio a mejor siempre y cuando se utilice tal y como indica el fabricante y con las recargas oficiales.

Aunque vapear no es totalmente inocuo, el principal contra no está tanto en las sustancias que se inhalan, sino en el hábito al que inducen.

Los cigarrillos electrónicos irrumpieron en el mercado como una estrategia más para dejar de fumar. La intuición nos dice que es una estrategia ganadora, ya que imita el hábito de fumar, cosa que no ocurre con los chicles o los parches de nicotina. El cigarrillo electrónico era un objeto tosco y caro, así que en principio era difícil imaginarse que el vapeo se convertiría en una actividad lúdica. Pero el glamur es muy importante. Los cigarrillos electrónicos son dispositivos cada vez más sofisticados. Además, la nube de vapor que crean al exhalar es muy estética. Permite hacer trucos visuales, como aros y otras formas, muy atractivos para la fotografía. El vapeo es instagrameable. La publicidad ha hecho el resto.

Que los jóvenes vapeen con cigarrillos electrónicos en lugar de fumar tabaco convencional no es el escenario ideal, pero siempre y cuando no manipulen los dispositivos, desde el punto de vista de la salud pública puede verse como una mejora. No obstante, las restricciones legales del tabaco convencional deberían extenderse al cigarrillo electrónico, a fin desincentivar su uso. La situación ideal sería que los jóvenes no fumasen si lo uno ni lo otro. Pero no vivimos en un mundo ideal.

La realidad es que si los cigarrillos electrónicos e Instagram hubiesen existido cuando yo tenía 15 años, en lugar de dar una primera calada a un pitillo, se la habría dado a un cigarrillo electrónico. Porque cuando tienes 15 años, molar es lo más importante. Habría sido mejor, pero no lo mejor. Ojalá hubiese sabido que para molar no hacía falta inhalar mierdas.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Adulterar los cigarrillos electrónicos te puede matar se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Polímeros biocompatibles para integrar dispositivos electrónicos en nuestro cuerpo
  2. Todo lo que se puede medir en un río
  3. Lo que la tensión puede hacer en dos capas de grafeno
Categorías: Zientzia

Dos teoremas de la amistad

Mié, 2019/10/02 - 11:59

 

Entre los individuos, la amistad nunca viene dada, sino que debe conquistarse indefinidamente.

Simone de Beauvoir

Decir amistad es decir entendimiento cabal, confianza rápida y larga memoria; es decir, fidelidad.

Gabriela Mistral

Recordemos que, en matemáticas, un grafo está definido por un conjunto de vértices y un conjunto de aristas uniendo algunos de estos vértices. Un grafo se llama plano cuando puede dibujarse en el plano sin que ninguna arista se cruce. Los ejemplos más sencillos de grafos no planos son los conocidos como K5 y K3,3.

Grafos K5 y K3,3.

 

De hecho, en 1930, el matemático y lógico Kazimierz Kuratowski (1896-1980) demostró este bello teorema que caracteriza la ‘planitud’ de cualquier grafo:

Un grafo es plano si y solo si no contiene ningún subgrafo homeomorfo a K5 o K3,3.

El grafo de la amistad Fnse construye uniendo n copias del grafo cíclo C3 a través de un vértice común.

El grafo de la amistad F8 como unión a través de un vértice de 8 copias de C3.



Se trata de un grafo plano que posee 2n+1 vértices y 3n aristas.

Grafos de la amistad F2, F3 y F4

 

En 1966 Paul Erdős, Alfréd Rényi y Vera T. Sós demostraron el que llamaremos el primer teorema de la amistad, que dice lo siguiente (ver [2]):

Los grafos finitos con la propiedad de que dos vértices cualesquiera tienen exactamente un vértice vecino en común son precisamente los grafos de la amistad.

Una manera de pensar en este teorema –y de allí su nombre– es el siguiente: si un grupo de personas posee la característica de que cada par de ellas tiene exactamente un amigo en común, entonces debe de haber una persona que sea amiga de todas las demás.

El primer teorema de la amistad no funciona para grafos infinitos, es decir, pueden existir grafos infinitos diferentes, con la propiedad de que ‘dos vértices cualesquiera tienen exactamente un vértice vecino en común’ y con el mismo cardinal (ver [3]).

Por cierto, Vera T. Sós (1930) es una especialista en combinatoria. Esa “T.” corresponde al apellido de su marido, Pál Turán (1910-1976). Ambos fueron estudiantes de Lipót Fejér… y ambos poseen número de Erdős igual a 1.

Para establecer el segundo teorema de la amistad, supongamos que en una fiesta hay 6 personas. Si tomamos dos de ellas al azar, o bien se encuentran por primera vez –les llamaremos mutuamente extraños– o bien se conocían previamente –los llamaremos mutuamente conocidos–. El teorema dice entonces lo siguiente:

En cualquier grupo de seis personas, existen tres personas que son mutuamente conocidas o mutuamente desconocidas.

Este problema puede reformularse en términos de teoría de grafos. Recordemos que un grafo se llama completo si es un grafo simple –sin aristas múltiples entre vértices, en particular, sin bucles– donde cada par de vértices está conectado por una arista. Un grafo completo de n vértices se denota Kn –antes hemos hablado de K5–.

K6 contiene 15 aristas.

Grafo K6.

 

Cada persona asistente a esa fiesta se puede representar por uno de los vértices. Coloreemos la arista uniendo dos vértices de rojo si las personas correspondientes son mutuamente conocidas y de azul si son mutuamente extrañas.

El segundo teorema de la amistad se reformula entonces en términos de coloreado de grafos:

Si coloreamos con rojo o azul las 15 aristas de K6 siempre habrá un triángulo rojo o un triángulo azul.

La prueba es muy sencilla. Elegimos un vértice cualquiera V. Cinco aristas inciden con V, y serán de color rojo o azul. El principio del palomar garantiza que al menos tres aristas deben ser del mismo color; supongamos que es rojo. Llamemos A, B y C los vértices correspondientes a estas tres aristas. Si alguna de las aristas AB, BC, CA es roja, entonces esta arista junto con las dos aristas incidentes a V forman los lados de un triángulo rojo. Si ninguna de las aristas AB, BC, CA es roja, entonces las tres aristas son de color azul y se tiene el triángulo azul ABC.

El matemático Frank P. Ramsey (1903-1930) demostró un teorema general de combinatoria en su artículo On a problem of formal logic, este fue el origen de la llamada teoría de Ramsey. El segundo teorema de la amistad es un caso particular de este resultado.

Por cierto, el segundo teorema de la amistad no funciona para grupos de menos de 6 personas

Referencias

[1] Dutch Windmill Graph, Wolfram MathWorld

[2] Paul Erdős, Alfréd Rényi and Vera T. Sós, On a problema of graph theory, Studia Scientiarum Mathematicarum Hungarica 1 (1966) 215-235

[3] Václav Chvátal, Anton Kotzig, Ivo G Rosenberg and Roy O. Davies, Roy O., There are 2ℵα friendship graphs of cardinal ℵα, Canadian Mathematical Bulletin 19 (4) (1976) 431-433

[4] Teorema de la amistad, Wikipedia (consultado el 18 septiembre 2019)

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Dos teoremas de la amistad se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El juego del Sim
  2. Shizuo Kakutani y sus teoremas
  3. El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema?
Categorías: Zientzia

Los postulados de Bohr

Mar, 2019/10/01 - 11:59
Imagen: Gerd Altmann / Pixabay

Si suponemos, como hizo Rutherford, que un átomo consiste en un núcleo cargado positivamente rodeado de varios electrones cargados negativamente, ¿qué impide que los electrones y el núcleo se unan debido a la atracción eléctrica? Una posible respuesta es que un átomo podría ser como un sistema planetario, con los electrones girando en órbitas alrededor del núcleo [1]. Podemos pensar en un planeta que orbita alrededor del Sol como sujeto a una fuerza atractiva hacia el centro [2]. Si no fuese así el planeta seguiría en línea recta, de acuerdo con la primera ley del movimiento de Newton. Esta fuerza hacia el centro a menudo se llama fuerza centrípeta. Para los planetas, esta fuerza surge de la atracción gravitacional del Sol sobre el planeta [2]. Para el caso de los electrones en los átomos Rutherford sugirió que, haciendo el papel de fuerza gravitacional, la fuerza de atracción eléctrica entre el núcleo y el electrón suministraría una fuerza centrípeta. Esta fuerza centrípeta mantendría en órbita al electrón en movimiento.

La idea parece ser una buena base para un modelo útil de la estructura atómica. Pero surge un grave problema con respecto a la estabilidad de un átomo «planetario». Según la teoría del electromagnetismo de Maxwell, una partícula cargada pierde energía cuando se acelera. Un electrón que se mueve en una órbita alrededor de un núcleo cambia continuamente su dirección, por lo tanto, también su vector de velocidad. En otras palabras, siempre está siendo acelerado por la fuerza eléctrica centrípeta.

El electrón, por lo tanto, debería perder energía emitiendo radiación y, por lo tanto, acercándose constantemente al núcleo. En muy poco tiempo, el electrón que pierde energía se termina precipitando en el núcleo. [1] Según la física clásica, la mecánica y el electromagnetismo, un átomo planetario no sería estable durante más de una fracción muy pequeña de un segundo. Con todo, y a sabiendas de esta dificultad insalvable desde el punto de vista clásico, la idea de un átomo planetario era muy atractiva.

La comunidad física continuó buscando un modelo que incluyese una estructura planetaria estable y que, entre otras cosas, pudiese explicar los espectros de emisión de los elementos. Niels Bohr, entonces un físico danés desconocido que acababa de recibir su doctorado, logró construir un modelo muy interesante en 1912-1913. Este modelo se conoce como modelo de Bohr o modelo cuántico del átomo [4], porque incorporó con éxito la idea cuántica de Einstein y Planck. Fue ampliamente reconocido como una gran victoria. Aunque tuvo que modificarse más tarde para tener en cuenta muchos más fenómenos, mostró cómo atacar problemas atómicos mediante el uso de la teoría cuántica. Dado que Bohr incorporó la idea de átomo nuclear de Rutherford, algo crucial para el modelo, el nombre más apropiado para éste quizás sería modelo de Rutherford-Bohr.

El modelo de Rutherford-Bohr en una imagen. La expresión en rojo es otra forma de escribir hf = Ei – Ef. Imagen: Wikimedia Commons

Bohr introdujo dos nuevos postulados [5] específicamente para explicar la existencia de órbitas de electrones estables y espectros de emisión diferentes para cada elemento. Estos postulados pueden expresarse de la siguiente manera:

1. Contrariamente a las predicciones de la física clásica, que después de todo había sido probada solo para circunstancias relativamente a gran escala, existen estados para un sistema atómico en el que no se emite radiación electromagnética a pesar de la aceleración de las partículas cargadas (electrones) . Estos estados se denominan estados estacionarios del átomo.

2. Cualquier emisión o absorción de radiación, ya sea como luz visible u otra radiación electromagnética, corresponde a una transición repentina de la carga entre dos de estos estados estacionarios. La radiación emitida o absorbida tiene una frecuencia f determinada por la relación hf = Ei – Ef (en esta ecuación h es la constante de Planck, y Ei y Ef son las energías del átomo en los estados estacionarios inicial y final, respectivamente.

La teoría cuántica había comenzado con la idea de Planck de que los átomos emiten luz solo en cantidades definidas de energía. Este concepto fue ampliado por la idea de Einstein de que la luz viaja solo como paquetes definidos, cuantos, de energía. Ahora se extendía aún más por lel postulado de Bohr de que los átomos existen en un estado estable solo en estados de energía definidos y «cuantizados». Pero Bohr también usó el concepto cuántico para decidir cuál de todos los estados estacionarios concebibles son realmente posibles. Veremos un ejemplo en la siguiente entrega de la serie.

Notas:

[1] La imagen del sistema planetario atómico es parte del desarrollo histórico del modelo. Debemos recordar que los átomos NO son sistemas planetarios de la misma forma que no son pudin de pasas.

[2] Este es el modelo newtoniano. Sabemos desde la aparición de la relatividad general que esto es solo una aproximación válida matemáticamente.

[3] Parecido a lo que le ocurre a un satélite artificial, que pierde energía debido a la fricción en la atmósfera superior, y gradualmente se mueve en espiral hacia la Tierra. Caería si no se corrigiese su trayectoria con propulsores.

[4] Se lo conoce así pero, en realidad, el modelo de Bohr es el quinto modelo cuántico construido. Más sobre ello en este vídeo.

[5] Son postulados porque se postulan, es decir, al asumir que son ciertos el modelo arroja resultados coherentes con los datos experimentales. No hay otro razonamiento más que este.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los postulados de Bohr se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Quantum13 Bohr no fue el primero
  2. 1913-2013: del modelo atómico de Bohr al Higgs
  3. Bohr y la veneración de la autoridad
Categorías: Zientzia

Lo prudente es hablar de emergencia climática

Lun, 2019/09/30 - 11:59


Daniel Ortiz Gonzalo

Río Segura a su paso por Murcia tras las intensas lluvias provocadas por el fenómeno DANA a principios de septiembre.
Jose y yo Estudio/Shutterstock

No podíamos seguir permitiéndonos en España una falta de atención mediática al cambio climático. Y menos tras haber sufrido una gota fría sin precedentes en diversos puntos de la costa mediterránea.

Se dijo que “era demasiado pronto” para relacionar las lluvias torrenciales con el cambio climático. Y mucha gente nos preguntamos hasta cuándo iba a seguir siendo demasiado pronto y si no era contraproducente guardar cautela a la hora de informar acerca de uno de los mayores retos de nuestro tiempo.

Frente a esa prudencia de no querer atribuir un evento regular como la gota fría al cambio climático, existe el consenso científico de que el aumento de la temperatura está detrás de la intensificación y la recurrencia de estos fenómenos.

Imágenes del municipio de Los Alcázares (Murcia) y el mar Menor del 19 de agosto de 2019 (izquierda) y del 13 de septiembre (derecha), tras el episodio de lluvias torrenciales.
Satélites Sentinel del programa europeo Copernicus/SnapPlanet

Dada la inacción política frente a la crisis climática, no querer precipitarse en mencionar el cambio climático solo ha retrasado el momento de poner sobre la mesa medidas urgentes tanto para mitigar emisiones como para adaptarnos a fenómenos extremos. Quizás, lo “prudente” sea informar con frecuencia sobre la emergencia climática.

Signos de una crisis sin precedentes

Si repasamos la actualidad climática, los últimos cinco años han sido los más cálidos jamás registrados. Así lo indica el reciente informe de la Organización Meteorológica Mundial encargado para la cumbre de la ONU sobre Acción Climática que se celebra estos días en Nueva York.

Mensajes clave del informe ‘Unidos en la ciencia’ producido por el Grupo Asesor de Ciencias Climáticas de la Cumbre de Acción Climática de la ONU 2019, Nueva York.
Organización Meteorológica Mundial

El hemisferio norte acaba de experimentar el verano más caluroso desde que se tienen registros. La proporción de ciclones tropicales intensos (categorías 4 y 5) se ha incrementado en el Atlántico Norte desde 1970.

Dorian ha sido el huracán más potente jamás registrado en azotar Las Bahamas. Ha dejado el archipiélago devastado a su paso. En su deriva hacia el norte, Dorian irrumpió en la circulación atmosférica de latitudes medias, generando perturbaciones en la corriente en chorro (chorro polar o jet stream).

Como si fuera el meandro abandonado de un río, de las ondulaciones generadas se descolgó una bolsa de aire frío –una depresión aislada en niveles altos (DANA) o gota fría– que llegó a alcanzar la franja mediterránea.

Mapa animado de isobaras donde se aprecian las perturbaciones generadas por Dorian y la formación de una DANA o gota fría. Alicia M. Bentley, Ph.D.

Sabemos desde hace tiempo que la temperatura superficial del Mediterráneo ha subido 1,27 °C de media en los últimos 35 años. Es una media aritmética, lo que significa que existe una mayor amplitud en eventos puntuales.

Un mar caliente junto con bolsas de aire frío en altura son dos de los ingredientes principales para el desarrollo de fenómenos convectivos adversos, como las intensas tormentas de las pasadas semanas.

Incertidumbre no significa inacción

Pese a la incertidumbre que pueda existir al relacionar los puntos arriba mencionados, no podemos permitirnos el lujo de continuar desperdiciando ocasiones para informar sobre la necesidad de actuar frente al cambio climático. Lo prudente es hablar de soluciones a la emergencia climática.

Si alguien todavía considera que la evidencia científica no es suficiente, las compañías aseguradoras también manejan una gran cantidad de indicadores al respecto.

Dado el grado de inacción, los peores escenarios pueden pasar a ser probables. Y recordemos que la comunidad científica tiende a ser conservadora en sus predicciones.

Hoy sabemos que, lejos de ser alarmistas, los científicos han subestimado la velocidad, la magnitud y la recurrencia de algunos de los impactos que estamos viviendo como consecuencia del cambio climático.

Más allá de la dimensión biofísica, los modelos económicos también han subestimado, o directamente omitido, muchas de las graves consecuencias del fenómeno en los medios de vida de las personas. Así lo pone de manifiesto el reciente informe de perspectiva política publicado por The Earth Institute, The Grantham Research Institute on Climate Change and the Environment y The Postdam Institute for Climate Impact Research.

Un punto de inflexión

La crisis climática no nos va a afectar menos por dejar de mentarla. Sin embargo, aumentar la cobertura mediática es fundamental para el llamamiento a la acción.

Iniciativas recientes como Covering Climate Now (The Nation y Columbia Journalism Review) y la Declaración de los Medios de Comunicación Frente al Cambio Climático (ECODES, MDCS y periodistas especializados) están logrando un punto de inflexión a la hora de informar sobre la emergencia climática.

Se trata del mayor esfuerzo hasta ahora realizado por los medios de comunicación para dar cobertura a la crisis climática. Y se refieren a crisis climática o emergencia climática porque el término cambio climático no reflejaba la urgencia del momento.

“Covering Climate Now es inusual, ambicioso, oportuno y bienvenido, sobre todo porque es raro ver medios de comunicación a menudo altamente competitivos colaborando por un propósito compartido”.

Editorial de Nature (15 de septiembre, 2019).

Llamamiento a la acción política

La atención mediática se suma al poderoso altavoz de la movilización mundial por el clima, que protagonizan los más jóvenes en todos los rincones del planeta. Desde que el año pasado Greta Thunberg comenzara las huelgas escolares Fridays for Future, millones de personas inspiradas por Greta, conscientes de la urgencia climática, se han sumado al llamamiento a la acción en más de 163 países.

¿Ha existido alguna vez una movilización tan extendida en todo el planeta? Probablemente no. Es, sin duda, un movimiento histórico, desde la base de la sociedad y sustentado en la ciencia, que está transformando el mundo a través de la equidad y la justicia intergeneracional.

Las movilizaciones por el clima, el apoyo de los medios de comunicación y la nueva convocatoria de elecciones en España suponen una oportunidad histórica para trasladar, de una vez por todas, la necesidad de acción climática a los responsables políticos.

No permitamos de nuevo que la crisis climática quede omitida o silenciada durante la campaña ni en los debates políticos. Solo así podremos elegir, de manera informada, líderes del lado de la ciencia para hacer frente a los retos del siglo XXI.

Daniel Ortiz Gonzalo es p ofesor e investigador postdoctoral en la Facultad de Ciencias, Departamento de Geociencias y Gestión de los Recursos Naturales, University of Copenhagen

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Lo prudente es hablar de emergencia climática se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
  2. Los ecosistemas acuáticos de África y el cambio climático
  3. Hablar de lo que pasa y de lo que pasó
Categorías: Zientzia

La tabla periódica en el arte: Plata

Dom, 2019/09/29 - 11:59

 

La plata es un metal de propiedades fascinantes: conduce la electricidad y el calor como ningún otro, es muy maleable y hasta posee propiedades desinfectantes. Sin embargo, quedémonos con un detalle que podría pasar inadvertido: es el único elemento “femenino” de la tabla periódica. A ninguno de los otros 117 elementos le acompaña el artículo la. Precisamente la plata está vinculada a divinidades femeninas en muchísimas culturas, casi siempre asociadas a la luna. Quizás la unión más hermosa sea la de civilización incaica que considera que la plata proviene de las lágrimas de la Mama Killa (Madre Luna), hermana y esposa de Inti, divinidad solar asociada al oro. Vemos, por tanto, que para este pueblo los metales preciosos tenían también valor religioso y no es de extrañar que elaborasen con ellos una gran cantidad de objetos ceremoniales. En la Imagen 1 podemos ver la representación de una llama trabajada en una aleación de plata, aunque en este caso de femenino tiene poco.

Imagen 1. Efigie inca de una llama (1450-1550), aleación de plata (4,5 x 4,5 x 1 cm). Fuente: Museum of Fine Arts Boston

Recordemos que una aleación es una mezcla de metales como, por ejemplo, cobre y estaño para formar bronce o cobre y zinc para crear latón. La mayoría de los objetos de plata están elaborados realmente con aleaciones, ya que en su forma pura es excesivamente maleable. Así que si tu collar o brazalete no es cien por cien plata, no te preocupes, se le ha añadido algún otro metal (generalmente cobre) para mejorar sus propiedades mecánicas. Así, cuando leas: realizado en plata de ley 925 (plata esterlina), significa que el 92,5 % de esa aleación es plata. En las joyerías podréis encontrar diferentes aleaciones que indican la proporción de ese metal: 800, 900, 958, etc. Claro que no todas las aleaciones tienen tanta plata. El vellón, por ejemplo, es una aleación que supera el 50 % de cobre. Se empleó mucho para acuñar monedas y, en ausencia de mejores materiales, para elaborar alhajas. Pese al bajo contenido en plata de esta aleación, puede haber casos peores: la plata que no es plata. Nos referimos a la alpaca, una aleación de cobre, zinc y níquel que en apariencia se asemeja al metal precioso que nos ocupa (no en vano también se conoce como plata alemana). Lo podéis juzgar en la Imagen 2.

Imagen 2. Boys Toys, de Willem Lenssinck (2014). Fuente: Willem Lenssinck

Posiblemente, al relacionar la plata con el arte, lo primero que nos venga a la cabeza sean objetos como los que acabamos de ver o delicadas piezas de orfebrería (platería, mejor dicho). Sin embargo, el papel de la plata en la Historia del Arte va mucho más allá y abarca ámbitos tan dispares como la fotografía, las vidrieras o el dibujo. Pasen y vean.

Una calle de París

El 19 de agosto de 1839 Louis Daguerre presentaba en la Academia de Ciencias de París una técnica que permitía capturar la realidad en una placa. En un alarde de imaginación la llamó daguerrotipia. Ya desde el siglo anterior se sabía que las sales de plata eran fotosensibles, así que sólo era necesario lograr un método para, valiéndose de esa propiedad, plasmar imágenes en un soporte sólido. Daguerre lo consiguió suspendiendo una placa de plata (o cobre plateado) sobre vapores de yoduro caliente, de modo que en la superficie se crease una capa de yoduro de plata (AgI). A continuación la placa se introducía dentro de una cámara oscura y se exponía a la luz durante varios minutos. Así, la luz provocaba que los iones de plata de la sal se convirtiesen en plata metálica, dando lugar a una imagen latente (con más plata donde más luz incidía). Posteriormente esa imagen latente se hacía visible gracias a la formación de amalgamas de mercurio y plata, para lo que era necesario exponer la placa a vapores del tan tóxico elemento. Finalmente, para que la imagen se fijase, se empleaba una disolución de sal común (que luego se sustituyó por tiosulfato de sodio por sugerencia de John Herschel). Mediante esta proceso fotográfico Daguerre capturó el Boulevard du Temple(Imagen 3), la primera fotografía que se conserva en la que aparecen humanos. Curiosamente sólo podemos ver a dos (en la parte inferior izquierda): un limpiabotas y su cliente, los únicos que permanecieron relativamente estáticos durante los más de diez minutos de exposición.

Imagen 3. Vista del Boulevard du Temple, de Louis Daguerre (1838 ó 1839): Fuente: Wikimedia Commons.

 

Nótese que la de Daguerre es la primera fotografía en la que aparecen personas, pero no es la primera fotografía que se conserva. Sería injusto quitarle ese mérito a Nicéphore Niépce con quien Daguerre colaboró hasta la muerte del primero en 1833. Niépce ya había conseguido realizar fotografías hacia 1816, aunque la más antigua que se conserva data de 1826 (Imagen 4). Para ello empleó betún de Judea, un material fotosensible que necesita varias horas de exposición. Sin embargo, tampoco fue Niépce el primero en realizar una fotografía. En 1802, Thomas Wedgwood publicó, nada más y nada menos que junto a Humphry Davy, un artículo en el que describía el uso de nitrato de plata para capturar fotogramas, pero, como no consiguió que la imagen se fijase, no ha tenido tanta transcendencia.

Imagen 4. Placa original de Vista desde la ventana en Le Gras, de Nicéphore Niépce (1826) en el Harry Ransom Center.

 

Los daguerrotipos tuvieron un gran éxito en Europa continental hasta 1860 y eclipsaron provisionalmente el trabajo presentado por William Fox Talbot en Inglaterra durante los años 30. El británico había seguido explorando las posibilidades que ofrecía el nitrato de plata y había logrado el primer papel fotográfico. Bajo la exposición a la luz y el posterior fijado, se conseguía una imagen en negativo (Imagen 5) que luego se podía pasar a positivo de una forma relativamente sencilla todas las veces que se desease. A partir de ahí se fue mejorando el método con el desarrollo de papeles fotográficos (colodión, baritado…) y emulsiones fotográficas, por lo que podemos considerar el proceso de Talbot como la base de la fotografía del s. XIX y el s. XX

Imagen 5. La ventana de Oriel en la Abadía de Lacock fotografíada por William Fox Talbot hacia 1835. Nótese que las zonas con más luz están más oscuras (lo que conocemos como negativo). Fuente: The Met.

Y se hizo la luz

Durante el siglo XIII el estilo gótico se extendió por gran parte de Europa. Así, las otrora sólidas paredes se poblaron de ventanales y rosetones decorados con vidrieras en las que se narraban historias de Cristo, la Virgen y los santos. Los artesanos lograron auténticas maravillas pese a una enorme limitación técnica: tenían vidrios de diferentes colores, pero no podían “pintar” otro color sobre ellos. Cada vez que querían cambiar de color tenían que usar un trozo de vidrio diferente, como si de un puzle se tratase. Todo lo que podían hacer era emplear una pasta negra o marrón que servía para realizar dibujos o cambiar las tonalidades y que se fijaba al vidrio tras un proceso de horneado (es decir, trabajaban con grisalla). Entonces llegó el amarillo de plata y lo cambió todo. Con este amarillo se podían colorear las vidrieras sin tener que añadir nuevas piezas al puzle. Puede parecer intranscendente, pero las posibilidades se multiplicaron. Ya no había que recurrir a otros trozos de vidrio para representar coronas, cabellos, nimbos o detalles dorados. Curiosamente las vidrieras se llenaron de oro gracias a la plata. Es más, combinando el amarillo de plata con vidrios azules se lograba verde, por lo que se podía obtener este color sin tener que usar trozos de vidrio verdes. Así se simplificó el arduo trabajo de plomado y el arte de la vidriera se acercó al de la pintura.

Imagen 6. Vidriera del s. XV de la iglesia de San Pedro de Mancfrot en Glasgow Museums.

 

Todo esto fue posible gracias al modo en el que el amarillo de plata interacciona con el vidrio. Al contrario de lo que pasa con muchas otras substancias, no se queda en la superficie de la vidriera, sino que penetra al interior hasta formar parte del vidrio. Se trata de un fenómeno fisicoquímico de gran interés que trataremos de resumir. Cuando se deposita una sal de plata (nitrato, normalmente) en la parte trasera del vidrio y se mete al horno (a unos 500 ó 600 ⁰C) los iones de plata viajan al interior reemplazando a iones de potasio o sodio. Poco a poco los iones siguen penetrando por difusión hasta zonas más profundas, por lo que no estamos hablando de un fenómeno superficial. Estos iones tomarán parte en reacciones de oxidación-reducción en las que los iones de plata se transformarán en plata metálica. Finalmente, los átomos de plata que se han creado formarán agregados hasta crear partículas microscópicas entre uno y cien nanómetros (cualquier bacteria es más grande que eso). Estas partículas interaccionan con la luz de diferente forma creando tonalidades que varían del amarillo al naranja. La nanotecnología al servicio del arte en pleno s. XIV.

Imagen 7. El Arcángel Miguel derrotando al demonio (27cm), copia de una xilografía de Jacob Cornelisz van Oossanen en vidrio incoloro con amarillo de plata (ca. 1530). Fuente: Getty Museum.

 

Cuestión de óxidos

Si tienes un anillo de plata o te regalaron una cubertería de este brillante metal el día de tu boda, sabrás que se oscurece con el tiempo. La formación de esta pátina oscura se debe a un proceso de oxidación (entendido como la pérdida de electrones) en el que se crea una capa oscura de sulfuro de plata (Ag2S) sobre la superficie del metal. Por cierto, existen remedios caseros para devolver el brillo al objeto que se basan en revertir ese proceso empleando algo que todos tenemos en casa: papel de aluminio. El aluminio es un reductor excelente (concede electrones) y en una disolución acuosa junto con bicarbonato o sal permite que la plata recupere los electrones que había perdido volviendo a su estado original.

Imagen 8. Un cáliz de plata de época bizantina (s. VI) Fuente: The Walters Art Museum

En cualquier caso, la capa de sulfuro no siempre es algo indeseable. El lustre que otorga a los objetos puede resultar atractivo, por lo que se buscan métodos para provocar el oscurecimiento. Eso es lo que se logra mediante el “hígado de azufre”, un producto rico en sulfuros (normalmente sulfuro de potasio) que se emplea en joyería. También hay una opción más casera: usar huevos cocidos, una excelente fuente de azufre. De hecho, el mal olor de los huevos podridos se debe al ácido sulfhídrico (H2S).

Imagen 9. Un anillo de plata oscurecido mediante hígado de azufre. Fuente: Mauro Cateb.

La oxidación de la plata es también un proceso trascendental en una técnica de dibujo antiquísima: la punta de plata. En esta técnica se emplea una varilla del noble metal para realizar trazos sobre un papel previamente preparado para tal uso (de lo contrario la plata no dibuja bien sobre papel). Una vez finalizado, el dibujo será tenue y tendrá el característico brillo grisáceo de la plata, pero, según pase el tiempo, la plata irá oscureciéndose y el dibujo cobrará tonalidades marrones más perceptibles. La punta de plata ya se empleaba en época medieval sobre pergamino y fue muy popular entre grandes artistas del Renacimiento como Leonardo o Durero (Imagen). Quítense el sombrero ante el autorretrato del alemán con tan solo trece añitos.

Imagen 10. Izquierda: Busto de un guerrero (29×21 cm), de Leonardo da Vinci (ca. 1475). Derecha: Autorretrato a la edad de 13 años (28×20 cm), de Alberto Durero (1484) Fuente: British Museum y Wikimedia Commons.

 

Para saber más:

D. Stulik y A. Kaplan, Salt Print en The Atlas of Analytical Signatures of Photographic Processes (2013) The Paul Getty Trust, Los Angeles. LINK

J. Delgado et al. Characterisation of medieval yellow silver stained glass from Convento de Cristo in Tomar, Portugal. Nuclear Instruments and Methods in Physics Research Section B: Beam Interactions with Materials and Atoms 269 (20) (2011) 2383-2388. DOI.

JCE Staff. Silver to black and back. Journal of Chemical Education. 77 (3) (2000) 328A-328B. DOI.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo La tabla periódica en el arte: Plata se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: Titanio
  2. La tabla periódica en el arte: Cobre
  3. La tabla periódica en el arte: Arsénico
Categorías: Zientzia

José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos

Sáb, 2019/09/28 - 11:59
Foto: Ian Espinosa / Unsplash

Hay charlas que te impactan. Y hay charlas que van más allá del impacto, como las de José Ramón Alonso. Seguro que esta no te deja indiferente. Te adelanto que no va de la alienación de los trabajadores que explicaba Marx precisamente. Va de suicidios.

José Ramón Alonso: 'Son nuestros amos y nosotros sus esclavos'

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Curso de verano “La ciencia de nuestras vidas”: Neurobiología del amor. ¿Una locura transitoria?, por José Ramón Alonso
  2. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
  3. Naukas Bilbao 2017 – María José Calderón y Belén Valenzuela: Esta física es la leche
Categorías: Zientzia

El Universo en un supercomputador

Sáb, 2019/09/28 - 11:59

La Biblioteca Bidebarrieta de Bilbao acogió los pasados febrero y marzo dos conferencias organizadas en el marco de la segunda edición del ciclo sobre cine y ciencia “Lo Desconocido”, un evento impulsado por el Donostia International Physics Center (DIPC) de San Sebastián y la Filmoteca Vasca.

La segunda conferencia del ciclo (la primera, en euskara, puede verse aquí) titulada “El Universo en un supercomputador”, se celebró el día 6 de marzo a partir de las 19:00 horas, y corrió a cargo del astrofísico e investigador Ikerbasque del Donostia International Physics Center (DIPC) Raúl Angulo.

El investigador, especializado en cosmología computacional, comenta en esta charla los últimos avances realizados en esta rama de la astrofísica moderna. Los estudios en este ámbito han permitido en los últimos años realizar grandes descubrimientos en torno a la formación y evolución del Universo.

En su ponencia, Angulo nos cuenta cómo los astrónomos usan los ordenadores más grandes del mundo para simular las leyes de la física durante el equivalente a miles de millones de años. Gracias a estas simulaciones, hoy en día los científicos pueden empezar a explicar el mundo astronómico que nos rodea, pero también abrir nuevos y apasionantes interrogantes acerca de la naturaleza de nuestro Universo.

Edición realizada por César Tomé López

El artículo El Universo en un supercomputador se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El Universo en un día: El final del Universo, por Aitor Bergara
  2. Un universo inesperado, por Ana Achúcarro
  3. El mito de Arquímedes, mención especial del jurado “On zientzia”
Categorías: Zientzia

Nunca es tarde para volver a empezar, lo dice el cerebro

Vie, 2019/09/27 - 12:00

Cada vez que alguien plantee como único argumento para resistirse al cambio que así se ha hecho toda la vida habría que pedirle que preguntara a su cerebro qué opina de esa respuesta, porque resulta que el órgano que rige la actividad del sistema nervioso no solo no es refractario a las transformaciones, sino que tiene la capacidad de reprogramarse y reconfigurarse para seguir aprendiendo y volver a empezar.

Esta capacidad, denominada plasticidad cerebral, es el pilar en el que el equipo del doctor Juan Antonio Barcia, del Hospital Clínico San Carlos de Madrid, se ha apoyado para lograr operar tumores cerebrales que hasta ese momento eran inoperables y lo ha conseguido mediante una técnica revolucionaria que ha permitido trasladar funciones esenciales, como el habla o la movilidad, a zonas del cerebro no afectadas por la enfermedad.

Imagen: El periodista Antonio Martínez Ron en las calles de Bilbao antes del inicio de su conferencia en la Biblioteca Bidebarrieta, «Plasticidad a la carta, un plan B para salvar cerebros«. (Fotografía: Iñigo Sierra)

Con la intención de narrar este hito, el divulgador científico Antonio Martínez Ron ha invertido cinco años en recoger las historias de las personas a las que el doctor Barcia y su equipo han intervenido con éxito y crear el documental “Vida Extra”, un trabajo realizado con la productora 93 Metros que relata la vida de esas personas a las que la pericia de los médicos, el esfuerzo personal y la capacidad de reinventarse de su propio cerebro han dado una segunda oportunidad.

Este 25 de septiembre, como cierre a la programación del evento de divulgación científica Bizkaia Zientzia Plaza, el periodista compartió con la audiencia el fruto de ese esfuerzo en la charla “Plasticidad a la carta, un plan B para salvar cerebros”, en la Biblioteca Bidebarrieta de Bilbao.

Martínez Ron acercó al público los casos de algunos pacientes de Barcia para ilustrar el concepto de plasticidad cerebral, pero también se valió de otros ejemplos reales no vinculados a la terapia del neurocirujano para demostrar cómo el cerebro es capaz de reiniciarse.

“El documental se estrenará pronto y con él buscamos explicar lo increíble que es la plasticidad cerebral”, aseguró Martínez Ron.

Imagen: Antonio Martínez Ron explicó en su conferencia que en algunos casos de tumores malignos no se puede operar porque el precio a pagar por el paciente es demasiado alto. (Fotografía: Iñigo Sierra)

Durante la charla, el periodista explicó que “cuando un tumor se encuentra en un área funcional que afecta al habla o a la capacidad de movimiento, los cirujanos solo pueden retirar tejido hasta el punto límite que no afecte a esas funciones”.

Esa limitación fue el detonante que hizo al doctor Barcia desarrollar una técnica que consiste en forzar al cerebro, mediante estimulación eléctrica, a mover las funciones de lugar para poder extirpar el tumor. “Es como mover los muebles de sitio para poder pintar una habitación”, precisó el divulgador.

En concreto el método se centra en retirar el tejido canceroso hasta donde sea posible y, en esa intervención, introducir una manta de electrodos. En las siguientes semanas se inhibe la actividad de esas áreas mediante descargas eléctricas, al tiempo que se activa una rehabilitación intensiva de las funciones que podrían deteriorarse para que el cerebro las comience a trasladar a zonas adyacentes. Una vez que el paciente ha desplazado la función crítica a una zona sana del cerebro, se le vuelve a operar para eliminarle la totalidad del tumor.

Imagen: Tras finalizar la conferencia Antonio Martínez Ron respondió las muchas preguntas de los asistentes a Bidebarrieta Científica. (Fotografía: Iñigo Sierra)

Durante la charla, Martínez Ron contó el caso de un paciente de epilepsia al que se le trasladó la función del lenguaje de un hemisferio a otro para poder retirarle el foco epiléptico y que hoy hace una vida completamente normal. También relató la historia del canadiense Stephen Sumner, amputado de una pierna tras un accidente de tráfico, que recorre Asia para ayudar a personas que han perdido alguna extremidad y sufren dolores en la parte del cuerpo desaparecida, un fenómeno conocido como “dolor de miembro fantasma”.

Sin otro transporte que su bicicleta, Sumner visita a los pacientes cargado de espejos para enseñarles a mitigar su dolor mediante la técnica desarrollada por el neurocientífico indio V.S. Ramachandran, que consiste en reeducar al cerebro gracias a un espejo que permite ver el miembro amputado en el lugar en el que ya no se encuentra y paliar de esta forma el dolor. Este sencillísimo método se apoya también en el concepto de plasticidad cerebral.

Parece arte de magia, pero en realidad es una capacidad humana y natural. Así que la próxima vez que parezca que es demasiado tarde, tal vez valga la pena preguntarle al cerebro ¿tú, qué opinas?

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Nunca es tarde para volver a empezar, lo dice el cerebro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Nunca es tarde
  2. Los escultores del cerebro, charla de Mara Diersen
  3. Lo mejor de dos mundos para avanzar en el tratamiento del cáncer
Categorías: Zientzia

¿Por qué escuchamos música triste?

Jue, 2019/09/26 - 11:59

“En cuanto la música empezó a sonar, el hermoso mundo que había dejado en casa y que había olvidado […] lo inundó de golpe. Fue entonces cuando las lágrimas empezaron a brotar […] —dijo que lloró y lloró hasta que su almohada se empapó— dijo que nunca había sentido semejante “feliz infelicidad” —esas fueron sus palabras. Le gustaba la música pero no sabía que le apasionaba —no sabía lo que podía hacerle— dijo que durante la siguiente semana, cuando miraba a las cosas que siempre había mirado —el cielo azul, el verde de la selva, la claridad del agua corriente, incluso los ojos cansados de sus compañeros— lloró otra vez —podía llorar cuando alguien le daba un cigarrillo— cuando alguien le preguntaba por su mujer y sus hijos —al recordar que era el cumplaños de su niño— al recordar el sabor del pastel de cumpleaños o de una mazorca de maíz, o el olor a palomitas en una sala de cine, o la cara de su hijo mientras dormía. Lloró —y lloró también al contarme esta historia— dijo que era todo por culpa de la música […] sabía que quizás no la volvería a escuchar —porque le devolvería a ese momento—el momento de “feliz infelicidad”.

Thomas Larson (2012) «The Saddest Music Ever Written: The Story of Samuel Barber’s Adagio for Strings». Traducción de Almudena M. Castro.

Foto: Benjamin Wagner / Unsplash

En 2004, la BBC Radio lanzó una encuesta a sus oyentes para elegir la música más triste jamás escrita. Tras recibir más de 400 propuestas, sometieron las 5 más populares a votación. El resultado fue concluyente: el Adagio para cuerdas, de Samuel Barber quedó en primer lugar, con un 52.1% de los votos. En el podio le seguían:

El sondeo en sí es puramente anecdótico, por supuesto; el palmarés de la tristeza bien afinada se encuentra mucho más reñido. Si uno le pregunta a Google por “la música más triste”, lo que encuentra son cientos de antologías en tono menor compitiendo, a su vez, entre los resultados. Aún así, el famoso Adagio de Barber acumula muchos méritos para encontrarse entre las vencedoras. Desde su estreno en 1938, el Adagio ha acompañado los funerales de personalidades como Einstein (1953), Grace Kelly (1982) o el Príncipe Rainier de Mónaco (2005), entre otros personajes famosos y tantos más desconocidos. Fue la música que acompañó el anuncio televisado del asesinato de Kennedy en 1963, el relato en la BBC Radio de la muerte de Roosevelt (1945) y de la Princesa Diana (1997). Se ha utilizado para homenajear a las víctimas del 11S (2011), a las víctimas del tiroteo contra Charlie Hebdo (2015), a las víctimas del atentado de Manchester (2017)…

El adagio para cuerdas de Barber es lo que técnicamente se conoce como un dramón. Y dada su histórica trayectoria de infligir tristeza allá donde suena, cabe preguntarse por qué nadie querría escucharlo. A fin de cuentas, la tristeza no es una emoción que, a priori, parezca deseable sentir. ¿Por qué nadie querría provocársela a sí mismo?, ¿por qué diseñar melodías que nos asedian, nos roban el pulso, nos bloquean los párpados y la garganta?

Decía Oscar Wilde que “después de tocar Chopin, me siento como si hubiese estado llorando por pecados que yo nunca cometí, lamentando tragedias que no son mías1”. Lo raro es que este afán por llenarse de “tragedias ajenas” sea tan habitual, tanto que un 10% de la población afirma preferir la música triste a cualquier otro tipo de música y apenas un 1% dice odiarla2 . Entre estos dos extremos, la mayoría de la gente (entre el 66 y el 80 %) dice disfrutar de este tipo de música en general y son bastantes menos los que parecen no apreciarla (entre un 10 y un 33%).

Las variaciones entre unos grupos y otros podrían tener que ver con diversos factores personales y sociológicos. Como por ejemplo, la edad: los niños, en concreto, muestran una clara preferencia por la música alegre frente a la triste y tienden a evitar esta última. También, la personalidad de cada cual: la apertura experiencias nuevas, la empatía3 y también cierta tendencia a la introversión y la inestabilidad emocional, correlan bastante bien con el gusto por la música triste. Pero también, y de manera significativa, la cultura: no en todos los contextos se tolera la tristeza por igual, ni se valora estéticamente. En un estudio de 2011 en el que 116 participantes debían evaluar distintos fragmentos de bandas sonoras, las valoraciones de “belleza” parecían relacionarse con la música triste mucho antes que con la alegre, lo cual parece indicar que la apreciación estética podría jugar un papel importante en nuestro disfrute de la tristeza4 (valga como ejemplo el Adaggieto de Mahler, que mencionábamos antes: medalla de bronce en la encuesta de la BBC… y mucho más hermoso que triste, diría yo).

El investigador David Huron, de la Universidad de Ohio (EEUU), sostiene una hipótesis alternativa. Su idea es que, al escuchar música triste nuestro cuerpo responde al dolor liberando una hormona llamada prolactina5 cuyo efecto es el de calmarnos y consolarnos. En último término, sin embargo, la causa de esa tristeza es puramente ficticia: como dice Wilde, nos sentimos como si lamentásemos tragedias, pero en realidad estas nunca fueron nuestras. Y, a pesar de ello, logramos obtener consuelo, bienestar… nuestro cuerpo entero cantando “eaea” para que podamos regodearnos en nuestra “feliz infelicidad”.

Coda: Música para llorar a gusto

Hace unos meses pregunté a Twitter por su música triste preferida. En apenas unas horas, recibí tantas respuestas que me resulta sencillamente imposible recopilarlas aquí. Pero podéis verlas todas todas pinchando en el tuit. Por cierto, el Adagio de Barber sale hasta 4 veces:

(Hoy es un lunes como para preguntar esto…

Categorías: Zientzia

Blanca Martínez: “Los geólogos le tenemos mucho cariño a Godzilla”

Mié, 2019/09/25 - 11:58

“Godzilla no es un dinosaurio, es un anfibio radioactivo y Rodan es un reptil volador. En realidad estos monstruos son un reflejo de cómo los humanos recurrimos a la mitología para dar una explicación a los fenómenos de la naturaleza”, asegura la doctora en Geología Blanca Martínez García, que ha aprovechado los conflictos que enfrentan a estas criaturas de ficción en las calles de Tokio para explicar las causas de los movimientos sísmicos al público de Naukas Bilbao, el evento de divulgación científica que se ha desarrollado los días 20 y 21 de septiembre en el Palacio Euskalduna de la capital vizcaína.

Imagen: Blanca Martínez García, doctora en Geología, durante el desarrollo de su conferencia «Godzilla, king of the geologists» en Naukas Bilbao 2019. (Fotografía: Iñigo Sierra)

Resulta que cuando Godzilla es despertado por unas pruebas nucleares llevadas a cabo en el Pacífico, sale del agua y provoca un tsunami. Mientras que Rodan está relacionado con la entrada en erupción de un volcán. Pero es que, además, cuando ambos animalitos “se zurran entre ellos” se producen terremotos y se caen los edificios.

Cada vez que el ser humano tiene dificultades para encontrar la causa de temas complejos pide auxilio a la mitología, vamos, que se cuenta un cuento, y este ha sido el hilo conductor de la charla “Godzilla, king of the geologists”, una intervención con la que la experta, además de rendir homenaje al célebre monstruo japonés, ha conseguido explicar cómo funciona la tectónica de placas y cuál es el origen de terremotos, volcanes y tsunamis.

El planeta Tierra tiene diferentes capas. La que está en el exterior, denominada corteza, es rígida, pero se trata de una superficie discontinua, está fragmentada, dividida en pedazos que reposan sobre el manto terrestre. A diferencia de la corteza, el manto no es rígido, es más bien una masa cremosa. Para explicarlo, Martínez García ha recurrido a una analogía de lo más golosa: “es como un bol con natillas con una galleta encima. Si rompes en pedazos esa galleta tendrías la corteza terrestre sobre el manto”.

Esos fragmentos de galleta flotando sobre las natillas son las placas tectónicas que, al desplazarse, pueden causar terremotos. Japón se encuentra situado en el límite entre tres placas tectónicas y, por ese motivo, su actividad sísimica es tan potente. Parece natural que, de entre todos los pueblos del planeta, sea precisamente el nipón el que más necesidad haya tenido de alumbrar criaturas mitológicas para explicar por qué la tierra se mueve bajo sus pies con tanta asiduidad.

Imagen: La geólogao Blanca Martínez explicó en su charla porqué los geólogos le tienen tanto cariño a Godzilla. (Imagen: Iñigo Sierra)

Para contrarrestar los efectos negativos de estos fenómenos, los japoneses son toda una referencia en la construcción de edificios sismorresistentes. Es decir, construcciones que se apoyan en cimientos que oscilan con las ondas sísmicas como si fueran muelles y no se desploman aunque los bichos hagan de las suyas.

La idea de que los responsables de los movimientos de las placas sean unos enormes y tremendos monstruos es bastante seductora, pero en realidad las causas de este tipo de fenómenos tienen su perfecta explicación en la ciencia, en concreto en la geología, una disciplina rigurosa que, sin embargo, siente una gran inclinación por el relato de ficción.

“Los geólogos le tenemos mucho cariño a Godzilla”, dice Martínez García, quien, para ilustrar su afirmación, explica que el paleontólogo estadounidense Kenneth Carpenter bautizó a un dinosaurio como Gojirasaurus en su honor (Gojira es Godzilla en japonés).

Los científicos buscan en la ciencia las respuestas a sus preguntas, pero, a veces, también ellos distraen la vista de las fórmulas matemáticas y las demostraciones empíricas para que les cuenten un buen cuento.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Blanca Martínez: “Los geólogos le tenemos mucho cariño a Godzilla” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Zientziateka: Blanca Mª Martínez García – La geología fantástica de Verne, Poe y H.P. Lovecraft
  2. Ciencia en primera persona: Icíar Martínez
  3. De robots geólogos y rayos X
Categorías: Zientzia

Lo mejor de dos mundos para avanzar en el tratamiento del cáncer

Mar, 2019/09/24 - 11:59

El tratamiento del cáncer avanza hacia fórmulas menos agresivas para el organismo como la inmunoterapia, que consiste en desarrollar estrategias que hagan posible estimular la respuesta del sistema inmunitario contra las células tumorales.

Desde la perspectiva funcional, el sistema inmunitario en realidad no es uno, sino varios. Por un lado está el sistema inmunitario innato, que constituye la primera línea de defensa frente a agentes infecciosos. En segundo lugar está el sistema adaptativo, que elabora una respuesta específica para cada agente patógeno y se activa cuando la inmunidad innata no ha funcionado.

Imagen: Antonio Pérez-Martínez, jefe del servicio de Hemato-Oncología Infantil del Hospital Universitario de la Paz en su intervención en Naukas Bilbao 2019. (Fotografía: Iñigo Sierra)

Partiendo de este conocimiento, el jefe del Servicio de Hemato-Oncología Infantil del Hospital Universitario de La Paz (Madrid), Antonio Pérez Martínez, ha explicado como la combinación “de lo mejor del sistema inmune innato con lo mejor del sistema inmune adaptativo” abre nuevas vías para avanzar en el tratamiento de algunos tipos de cáncer durante el evento de divulgación científica Naukas Bilbao, que se ha desarrollado los días 20 y 21 de septiembre en el Palacio Euskalduna de la capital vizcaína. Su intervención se titulaba “Lo mejor de dos mundos” por una buena razón.

El especialista ha condensado en sus diez minutos de charla el funcionamiento terapéutico de la célula CAR-T, un medicamento generado en el laboratorio que combina las funciones de un anticuerpo y de un linfocito T. Este medicamento está cambiando la historia natural de los pacientes con leucemia aguda linfoblástica B, una dolencia que afecta especialmente a los niños, pero también tiene aplicación en pacientes con linfoma difuso de célula grande B y, en este segundo caso, se trata mayoritariamente de adultos.

Para ilustrar su exposición, Pérez Martínez ha empleado vídeos en los que se ha podido ver el propio funcionamiento del sistema inmunitario y cómo éste reconoce las células tumorales, pero también imágenes que reflejan los trabajos que él y su equipo de investigadores realizan en el laboratorio para desarrollar nuevas terapias basadas en células quiméricas que no solo incluyen anticuerpos y linfocitos T, sino también receptores y otras células del sistema inmune innato como las células NK.

Imagen: Antonio Pérez-Martínez, oncólogo infantil explicó en su conferecia «Lo mejor de dos mundos» el funcionamiento terapéutico de la célula CAR-T. (Fotografía: Iñigo Sierra)

El objetivo ha sido mostrar a la audiencia que la suma de fuerzas entre las capacidades de cada uno de los sistemas inmunitarios puede ser una fórmula para el tratamiento de enfermedades complejas, de la misma forma que la suma del conocimiento acumulado a través de siglos de estudio en medicina, con los trabajos de investigación actuales -realizados con tecnologías punteras que hace apenas unos años no existían- conquistan avances de calado.

“Por separado cada sistema inmune tiene una función. La célula híbrida CAR-T es un medicamento nuevo, un constructo, que une lo mejor de cada sistema inmunológico para eliminar de forma específica células tumorales, intentado hacerlo con menos efectos adversos que los tratamientos convencionales”, precisa el doctor.

Todavía es pronto para determinar si este tipo de terapias serán eficaces contra otros tumores hematológicos o tumores sólidos. De momento, esta célula híbrida “está curando a niños con leucemia, que antes no se curaban”.

Cada día se da un pasito más y es de esta forma como se recorren las rutas de larga distancia.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Lo mejor de dos mundos para avanzar en el tratamiento del cáncer se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Nanopartículas para reducir la metástasis hepática del cáncer de colon
  2. Seguridad diagnóstica en el cáncer de colon y tratamiento del de páncreas
  3. Medicina regenerativa: utilización de células madre para el tratamiento de enfermedades humanas
Categorías: Zientzia

La ciencia de la incertidumbre

Lun, 2019/09/23 - 11:59

“Son once contra once”, “No hay rival pequeño” o “Un partido no termina hasta que el árbitro pita el final” son solo algunos de los tópicos asociados al fútbol que oímos incansablemente a jugadores, entrenadores, analistas y portavoces de clubes deportivos. Pero detrás de estas declaraciones enlatadas y reutilizadas hasta la extenuación se esconde una reflexión de cierto calado: el fútbol es un juego en el que intervienen variables muy diversas y, por este motivo, disponer de los mejores jugadores, del mejor equipo técnico o de los mejores servicios médicos no garantiza la victoria. Por más que se prepare un partido siempre hay elementos que escapan del control de los protagonistas. Una lesión fortuita de la estrella del equipo, un arbitraje desafortunado o un espontáneo que salta al terreno de juego y obliga a suspender el encuentro. En definitiva, la incertidumbre también juega. Los profesionales del fútbol lo saben y por eso se dedican a dibujar esquemas de juego en la pizarra, a estudiar concienzudamente a los rivales, a ensayar disparos desde el punto de penalti o a preparar jugadas con el objetivo de intentar sustituir el azar por el conocimiento. Pero ¿de verdad son la incertidumbre y la ciencia rivales tan irreconciliables?

Imagen: Eva Ferreira, catedrática de Economía Aplicada de la UPV/EHU, durante el desarrollo de su conferencia «Hacer predicciones es muy difícil, sobre todo las del futuro» en Naukas Bilbao 2019 (Fotografía: Iñigo Sierra)

El antagonismo secular entre el devenir de la fortuna y la sabiduría, entre la ciencia y la incertidumbre, ha sido el punto de partida de la charla “Hacer predicciones es muy difícil, sobre todo las del futuro” con la que la catedrática de Economía Aplicada de la UPV/EHU, Eva Ferreira, ha repasado la evolución de los vínculos entre lo que sabemos y lo que predecimos desde los tiempos de los faraones hasta el momento presente. La intervención se ha desarrollado en el marco del evento de divulgación científica Naukas Bilbao, que ha tenido lugar los días 20 y 21 de septiembre en el Palacio Euskalduna de la capital vizcaína.

“El desarrollo del conocimiento científico no ha tenido en cuenta la gestión de la incertidumbre hasta hace bien poco. El cálculo de probabilidades comienza en el siglo XVII y la extensión a todas las ramas del conocimiento no llega hasta el siglo XX”, ha asegurado Ferreira, quien ha detallado que fue en el pasado siglo cuando se introdujo la “consideración de que la mayoría de las medidas son inciertas” a un paradigma hasta ese momento centrado en “un desarrollo científico casi totalmente determinista”.

De acuerdo con el relato de Ferreira, “el uso de la inferencia estadística” ha hecho posible establecer patrones usando muestras seleccionadas y controlar las probabilidades de error, un modelo que se basa en la existencia de datos y en la habilitación de métodos efectivos para su sistematización. Los datos y su gestión como antídoto a la incertidumbre.

En la actualidad existe abundante y sofisticada tecnología para gestionar cantidades ingentes de información, procesarlas, jerarquizarlas, analizarlas, extraer conclusiones y optimizar los procesos de toma de decisiones.

“Oír los términos Big data, inteligencia artificial, revolución digital, machine learning es muy común cuando se habla del modelo de negocio de una empresa, de la selección de personal, de inversiones financieras, de estrategias políticas, de marketing… La publicidad de quienes diseñan algoritmos para estos fines nos habla de dejar atrás la improvisación y el caos para disfrutar del marketing predictivo”, ha apostillado la experta, que, sin embargo, advierte de los riesgos de asignar a las herramientas -por avanzadas y precisas que estas sean- capacidades de las que carecen: “La gestión sistemática de datos tiene una importancia enorme, pero corremos el riesgo de atribuirle a los instrumentos propiedades que no tienen”.

Imagen: Eva Ferreira, experta en estadística, señaló que los comportamientos cambian a tenor de los datos que se tienen entre manos. (Fotografía: Iñigo Sierra)

Para abundar en este tema, Ferreira ha explicado que conferir propiedades predictivas a los datos y a su sistematización es osado porque para que esto fuera cierto no se deberían producir transformaciones sociales o cambios de conducta.

“Nuestro comportamiento puede cambiar según los datos que tenemos a disposición. De hecho, no hace falta decir que nuestras preferencias, nuestro comportamiento y las decisiones que tomamos pueden cambiar en función de la información que recibimos”, agrega.

En su opinión es imprescindible, por tanto, construir modelos dinámicos, que incluyan información tanto cuantitativa como cualitativa, procedente de fuentes diversificadas y pasada por el tamiz de las distintas ramas del conocimiento.

“Hay multitud de ejemplos que nos ilustran cómo el tratamiento de datos debe ir de la mano de la reflexión previa. La debacle de Nokia, el algoritmo de Amazon que no reclutaba mujeres, las burbujas financieras… nos recuerdan una máxima muy sencilla: que ningún algoritmo que se base únicamente en el pasado, predecirá por sí mismo algo que nunca antes haya sucedido”, concluye Ferreira.

El fútbol y las predicciones son así: una apasionante mezcla de ciencia, técnica e incertidumbre.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo La ciencia de la incertidumbre se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La certeza de la incertidumbre en los informes del IPCC
  2. El legado de Fisher y la crisis de la ciencia
  3. Ciencia Clip: un concurso de vídeos de ciencia para jóvenes estudiantes
Categorías: Zientzia

La geología y sus superpoderes

Dom, 2019/09/22 - 11:59

Vamos a comenzar con un arranque provocador. Partamos de la premisa de que la ficción es la única forma de realidad que existe. Vale, tal vez esta afirmación pueda resultar excesiva. ¿Qué tal si decimos que Dostoievski puede dar tantas claves para comprender el mundo como un informativo? ¿Y qué pasaría si seguimos avanzando por esta senda y al relato de ficción, que tantas veces nos ayuda a entender la complejidad de la vida, le añadimos el rigor empírico de la ciencia? ¿Y si no fuera cualquier ciencia, sino una que está tan vinculada a los cambios que suceden en el planeta que parece que tenga superpoderes?

Los terremotos, los tsunamis, la formación de los recursos hídricos, los yacimientos minerales, la meteorología, la mismísima historia de la vida se explica gracias a la geología, una disciplina tan apasionante como desconocida.

Del potencial de esta rama del conocimiento se han dado cuenta destacados creadores de ficción, que se nutren de sus principios básicos para dar vida a superhéroes y supervillanos. Tanto los responsables del universo de cómics Marvel, como los de la serie de animación Steven Universe están explotando este filón (aquí el término casi deja de ser una metáfora) para hilvanar sus guiones.

El fenómeno no ha pasado inadvertido al divulgador y profesor de Biología y Geología de secundaria Carlos Lobato. Valiéndose de los personajes y elementos protagonistas de sagas como Vengadores o los Cuatro Fantásticos ha mostrado los misterios de la geología al público de la novena edición del evento de divulgación científica Naukas Bilbao 2019, celebrado los días 20 y 21 de septiembre en la capital vizcaína.

“No es la primera vez que relaciono la ciencia con el cine o los dibujos animados, pero casi siempre lo he hecho desde el punto de vista de la biología y creo que es de recibo darle su sitio a la geología, que suele ser una de las grandes olvidadas a pesar de ser muy atractiva tanto para el alumnado, como para el público en general”, asegura Lobato.

La charla del profesor concentró en 10 minutos esenciales las características de minerales, rocas y otros materiales a través de superhéroes como Iron Man, ese tipo duro, muy duro, que basa sus poderes en las propiedades del hierro. También hubo espacio para la Cosa, uno de los protagonistas de los Cuatro Fantásticos, que tiene tantísima fuerza y resistencia porque en realidad es una roca metamórfica.

Como la intervención se titulaba «Las Gemas de Cristal del Infinito» se prestó especial atención a las piedras preciosas: las del Infinito (Vengadores) y las de Cristal (Steven Universe).

Resulta que la gama cromática de las Gemas del Infinito por las que tanto se afana el villano Thanos no son casuales sino que se trata de los colores reales que tienen los minerales y las rocas de la naturaleza.

Y luego están las Gemas de Cristal de Steven, que en la ficción de Cartoon Network se encargan de la protección del planeta y pueden adaptarse a diferentes campos gravitacionales, cambiar de forma, regenerarse y unirse entre sí para crear otras piedras más poderosas, como es el caso de Granate, surgida de la fusión de un rubí y un zafiro.

“Los rubíes y los zafiros presentan la misma composición química: Al2O3, por lo que pertenecen a la misma familia de minerales. El color azul del zafiro se debe al titanio, mientras que el color rojo del rubí se debe al cromo y al hierro. Es una genialidad de la serie que hayan creado personajes basados en dos gemas con la misma composición química, porque de esta manera se puede entender mejor su deseo de pasar su vida juntos formando a Granate”, reflexiona un entusiasta Lobato.

Después de esto no hay duda: la geología está llena de superpoderes y la ficción puede que no sea la única forma de realidad que existe, pero casi, casi.

 

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo La geología y sus superpoderes se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Otra mirada al planeta: arte y geología
  2. Geología, ver más allá de lo que pisamos
  3. Arquitectura y geología: materialidad y emplazamiento
Categorías: Zientzia

Más allá de las neuronas

Sáb, 2019/09/21 - 11:35

Al hablar de las células del sistema nervioso todo el mundo piensa inmediatamente en las neuronas, unidades de importancia capital porque están especializadas en recibir, procesar y transmitir información a través de señales químicas y eléctricas y sirven, entre otras funciones, para pensar y recordar. Pero las neuronas no están solas en el cerebro, sino que hay otras células que las acompañan y se encargan de tareas tan relevantes como la respuesta inmune o la eliminación de los residuos que se generan en el sistema nervioso central. Estas últimas células han sido las protagonistas de la charla que la doctora en Neurobiología Amanda Sierra ha ofrecido en el programa de conferencias Naukas Pro, que tienen lugar en el marco del evento de divulgación científica Bizkaia Zientzia Plaza, que se celebra en Bilbao del 18 al 25 de septiembre.

Imagen: Amanda Sierra, neurocientífica y profesora investigadora Ikerbasque en la Universidad del País Vasco y el Centro Vasco de Neurociencia Achucarro durante su charla en Naukas PRO 2019. (Fotografía: Iñigo Sierra)

En concreto la investigadora Ikerbasque se ha centrado en la microglía, un tipo de célula “muy pequeña que está constantemente escaneando el cerebro” en busca de estructuras dañadas, células muertas o residuos con la intención de eliminarlos.

Según la experta, el cerebro es como una sabana en la que habitan diferentes especies. Si un ejemplar muere, los animales carroñeros eliminan los residuos que se generan, llevando a cabo una función esencial para el equilibrio de ese ecosistema.

En el sistema nervioso ocurre algo parecido. Cuando las células mueren la microglía se encarga de encontrar y fagocitar esos residuos. Pero ¿cómo lo hacen? Lo cierto es que las células muertas emiten señales para llamar la atención de la microglía, se trata de “señales encuéntrame, como la galleta de Alicia en el País de las Maravillas que decía: cómeme”. Esta señal es la que permite que la microglía localice el tejido dañado y lance sus prolongaciones alrededor de la célula muerta formando un bolsillo tridimensional que la envuelve completamente y la atrae hacia sí para poder fagocitarla.

“Una de las preguntas que nos hacemos es qué le ocurre a la microglía después de llevar a cabo ese proceso. Estamos intentando responderla, ya que comerse una célula muerta implica una serie de cambios metabólicos en la microglía, modifica su función”, asegura la experta.

Este tipo de trabajos, que Sierra desarrolla en el laboratorio del Achucarro Basque Center for Neuroscience en el que trabaja, tienen relevancia para descubrir, por ejemplo, cómo se desenvuelven estas células en las situaciones en las que aparecen enfermedades neurodegenerativas. Lamentablemente, en algunos casos como el infarto cerebral o la epilepsia ya se ha detectado que no cumplen correctamente su función, por lo que los residuos se acumulan en el cerebro y se aumenta el daño todavía más.

Imagen: La investigadora Amanda Sierra explicó las líneas de investigación que desarrolla en Achucarro Center for Neuroscience, que se centra en las células microgliales y la interacción entre la fagocitosis y la inflamación en el cerebro enfermo. (Imagen: Iñigo Sierra)

Las investigaciones de Sierra buscan generar conocimiento para abrir nuevas vías que permitan influir en el proceso de fagocitosis de la microglía, mejorar su eficiencia y acelerar las tareas de limpieza.

La experta aprovechó asimismo la cita para rendir homenaje al investigador Pío del Río Hortega, discípulo del científico vasco Nicolás Achúcarro, que murió en el exilio y fue una figura clave en el descubrimiento y estudio de la microglía hace aproximadamente 100 años. Aunque no lo logró, Río Hortega estuvo nominado al premio Nobel de Medicina en dos ocasiones por su contribución a la ciencia. Sus restos mortales descansan desde 1986 en el Panteón de Hombres Ilustres del cementerio de Valladolid, de donde era oriundo.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Más allá de las neuronas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La hiperactividad neuronal impide que las microglías realicen su trabajo
  2. El citoesqueleto de las neuronas y el alzhéimer
  3. Las dos culturas y más allá: Ciencia, Sociedad y Desarrollo (curso de verano)
Categorías: Zientzia

¿Y si el futuro de la refrigeración estuviera en Galicia? Caliente, caliente

Vie, 2019/09/20 - 11:59

Si jugáramos a asociar un concepto a un topónimo y para empezar la partida escogiéramos el término frío, seguramente mucha gente contestaría Siberia. Lo cierto es que es una muy buena respuesta, porque el clima siberiano se caracteriza por unas temperaturas extraordinariamente bajas. Pero cuando hablamos del frío generado artificialmente hay otro territorio geográfico que está emergiendo con fuerza: se trata de Galicia, y muy particularmente del Centro de Investigaciones Científicas Avanzadas (CICA) de la Universidad de A Coruña, porque es allí donde un equipo de investigadores ha descubierto las perovskiñas, una nueva familia de materiales sólidos con potencial para revolucionar el futuro de la refrigeración.

Imagen: Juan M Manuel Bermúdez, doctor en Química Ambiental y Fundamental por la Universidade da Coruña e investigador que desarrolla su labor en el ámbito de la química del estado sólido y ciencia de materiales, durante su charla en Naukas PRO 2019. (Fotografía: Iñigo Sierra) (Fotografía: Iñigo Sierra)

“Es una investigación realizada por un equipo formado íntegramente por miembros de la Universidad de A Coruña”, asegura uno de los padres de las perovskiñas, el doctor en Química Ambiental y Fundamental Juan Manuel Bermúdez. El científico ha presentado los resultados de su estudio y sus posibles aplicaciones dentro del programa de conferencias Naukas Pro, que tienen lugar en el marco del evento de divulgación científica Bizkaia Zientzia Plaza, que se celebra en Bilbao del 18 al 25 de septiembre.

Pero para entender el hallazgo un poco mejor hay que volver al punto de partida. Según los datos que maneja Bermúdez, el 10% del consumo eléctrico mundial se destina a dispositivos de aire acondicionado. Si a este dato le sumamos el consumo de neveras domésticas, frigoríficos y cámaras industriales el porcentaje se sitúa en el 20% del total. Generar frío de forma artificial es necesario para conservar los alimentos, garantizar el buen estado de muchos medicamentos y mejorar la calidad de vida de las personas, pero, para conseguirlo, se emplean diversos tipos de fluidos refrigerantes que tienen impacto en el medioambiente. Por este motivo resulta imperativo investigar en el descubrimiento de nuevas fórmulas de enfriar más respetuosas con el medio natural. Eso es exactamente lo que Bermúdez ha compartido en una charla en la que se ha valido de imágenes térmicas de objetos cotidianos tomadas con cámaras de infrarrojos, que se pueden consultar en el perfil de Instagram @thermogramer.

El experto ha hecho un repaso por los principales inconvenientes que presentan para el medio ambiente los actuales sistemas de refrigeración y ha presentado a la audiencia las ventajas de las perovskiñas, una familia de materiales barocáloricos muy flexibles que tienen la capacidad de producir efectos de refrigeración si se les aplica presión.

Imagen: Juan Manuel Bermúdez presentó un nuevo material en Naukas PRO 2019, la perovskiña. La perovskiña es un nuevo material sólido que responde a aplicación de bajas presiones enfriándose con facilidad. (Fotografía: Iñigo Sierra) 

Pero ¿por qué se llaman perovskiñas? El término constituye la versión gallega del sustantivo perovskita, que abarca los compuestos que presentan una estructura reticular en forma de cubos que alojan iones en su interior. De hecho la perovskita es un mineral poco frecuente que fue descubierto a inicios del siglo XIX en los Montes Urales. ¡Tachán! Al hablar de frío tarde o temprano tenía que aparecer Rusia.

Además de servir para enfriar neveras y aparatos de aire acondicionado, las perovskiñas presentan, según Bermúdez, un enorme potencial de aplicación. Por ejemplo, como plantillas de calzado para que los deportistas puedan evitar el sobrecalentamiento del pie y autorrefrigerarse a través de sus propias pisadas (hay que recordar que las perovskiñas despliegan sus efectos refrigerantes mediante presión).

También podrían ser útiles para concebir colchones que dieran fresquito en verano, evitar el sobrecalentamiento de teléfonos móviles e incluso contribuir a la refrigeración de un gran equipamiento como un aeropuerto o una estación si se aplican al suelo y se aprovecha la presión ejercida por las personas que lo recorren. Nada de esto existe en este momento, pero hay un universo de posibilidades por explorar. Seguramente por eso la investigación ha sido publicada en Nature Communications y ha recibido reconocimientos como el Premio de Investigación Ernesto Viéitez de la Real Academia Galega de Ciencias.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo ¿Y si el futuro de la refrigeración estuviera en Galicia? Caliente, caliente se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Bilbao celebrará el día de Darwin
  2. Inflación caliente à la Higgs
  3. ¿Caliente o frío?
Categorías: Zientzia

Páginas