El futuro de las intervenciones cerebrales es en 3D

¿De qué tratan los nuevos videomicroscopios con imágenes en alta definición y por qué los médicos cirujanos creen que podrían revolucionar sus salas de operación? Estuvimos presentes durante un procedimiento para averiguarlo

Un equipo quirúrgico liderado por David Langer en un hospital de Manhattan opera las arterias cerebrales de Anita Roy con ayuda de un videomicroscopio.

Read in English

La paciente desapareció debajo de un paño quirúrgico tras otro hasta que todo lo que se podía ver era un triángulo de su cabeza afeitada.

“Diez segundos de silencio en la sala, por favor”, dijo David J. Langer, presidente de Neurocirugía del Hospital Lenox Hill de Manhattan. La sala de operaciones quedó en silencio, hasta que dijo: “Muy bien, tomaré las tijeras”.

Su paciente, Anita Roy, de 66 años, sufría alteraciones del flujo sanguíneo en el hemisferio izquierdo del cerebro y Langer estaba a punto de llevar a cabo una operación de derivación en las delgadas arterias para restablecer la circulación y evitar una embolia.

El quirófano estaba en la oscuridad. Todos tenían puestas gafas de 3D.

Lenox Hill es el primer hospital en Estados Unidos en adquirir un dispositivo conocido como videomicroscopio, que convierte a la neurocirugía en una expedición envolvente, y a veces vertiginosa, por el cerebro humano.

Magnificados en un monitor de 55 pulgadas, los cabellos recién rasurados del cuero cabelludo de Roy se erguían como púas. Las tijeras y el bisturí se veían del tamaño de unos palos de hockey y salían de la pantalla con tanta claridad que los observadores sentían la necesidad de agacharse.

El dispositivo genera imágenes digitales tridimensionales magnificadas de alta resolución de los sitios quirúrgicos y permite que todos en la sala de operaciones observen exactamente lo que está viendo el cirujano. El videomicroscopio tiene la capacidad única de capturar “la brillantez y la belleza de la anatomía neuroquirúrgica”, comentó Langer.

Otros cirujanos que lo han probado predicen, al igual que él, que cambiará la forma en que se llevan a cabo y se enseñan muchas intervenciones cerebrales y de columna. “La primera vez que lo utilicé, les dije a mis estudiantes que esto les ayuda a entender la verdadera razón por la que una persona decide estudiar neurocirugía”, comentó Langer.

Sin embargo, es mucho más que solo el asombro del factor Imax. La visión compartida hace de la operación en 3D una herramienta de enseñanza ideal.

Además, Langer y otros doctores comentan que el dispositivo es más pequeño y mucho menos complicado que los microscopios quirúrgicos estándar y que ofrece mejor luz.

Se puede mover fácilmente e inclinar para mostrar fragmentos de anatomía a los cirujanos que, de no contar con esta herramienta, tendrían que forzar el cuello girándolo y estirándolo para poder verlos. (A medida que pasa el tiempo, esas flexiones pueden resultar en dolor y, con los años, una lesión crónica en el cuello y la espalda puede acabar con la carrera de algunos cirujanos). Dos cirujanos a cada lado de la mesa de operaciones pueden trabajar juntos con facilidad.

Los microscopios quirúrgicos estándar son enormes y deben cubrirse mediante un complicado proceso para garantizar que permanezcan estériles. Esto no es necesario con el nuevo videomicroscopio, que únicamente se cubre con una manga deslizable, según comentó Langer.

“Me parece que no hay duda de que será valioso”, manifestó Langer. No obstante, añadió: “Puede que alguien más conservador y sin disposición para probar cosas nuevas no se adapte ni esté dispuesto a hacerlo”.

 
Cirujanos que observan la operación de Roy. La pantalla grande usada con el videomicroscopio lo vuelve una herramienta útil de enseñanza y deja que los cirujanos operen mientras ven hacia el frente, lo que les evita problemas de cuello que pueden poner fin a sus carreras. CreditBeatrice de Gea para The New York Times

El dispositivo en Lenox Hill, conocido como Orbeye, fue elaborado por Somed, una empresa conjunta de Olympus y Sony. Langer ha recibido honorarios de la empresa por concepto de consultoría.

Varios centros médicos en Estados Unidos también han puesto a prueba el Orbeye.

Charles L. Branch, director de Neurocirugía del Wake Forest Baptist Medical Center en Winston-Salem, Carolina del Norte, ha usado el equipo en unas veinte operaciones de columna, todas mínimamente invasivas y realizadas a través de un tubo.

“En el primer caso, casi sentí que me estaba mareando, como cuando uno va en movimiento en un automóvil”, recordó. Sin embargo, fue una sensación pasajera y se adaptó en poco tiempo.

“Es de verdad genial”, comentó Branch. “Es como estar en la pantalla Imax. No solo permite al cirujano ver qué está pasando, sino también hacerlo a todos los que están en el quirófano. En lugar de tener que inclinarme sobre el microscopio y tensar el cuello o la espalda, puedo sentarme cómodamente, ver la pantalla grande frente a mí y trabajar con las manos”.

Describió la cámara como fácil de mover, ajustar e inclinar en varias posiciones, lo cual no es posible con un microscopio.

“No creo que sea un artefacto extravagante”, comentó. “Creo que se adoptará ampliamente y con bastante rapidez”.

Mark Miller, vocero de Olympus, dijo que el precio del Orbeye sería similar al de los microscopios quirúrgicos estándar, que oscilan entre 200.000 y un millón de dólares. El sistema que Lenox Hill compró cuesta cerca de 400.000 dólares, reveló Langer. Otras empresas también están tratando de ingresar al mercado.

Bob S. Carter, jefe de Neurocirugía del Hospital General de Massachusetts, señaló que usar el Orbeye era como tener “los ojos de Superman”, pero agregó que su hospital también estaba evaluando otros dispositivos y que todavía no habían decidido cuál adquirir. Afirmó que la tecnología “es el camino del futuro”.

 
La paciente Anita Roy optó por la cirugía cerebral cuando se enteró de que tenía la enfermedad de moyamoya, que puede conducir a embolias múltiples, deterioro mental y muerte a causa de a una hemorragia cerebral.CreditBeatrice de Gea para The New York Times

Del otro lado de la pantalla

Anita Roy, una asistente administrativa jubilada que vive en el Bronx, observó los primeros síntomas preocupantes en 2015: episodios de debilidad en la mano derecha y problemas del habla. Las pruebas en un hospital local descartaron una embolia. No obstante, los episodios ocasionales continuaron y en julio de 2017, mientras se recuperaba de una operación de corazón en Lenox Hill, tuvo una convulsión.

Mediante una serie de pruebas de laboratorio, se descubrió que padecía la enfermedad de moyamoya, un extraño trastorno que fue identificado por primera vez en Japón. El nombre significa “nube de humo” en referencia a los rayos X de los pacientes; muestran una nube de vasos sanguíneos frágiles que brotan en el cerebro donde están bloqueados los vasos normales.

Existen varias causas, que hasta ahora no se entienden del todo. Muchos de los pacientes son niños. La enfermedad puede avanzar y conducir a embolias múltiples, declive mental y, en los adultos, a muerte por hemorragia cerebral.

Anita Roy no dudó: con la esperanza de evitar una embolia más fuerte que pudiera discapacitarla o matarla, quiso someterse a una neurocirugía.

Su operación, que se llevó a cabo el 15 de diciembre, fue el primer bypass o derivación que Langer realizó con el Orbeye, aunque él y sus colegas ya lo habían utilizado para otras operaciones. Este tipo de operación es una de las intervenciones neuroquirúrgicas más difíciles e implica coser arterias que tienen aproximadamente un milímetro de diámetro. Los colegas afirman que Langer es uno de los pocos cirujanos en el mundo con la habilidad y la experiencia para hacer bien esta operación.

Un vaso sanguíneo en el cráneo de la paciente se redireccionaría para alimentar a una arteria más profunda cuyo suministro sanguíneo se había interrumpido. El extremo cortado de una ramificación de la arteria del cuero cabelludo se cosería a una perforación realizada en el costado del vaso sanguíneo más profundo. Otra ramificación de la arteria del cuero cabelludo se colocaría encima del cerebro de la mujer, esperando que crecieran ramificaciones en el tejido nervioso, ya que las células privadas de oxígeno secretan sustancias que estimulan el crecimiento de vasos sanguíneos.

El procedimiento dio inicio cuando los cirujanos asistentes usaron una sonda ultrasónica en la sien de la paciente con el fin de detectar el pulso de la arteria del cuero cabelludo, para después marcar el camino del vaso sanguíneo con tinta púrpura de tal modo que Langer supiera exactamente dónde cortar. Posteriormente, el cirujano principal comenzó el difícil proceso de liberar las dos ramificaciones de la arteria de su tejido circundante.

Una vez que la arteria quedó libre, los cirujanos usaron un taladro y una sierra en el cráneo de Roy para retirar un disco de hueso de casi ocho centímetros de diámetro. El cerebro y su entramado de vasos sanguíneos de color rojo intenso, magnificados quince veces en el monitor, brillaban bajo la luz y pulsaban con cada latido del corazón.

Se requirieron unos diez puntos de sutura para coser la arteria del cuero cabelludo a la arteria del cerebro con una aguja curva del tamaño de una pestaña y un hilo tan delgado que apenas se veía a simple vista.

“Las primeras dos suturas son las más difíciles”, explicó Langer. “Son las que lo sostienen todo. Estoy cosiendo verticalmente, pero no tengo problemas para ver. Es una gran amplificación”.

 
A la izquierda, un angiograma que muestra un bloqueo en la arteria carótida interna de Roy. A la derecha, Langer trabajando con gafas 3-D. CreditBeatrice de Gea para The New York Times

Un mínimo error podría cerrar los vasos frágiles y resbalosos en lugar de unirlos. Cada movimiento era claramente visible para todos en el quirófano.

Cuando acabó de suturar, Langer usó una sonda ultrasónica para buscar el sonido rítmico y silbante que significaría que la sangre fluía hacia el nuevo canal que había creado.

En un principio, el flujo era débil. Pero una vista clara de la pantalla en 3D posibilita que se hagan sugerencias; y otro médico que observaba el monitor sugirió cortar un poco más para facilitar el flujo hacia la arteria receptora. Langer siguió su consejo y funcionó.

El siguiente paso fue colocar la otra ramificación de la arteria del cuero cabelludo directamente en el cerebro de la paciente. Muy pronto, los cirujanos estaban volviendo a poner en su lugar el disco de cráneo —con una nueva muesca para permitir que la arteria redireccionada pudiera pasar—, sujetándolo con placas de unión diminutas y cerrando el cuero cabelludo con cuarenta grapas.

Seis horas después de que la intervención quirúrgica había iniciado, alrededor de las 16:00, la paciente, ya sin los paños sobre su rostro, estaba parpadeando ante el resplandor de la sala de operaciones y moviendo los brazos y las piernas. Un anestesiólogo le dijo que su operación había salido bien. La paciente le respondió con una gran sonrisa.

Tres días después, estaba sentada en la cama, en bata y con calcetines de color rojo intenso, hablando con su marido a la hora del almuerzo. Resultaba difícil creer que recientemente hubiese pasado por una operación de cerebro.

“Simplemente me siento bien”, comentó.

En broma, acusó a Langer de haberle contado todo un “cuento” sobre posibles efectos secundarios y una recuperación difícil. Era la semana antes de Navidad y había decorado su árbol y había envuelto todos sus regalos antes de ir al hospital, pues había temido no poder hacerlo después de la intervención quirúrgica.

Pero la operación, según dijo, “fue como si nada hubiera pasado”.

Sin la intervención, se calcula que los pacientes como Roy tienen un riesgo de embolia de entre el 20 y el 50 por ciento o incluso mayor dentro de los siguientes cinco años, dijo el neurocirujano. Tras una operación exitosa, el riesgo es de un porcentaje muy reducido al año o menos.

“No todas salen tan bien”, indicó Langer. “Estas intervenciones tienen un alto riesgo y no siempre salen a la perfección”.

Roy, quien iba a ser dada de alta ese día, lo reconoció antes de salir a caminar por la ciudad con su marido de regreso a su casa en el Bronx. “Tuve suerte”, concluyó.

https://www.nytimes.com/es

«Cocoliztli», el terrible mal que los españoles llevaron a México

Nuevos análisis genéticos han revelado el posible papel de una bacteria, Salmonella enterica, en una epidemia que mató a 12 o 15 millones de nativos americanos a partir del año 1545

Mural de Diego Rivera sobre la Conquista de México. Palacio Nacional de la Ciudad de México
Mural de Diego Rivera sobre la Conquista de México. Palacio Nacional de la Ciudad de México

Con frecuencia suele pasarse por alto, pero la llegada de los españoles al Nuevo Mundo supuso también la llegada de un gran ejército de bacterias y virus «europeos» que aniquilaron a las poblaciones indígenas. Los estudiosos han llegado a decir que a causa de las epidemias importadas por los «conquistadores», se produjo una caída de población entre los nativos de hasta el 95 por ciento. La viruela, el sarampión, las paperas y la gripe tuvieron un impacto brutal entre los americanos, sencillamente porque sus sistemas inmunes nunca habían lidiado con algo así.

Aparte de estas epidemias, razonablemente bien documentadas, con los españoles llegó un mal al que se conoce menos. En el Virreinato de Nueva España, en la actual México, una epidemia provocó entre 12 a 15 millones de muertes a partir del año 1545. De acuerdo con los documentos que han llegado hasta nosotros, las víctimas sufrían lo que ahora designaríamos coma una fiebre hemorrágica, y que entonces se definía como tifus o fiebres (los «tabardillos») o, sencillamente, «cocoliztli» (en Nahuatl, enfermedad, mal) o «pujamiento de sangre» (en español): la piel de los afectados se llenaba de puntos rojos, las personas vomitaban y sangraban por los orificios de su cuerpo. Ahora, y gracias a una nueva técnica, una investigación publicada en Nature Ecology & Evolution ha identificado al que pudo ser al menos uno de los culpables que estaba detrás de la epidemia de cocoliztli: se trata de una bacteria conocida como Salmonella enterica.

Excavación donde se extrajeron los restos humanos analizados en este estudio
Excavación donde se extrajeron los restos humanos analizados en este estudio-Christina Warinner. Cortesía del Proyecto Arqueológico de Teposcolula-Yucundaa

Las epidemias ocurridas en el siglo XVI son difíciles de trazar, porque, aparte de documentos, hoy solo queda un número muy limitado de restos biológicos de entonces. Además, muchas veces es difícil encontrar ahí los restos de los patógenos (virus y bacterias) del pasado. Ahora, un equipo internacional de científicos del Instituto Max Planck de Ciencia de la Historia Humana (Alemania), de la Universidad de Harvard (EE.UU.) y del Instituto Nacional de Antropología e Historia (México) ha usado muestras de ADN antiguo junto con una nueva técnica de análisis. Su principal ventaja es que los investigadores no necesitan saber qué tipo de microorganismo buscan para poder encontrar sus huellas entre los genes.

Investigar enfermedades antiguas

«Esta nueva técnica nos permite buscar ampliamente al nivel del genoma (del conjunto de genes) para buscar lo que quiera que esté presente», ha dicho en un comunicado Johanes Krause, investigador del Instituto Max Planck de Ciencia e Historia Humana y coautor del estudio. «Esto es un avance fundamental para investigar las enfermedades antiguas: ahora podemos buscar las huellas moleculares (genéticas) de muchos agentes infecciosos del registro arqueológico, lo que es especialmente relevante para los casos típicos donde no se sabe la causa de una enfermedad».

Trabajos de laboratorio con el material genético de los restos arqueológicos
Trabajos de laboratorio con el material genético de los restos arqueológicos – Elizabeth Nelson

No es solo que sea difícil investigar los restos humanos del siglo XVI. Es que además, muchas epidemias distintas presentan unos síntomas similares, y en ocasiones también es probable que pasado tanto tiempo los patógenos cambien y no provoquen los mismos síntomas hoy y hace 500 años.

Por eso, la mejor herramienta para los investigadores es rastrear los huesos en busca de daños provocados por patógenos, cosa de la que no siempre queda huella, o, mejor todavía, buscar los restos de ADN de bacterias o virus atacantes. Para ello, los científicos usan normalmente una sonda de material genético que es específica para cada microbio: cuando esta especie de «llave» reconoce su cerradura, los científicos saben que tal o cual microorganismos está presente. Pero a veces no se sabe qué sonda usar, porque el patógeno causante de una epidemia puede ser desconocido.

Llega «cocoliztli»

Algo así ocurría con la epidemia que sacudió América entre 1545 y 1550. «Cocoliztli» devastó extensas zonas de México y Guatemala, incluyendo la ciudad de Teposcolula-Yucundaa, en la actual Oaxaca. Allí, en el fondo de un valle, recientemente se abrió un yacimiento arqueológico cuyos huesos esconden un registro de lo ocurrido entonces.

Los científicos extrajeron el ADN del interior de los dientes de 29 fallecidos, recurriendo a técnicas de secuenciación masiva (de la llamada metagenómica). Usaron una nueva metodología de procesamiento de datos genéticos, llamada MALT, y así pudieron identificar los patógenos presentes sin previamente saber qué debían buscar, es decir, sin usar sondas («llaves») concretas.

Así, encontraron que en 10 de las 29 personas había restos de una subespecie deSalmonella enterica, llamada Salmonella entericaParatyphi C, y que es uno de los 2.600 serotipos (tipos) de este patógeno que se conocen.

En la actualidad, bacterias entéricas similares, sobre todo Salmonella Typhi, causan fiebres, deshidratación y complicaciones gastrointestinales. Aun en pleno siglo XXI, infectaron a 27 millones de personas solo en el año 2000. Su forma de dispersión suele ser la ruta fecal-oral, vía agua o comida contaminada.

Microbios y contexto social

Gracias a todo esto, los científicos saben ahora que en el momento en que la terrible epidemia «cocolitzli» sacudía a la población indígena, una bacteria intestinal probablemente proveniente de Europa estaba circulando entre la población. También saben que la nueva tecnología que han usado permite encontrar microbios que no se buscaban de antemano en restos humanos antiguos.

Los autores han resaltado en su estudio que es importante considerar que aquella epidemia probablemente estuvo causada por una combinación de patógenos junto con un contexto social concreto, (lo que se llama «sindemia»). Han sugerido que cambios sociales impuestos por la «conquista de América», como la «congregación», una política de reasentamiento en granjas de los nativos, junto a una sequía, perturbaron los hábitos higiénicos de la población y que esto facilitó la transmisión de la epidemia.

http://www.abc.es/ciencia

¿Por qué es el azul tan raro en la naturaleza?

Puede que no te lo hayas planteado nunca, pero el color azul es particularmente escaso en la naturaleza. Hay muy pocos animales que produzcan pigmentos azules y buena parte de los que producen este color lo hacen cambiando la dispersión de la luz mediante la estructura microscópica de sus escamas o plumas. Antes de continuar con la explicación, es interesante observar que los seres vivos tenemos a menudo el color de las cosas que comemos. Me explico: si comemos plantas con muchos carotenos, por ejemplo, esos pigmentos pueden servir para dar color a nuestra piel. Los flamencos, que comen miles de diminutos crustáceos rojos y algas (llenos de estos compuestos) adquieren color rosa/anaranjado en su plumaje. Y nosotros, si nos damos un atracón de zanahorias (llenas de carotenos, como las hojas de los árboles en otoño) podemos llegar a ponernos color de los Cheetos durante unas horas.

Los carotenos están en muchas plantas y eso explica el color de muchas criaturas que se alimentan de ellos, pero también hay otras sustancias que dan el color azul a las plantas que son las antocianinas, pero por algún motivo no son tan fáciles de procesar y convertir en pigmentos. Por eso, si existiera una especie de flamenco que se hartara de comer moras silvestres, por ejemplo, no es probable que desarrollara el plumaje de color azul. No hay una explicación definitiva, pero la más plausible es que la transformación química de estas sustancias es más costosa o compleja que la de los otros colores. Solo hay algunos animales muy particulares, como el pez mandarín y alguna salamandra, que tienen pigmentación azul. El resto, como la famosa mariposa Morpho y muchas aves de plumas azules, han desarrollado este color mediante un truco estructural que consiste en dispersar la luz de las longitudes de onda más cortas.

* ACTUALIZACIÓN 12-1: Mi buen amigo J. M. Mulet, doctor en bioquímica,  apunta que una posible explicación a nivel fisiológico y molecular de este fenómeno estaría en que los carotenoides “son liposolubles y al acumularlos en el tejido graso dan la coloración al animal”, mientras que “el pigmento azul por excelencia, la antocianina, es hidrosoluble y además a pH ácido pierde el color azul por lo que no puede acumularse en el tejido graso y colorear la piel de ningún animal”. 

En cuanto a la escasez de animales azules, a nivel evolutivo tiene sentido porque la mayoría de las plantas son verdes y no podrían camuflarse. “Las longitudes de onda útiles para la fotosíntesis son las de los extremos del espectro, la azul, la roja y la roja lejana. Por eso las plantas son verdes, porque esa longitud de onda no tiene utilidad fotosintética y es reflejada”, me cuenta. “Cuando una hoja se muere la acumulación de antocianinas (otra vez) le da un color rojizo, que no refleja actividad fotosintética, sino un nivel de estrés alto. A efectos prácticos una zona con mucha vegetación puede ser verde, amarilla o roja, pero nunca azul, eso elimina presión evolutiva hacia pigmentos azules ya que para camuflarse son irrelevantes, al contrario, te pueden convertir en presa fácil”.

Si te interesa el tema, en este vídeo de It’s Okay To Be Smart (en inglés) se explica bastante clarito con algunos ejemplos. Si te quedas con ganas de más, puedes echar un vistazo al hilo que escribí sobre el color de nuestros ojos o leer El ojo desnudo, donde hablo de estos y otros muchos temas sobre el color 😉

http://www.fogonazos.es

La peste, la gran plaga que amenazó con el apocalipsis

Sus orígenes se remontan la Edad del Bronce. Causada por una bacteria, Yersinia pestis, provocó la terrible Muerte Negra o Gran Plaga en la Edad Media

«El triunfo de la muerte», de Peter Brueghel el Viejo. Influido por la Muerte Negra, representa el juicio final
«El triunfo de la muerte», de Peter Brueghel el Viejo. Influido por la Muerte Negra, representa el juicio final 

«Miré, y vi un caballo bayo. El que lo montaba tenía por nombre Muerte, y el Hades lo seguía: y les fue dada potestad sobre la cuarta parte de la tierra, para matar con espada, con hambre, con mortandad y con las fieras de la tierra». Así se refiere el Apocalipsis al cuarto jinete, que monta un caballo cadavérico. Se le suele conocer como Muerte, pero en muchos libros también lleva el nombre de «Peste».

Y con razón. La peste es una de las plagas que más huella ha dejado en la historia del ser humano, probablemente junto a la viruela. Algunos estudiosos relacionan la caída del Imperio Romano con la dispersión de esta enfermedad. Durante siglos la peste fue una catástrofe capaz de dejar ciudades completamente devastadas, en las que a veces «no quedaron vivos suficientes como para enterrar a los muertos». En el Siglo XIV, la Muerte Negra, una terrible plaga de peste, acabó con el 60% de la población europea, según el Centro de Prevención y Control de Enfermedades de Estados Unidos (CDC). Ya a principios del siglo XIX, la sacudida de la peste dejó 10 millones de muertos. Por suerte, la higiene y los antibióticos, hoy mal usados por una gran parte de la población, salvaron a la humanidad del azote de la peste.

Sin embargo, las últimas epidemias no han ocurrido hace mucho tiempo. Una plaga sacudió India en la primera mitad del siglo XX y otro brote se extendió durante Vietman en periodo de guerra. Según datos de la Organización Mundial de la Salud (OMS), la peste es endémica en Madagascar, la República Democrática del Congo y el Perú. Entre 2010 y 2015 se notificaron 3.248 casos en el mundo, 584 de ellos mortales.

Un asesino versátil: Yersinia pestis

Estas impresionantes cifras y terribles imágenes son la creación de Yersinia pestis, una bacteria de forma ovalada que fue descubierta en 1894 por Alexandre Yersin, un médico del Instituto Pasteur.

Bacilos de Yersinia pestis, los causantes de la peste
Bacilos de Yersinia pestis, los causantes de la peste-WIKIPEDIA

El bacilo en sí mismo no es muy impresionante. Pero esconde una versatilidad que es letal: puede vivir tanto en presencia como en asuencia de oxígeno y es capaz de matar a múltiples víctimas: humanos, roedores, perros, gatos, camellos, pollos y cerdos.

Además, la bacteria se guarda otro as en la manga. Los científicos creen que es capaz de infectar a roedores, como ratas, sin provocar demasiada mortalidad entre ellas. Esto favorece que las ratas se conviertan en una reserva (reservorio) a largo plazo de este patógeno. Además, las pulgas, que pican a ratas y a humanos, se convierten en un excelente vehículo de dispersión. En ocasiones, cuando afecta a un humano, la peste infecta las vías respiratorias y adquiere capacidad de dispersarse por vía aérea: la tos y la respiración de los infectados liberan gotas repletas bacilos de Yersinia pestis que otras personas pueden inhalar, aunque normalmente es necesario que haya un contacto más directo.

Por todo esto, el contagio de la peste puede producirse a través de la picadura de pulgas o por contacto directo con fluidos o materiales contaminados. Además, la peste también puede transmitirse por vía aérea.

¿Por qué es tan dañina?

Este microbio es dañino (patogénico) porque durante la infección altera la actividad del sistema inmune del hospedador (la víctima a costa de la que crece y se multiplica). De hecho, afecta a dos procesos fundamentales de la defensa del organismo: la fagocitosis (a través de las cuales celúlas de defensa «se tragan» a los patógenos) y la producción de anticuerpos. Para ello, este microbio inyecta proteínas capaces de estropear el normal funcionamiento de algunas células inmunes, y a veces incluso induce su suicidio (conocido como apoptosis).

Víctimas de la epidemia de la Muerte Negra enterradas en Londres
Víctimas de la epidemia de la Muerte Negra enterradas en Londres-Museo de Arqueología de Londres

El organismo trata de evitarlo. Pero Yersinia pestis «se refugia» dentro de los nódulos linfáticos, donde puede evitar el ataque de células policiales: los macrófagos. Su crecimiento hace que los ganglios se hinchen y duelan.

Una enfermedad muy letal

Según la Organización Mundial de la Salud, la peste es una enfermedad muy grave para el ser humano. Su tasa de letalidad (porcentaje de infectados que mata) oscila entre el 30 y el 100 por ciento. Esto depende de la forma que adopte la enfermedad y que depende del modo de contagio o de la etapa en la que se encuentre la infección.

La peste es excepcionalmente letal en su forma septicémica, que aparece cuando las bacterias producen una infección generalizada en la sangre y en la neumónica, que se desarrolla cuando el microbio llega al cuerpo a través de gotas en suspensión e infecta las vías respiratorias. La forma de la peste menos virulenta es la bubónica, que es la que aparece cuando los ganglios linfáticos de los infectados se hinchan y reciben el nombre de bubones. La peste bubónica, normalmente causada por la picadura de una pulga, puede evolucionar hacia las otras dos variantes.

Bubones y otros síntomas

La peste bubónica es provocada por la picadura de pulgas infectadas. Los patógenos se desplazan por el sistema linfático hasta el ganglio linfático más próximo, normalmente situado en la axila, la ingle o el cuello, donde comienzan a multiplicarse. Aparte de esto, aparecen otros síntomas como la fiebre, escalofríos, dolor de cabeza y agotamiento extremo, en un rango de tiempo que oscila entre uno y seis días después de la picadura. En las fases avanzadas de la enfermedad, los ganglios linfáticos inflamados pueden convertirse en llagas abiertas supurantes. Por fortuna, la peste bubónica raramente se transmite entre personas.

Si no se trata, o si el sistema inmune no puede lidiar con la enfermedad, la bacteria abandona los bubones y comienza a proliferar por la sangre, causando la letal variante septicémica, o llegar a las vías aéreas, causando la también mortífera variante neumónica.

Uno de los grabados de la Danza macabra de Hans Holbein el Joven, 1538. La temática está influida por las epidemias de peste de la Edad Media
Uno de los grabados de la Danza macabra de Hans Holbein el Joven, 1538. La temática está influida por las epidemias de peste de la Edad Media-WIKIPEDIA

La peste neumónica o pulmonar es la forma más virulenta. El periodo de incubación puede ser de tan solo 24 horas. Cualquier persona con peste neumónica puede transmitir la enfermedad a otras personas a través de pequeñas gotas de la respiración. Si no se trata de forma rápida, es mortal. Sus síntomas son elevada fiebre, escalofríos, tos sanguinolenta y dificultades respiratorias.

La variante neumónica aparece cuando Yersinia pestis ha proliferado por el sistema circulatorio. Sus síntomas son elevada fiebre, agotamiento, mareos y dolor abdominal. Cuando aparece, es capaz de provocar en poco tiempo un fallo orgánico generalizado por shock séptico.

La historia de la peste

Los estudios de ADN de cadáveres han revelado que Yersinia pestis ha estado con el hombre desde hace milenios. Hay evidencias de que infectaba al hombre hace 5.000 años. Pero con el crecimiento demográfico, las rutas comerciales y también las guerras, Yersinia pestis encontró más facilidades para proliferar. Hace unos 3.000 años aparecieron variantes más virulentas.

Por el momento, se conocen tres cepas principales de la peste: «Antiqua», que causó una plaga en el siglo VI, «Medievalis», que causó la Muerte Negra y varias epidemias posteriores, y «Orientalis», que es la que en la actualidad causa brotes de peste. Todas ellas vivieron en distintos momentos y tuvieron unas características propias.

Las tres grandes plagas

Estudios han sugerido que la peste emergió al comienzo de la Edad del Bronce y que podría ser la responsable de las grandes caídas de población que ocurrieron 4.000 y 3.000 años antes de Cristo. Aparte de esto, han quedado documentadas tres grandes plagas y ejemplos del uso de la peste como arma biológica durante siglos.

La primera gran epidemia registrada es la llamada Plaga de Justiniano, que hace honor al emperador del Imperio Bizantino Justiniano I. Al parecer, comenzó en el 541 D.C. y dejó 25 millones de muertos entre los siglos VI y VIII por la mayor parte de la cuenca del Mediterráneo.

La siguiente gran epidemia es la más terrible de todas: se trata de la Muerte Negra o Gran Plaga, un azote que mató al 60 por ciento de la población de Europa en el siglo XIV. Expertos consideran que ciudades enteras quedaron arrasadas y que en algunos casos no quedaron sobrevivientes suficientes para enterrar a los muertos.

Grabado del siglo XVII: un médico de la peste
Grabado del siglo XVII: un médico de la peste – WIKIPEDIA

Se considera que su origen está en China, en torno al 1334. Su llegada a Europa podría haber estado vinculada con la ciudad de Caffa, en 1346 un enclave comercial genovés de la península de Crimea, a orillas del mar Negro, que estaba asediado por la terrible horda de los mongoles. Al parecer, los mongoles usaron la peste como arma biológica al lanzar sus cadáveres sobre las murallas. Esto provocó que la enfermedad se propagara rápidamente primero por toda la colonia y luego hasta Italia, cuando los genoveses emprendieron el viaje de regreso. Desde Génova la epidemia se extendió como la pólvora por el resto de Europa, donte tuvo un impacto enorme en la economía, la sociedad y quizás en el surgimiento del Renacimiento.

De esta época son los famosos doctores de la peste: vestían con una túnica de piel gruesa encerada que les llegaba hasta el tobillo, se cubrían la cara con una máscara en forma de pico de ave y la llenaban de sustancias aromáticas para mitigar los malos olores. Además los médicos llevaban guantes, calzado y sombrero confeccionado con piel de cabra. En la mano derecha sujetaban una vara, con la que examinaban al paciente desde una distancia prudente, para evitar el riesgo de contagio.

La última gran epidemia, la Plaga Moderna, comenzó en China en torno al 1860. En 1894, Yersinia pestis campaba a sus anchas por Hong Kong. En los 20 años siguientes, y por culpa de las ratas, se extendió por los barcos y las ciudades portuarias de todo el mundo. Se considera que mató a unos 10 millones de personas.

Afortunadamente, en este periodo los científicos identificaron al patógeno y descubrieron el importante papel de las pulgas en su dispersión. El control de pulgas e insectos, y el uso de antibióticos, casi acabaron con este mal histórico.

http://www.abc.es/ciencia

El centro de nuestra galaxia, visto como nunca

Un vídeo en 360º realizado con datos de poderosos telescopios muestra la Vía Láctea desde el punto de vista de su agujero negro central

El centro galáctico

La Tierra se encuentra a unos 26.000 años luz del centro de nuestra galaxia, la Vía Láctea. Todavía resulta imposible viajar hasta allí, pero los científicos han podido estudiar esa región mediante el uso de poderosos telescopios que pueden detectar la luz en una varidad de formas. Ahora, un nuevo vídeo realizado con datos del Observatorio de Rayos X Chandra de la NASA y otros instrumentos permite a cualquier persona interesada echar un vistazo en 360º de ese fascinante entorno de máxima gravedad alrededor del agujero negro supermasivo conocido como Sagitario A*.

La visualización parte de los datos infrarrojos proporcionados por el Very Large Telescope del Observatorio Europeo Austral (ESO) de 30 enormes gigantes estelares llamados estrellas Wolf-Rayet, que orbitan a 1,5 años luz del centro de nuestra galaxia. Los poderosos vientos de gas que fluyen de la superficie de estas estrellas llevan algunas de sus capas externas al espacio interestelar.

Cuando el gas que fluye entra en colisión con el gas expulsado previamente de otras estrellas, las colisiones producen ondas de choque que impregnan el área. Estas ondas de choque calientan el gas a millones de grados, lo que hace que brille en los rayos X. Amplias observaciones con Chandra de las regiones centrales de la Vía Láctea han proporcionado datos críticos sobre la temperatura y la distribución de este gas de varios millones de grados.

Los astrónomos están interesados en comprender mejor qué papel juegan estas estrellas Wolf-Rayet en el vecindario cósmico en el centro de la Vía Láctea (consulta aquí la investigación). En particular, les gustaría saber cómo interactúan con el vecino más dominante: Sagitario A *, que tiene una masa equivalente a unos cuatro millones de soles.

La visualización del centro galáctico es una película de 360 grados que sumerge al espectador en una simulación del centro de nuestra galaxia. El espectador se encuentra en la ubicación de Sagitario A * y puede ver alrededor de 25 estrellas Wolf-Rayet (objetos blancos centelleantes) que giran en órbita a su alrededor a medida que expulsan continuamente vientos estelares (escala de color negro a rojo y amarillo). Estos vientos chocan entre sí, y luego parte de este material (manchas amarillas) gira en espiral hacia el agujero negro. La película muestra dos simulaciones, cada una de las cuales comienza alrededor de 350 años en el pasado y abarca 500 años. La primera simulación muestra a Sagitario A * en un estado tranquilo, mientras que en la segunda se lo ve más violento, expulsando su propio material, lo que desactiva la acumulación de material aglomerado (manchas amarillas) que es tan prominente en la primera parte.

Un estallido hasta hace cien años

Los científicos han utilizado la visualización para examinar los efectos que Sagitario A * tiene en sus vecinos estelares (el estudio, en Arxiv.org). A medida que la fuerte gravedad del agujero negro atrae grupos de material hacia el interior, las fuerzas de marea estiran los cúmulos. El pozo cósmico también impacta en su entorno a través de estallidos ocasionales que resultan en la expulsión de material lejos de sí mismo, como se muestra en la segunda parte del vídeo. Estos arrebatos pueden tener el efecto de eliminar parte del gas producido por los vientos de Wolf-Rayet.

A partir de estos datos, los investigadores, dirigidos por Christopher Russell, de la Pontificia Universidad Católica de Chile, han determinado que Sagitario A * pudo tener una relativamente poderosa explosión que se inició en los últimos siglos. Ese estallido todavía está afectando a la región a su alrededor, aunque terminó hace unos cien años.

El video en 360 grados del centro galáctico puede verse en teléfonos inteligentes utilizando la aplicación de YouTube. La mayoría de los navegadores de ordenador también permiten su visualización, pero para tener una óptica experiencia los científicos recomiendan utilizar gafas de realidad virtual (VR), como Samsung Gear VR o Google Cardboard.

http://www.abc.es/ciencia

Historia, cerebro y política (el mito del 10%)

Historia, cerebro y política (el mito del 10%)

1

Resulta una obviedad decir que la Historia es esa reconstrucción de hechos que ya han ocurrido, y que inevitablemente tal reconstrucción se hace desde el presente, de ahí que la Historia sea un relato móvil y dúctil que cada generación está obligada a reinterpretar. El mecanismo es sencillo: remontamos el tiempo para proyectarlo en el aquí y ahora, dar sentido a todos nuestros aciertos y carencias, prejuicios y certezas. Vista así, la Historia parece más bien un colectivo ejercicio de consolación de cuantos males y triunfos nos van ocurriendo, algo con lo que pretendemos generar un relato creíble y verosímil de cuanto acontece aquí y ahora. Una especie de moraleja.

Pero en realidad toda explicación de cualesquiera hechos, también los personales y domésticos, responde a ese mismo patrón de reconstrucción a posteriori. Tenemos claro que en el instante en que ocurre un evento nada puede decirse de ese evento, hace falta lejanía para poder narrarlo, hace falta “estar en él cuando él ya no está ahí”. Semejante tarea, filosóficamente atractiva y físicamente imposible, es lo que hace que infructuosamente intentemos apresar el tiempo orgánico, el tiempo de verdad, el tiempo que destruye y crea los cuerpos y las cosas.

“Acerca del cerebro existe la idea de que sólo usamos el 10% de sus capacidades, creencia antigua de la que incluso el año pasado Hollywood produjo una película muy taquillera.”

Y parece claro que todo lo anterior se aplica a eventos y sucesos no repetibles (ya sean Históricos o personales y domésticos), en los cuales, lógicamente, no se puede dar marcha atrás y cambiar las cosas hechas (un puente cruzado, cruzado está; un tuit escrito, escrito está). Para salvar tal imposibilidad de repetir acciones se inventó la ciencia, la cual promete que los fenómenos de los que se ocupa son todos ellos repetibles; por eso podemos hablar de leyes físicas, químicas y biológicas. Las manzanas caen siempre del mismo modo, y así construimos una ley para ella. Pero incluso en los últimos años (aunque su precursor fue, muy al principio del siglo XX, el matemático Henri Poincaré) a la ciencia no le ha quedado otro remedio que abordar problemas que en principio no son tan regulares en el espacio y en el tiempo, admitir que si se miran con detenimiento no todas la manzanas caen del mismo modo, y que entonces las leyes conocidas requieren de ciertas correcciones. Son los llamados sistemas complejos y sus propiedades emergentes. Sin ir más lejos, cualquiera de nuestros cuerpos, y aún siendo estudiado por la ciencia, es irrepetible, no es igual a ningún otro, es un sistema complejo. La ciencia entra de lleno en procesos naturales que hasta hace medio siglo le estaban vetados: los sujetos a la irreversibilidad del tiempo. Por ejemplo la evolución del cerebro.

2

Acerca del cerebro existe la idea de que sólo usamos el 10% de sus capacidades, creencia antigua de la que incluso el año pasado Hollywood produjo una película muy taquillera. Tal mito ha alimentado toda suerte de ideas más o menos esotéricas, como la de que hay gente dotada de superpoderes, o que si usáramos el 90% restante podríamos mover vasos a distancia y tendríamos facultades hoy inimaginables, etc. Naturalmente, nada más lejos de la realidad. Obviamente el cerebro emplea a cada instante el 100% de sus posibilidades compatibles con el entorno y con el problema que tiene delante. De hecho, no hay ninguna razón lógica ni factual ni teórica para pensar que no sea así. Y ocurre con todo. Me pregunto por qué una piedra no iba a emplear su potencial al 100% en cada instante, o por qué no iba a hacer lo mismo una ráfaga de viento, y por qué un tigre o un neandertal no iban a emplear todas sus capacidades cognitivas en cada instante. ¿Es que acaso la piedra, el viento, el tigre y el neandertal trabajan contra sí mismos?, ¿es que acaso infrausan su cuerpo porque sí? Claro que no. El cerebro humano utiliza todas sus facultades en cada instante porque está constantemente intentando adaptarse y entrar en “modo red” con su entorno inmediato. Lo que el cerebro no hace es desarrollar trabajos y esfuerzos sin objetivo alguno (eso sí que sería verdaderamente mágico, además de tonto), y al igual que la piedra y el viento y el tigre y el neandertal intenta ahorrar energía, reservarla para un futuro, pero ello no quiere decir que no use toda la que puede y le conviene en cada instante.

“En una contienda, ya sea dialéctica, simbólica o cruenta, todas la fuerzas emplean en cada momento el 100% de sus posibilidades compatibles con su entorno.”

Este mito del 10%, podemos verlo extendido a otros muchos ámbitos que nada tienen que ver con el cerebro, incluso al juego político: todas las partes en liza tienen la creencia de que haciendo concesiones al contrario éste se quedará tranquilo, no peleará más. Dicho de otro modo: una suerte de relato rousseaunianoafirma que ante gestos de buena voluntad el contrario no va a emplearse a fondo, o que —parafraseando lo aquí dicho— “sólo empleará el 10% de su potencia y posibilidades”. Nada más lejos de la realidad, y mucho menos en colectividades sociales falazmente tomadas como un cuerpo único. En una contienda, ya sea dialéctica, simbólica o cruenta, todas la fuerzas emplean en cada momento el 100% de sus posibilidades compatibles con su entorno, y ninguna negociación dejará un espacio sin rellenar: ambas partes, y en un feedback que siempre busca el equilibrio final de fuerzas, pelean al máximo para obtener ese espacio vacío, o, en el límite del pacto, compartirlo. La historia viva e irreversible no admite espacios sin explorar, no admite ni tan siquiera un 1% de espacio no usado. Pensar lo contrario es repetir el mito teológico por el cual el mundo fue creado en 6 días y ya está, desde entonces Dios descansó, ya todo está hecho y construido y el tiempo desde entonces es una especie de 90% que no usamos, pasamos de él, ni Dios ni nadie se ocupa de construir el mundo en tiempo real. Absurdo, ¿no?

Todos los individuos, y en todo lugar e instante, intentan desarrollarse al máximo de sus posibilidades compatibles con su entorno.

Portada

¿Podremos lograr que las computadoras presientan nuestra muerte?

Read in English

De las muchas pequeñas humillaciones que se le acumularon a un joven oncólogo durante su último año de beca, quizá esta haya sido la más extraña: al parecer, un gato blanco con negro, de 2 años, llamado Oscar tenía una mayor capacidad que muchos médicos para predecir el momento en que fallecerían los pacientes con enfermedades terminales. La historia, sorprendentemente, se publicó en The New England Journal of Medicine en el verano de 2007. El equipo médico adoptó a Oscar cuando aún era una cría y este se volvió el rey de uno de los pisos del geriátrico Steere House en Rhode Island. Cuando el gato olfateaba el aire, estiraba el cuello y se acurrucaba junto a un hombre o una mujer, era señal inequívoca de una muerte inminente. Los médicos entonces llamaban a los familiares para que hicieran una última visita. En el transcurso de los años, el gato se acurrucó junto a cincuenta pacientes. Cada uno de ellos falleció al cabo de un corto tiempo.

Nadie sabe cómo fue que el gato adquirió estas extraordinarias capacidades para oler la muerte. Quizá la nariz de Oscar aprendió a detectar un olorcillo especial a muerte: por ejemplo, los químicos que liberan las células al morir. Quizá había otras señales indescifrables. En un principio yo no lo creía por completo, pero la perspicacia de Oscar fue corroborada por otros médicos que vieron al gato profético en acción. Tal como escribió el autor del artículo: “Nadie se muere en el tercer piso a menos que Oscar le haya hecho una visita y se haya quedado un rato”.

La historia cobró mayor interés para mí el verano pasado, pues había estado tratando a S., un fontanero de 32 años que padecía cáncer de esófago. Había respondido bien a la quimioterapia y la radiación y habíamos extirpado su esófago quirúrgicamente sin dejar rastro detectable de células malignas en su cuerpo. Una tarde, a pocas semanas de haber finalizado su tratamiento, mencioné con sumo cuidado el tema de los cuidados durante los últimos días de vida. Por supuesto, le dije a S., nuestro objetivo era la cura, pero cabía una pequeña posibilidad de que hubiera una recaída. Tenía esposa, dos hijos y una madre que lo había llevado cada semana a la sala de quimioterapia. Tal vez, sugerí, podría sostener una conversación sincera con su familia respecto a sus objetivos.

Pero S. objetó. Se volvía más fuerte cada semana. La conversación estaba destinada a ser una molestia, como él la describió con su marcado acento bostoniano. Tenía esperanzas y ya no había cáncer. ¿Para qué echar a perder la celebración? Acepté a regañadientes; era poco probable que regresara el cáncer.

Cuando se presentó la recaída fue una avalancha implacable. A los dos meses de haber sido dado de alta del hospital, S. regresó a verme con dos brotes de metástasis en el hígado, los pulmones y, lo que no era nada común, en los huesos. El dolor causado por dichas lesiones era tan fuerte que solo dosis muy elevadas de analgésicos podían calmarlo y S. pasó sus últimas semanas de vida en un estado casi comatoso, incapaz de reconocer la presencia de su familia alrededor de su cama. Al principio, su madre me rogaba que le aplicara quimioterapia y luego me acusó de haber engañado a la familia respecto al diagnóstico. Yo permanecí en silencio por la vergüenza: yo sabía que los médicos tenemos un pésimo registro en cuanto a nuestra capacidad para predecir cuáles de nuestros pacientes morirán. La muerte es nuestra principal caja negra.

En un estudio dirigido por investigadores del University College de Londres y practicado en más de 12.000 pronósticos de vida de pacientes con enfermedades terminales, los aciertos y los fallos eran muy variados. Algunos médicos hacían predicciones muy precisas. Otros calculaban los fallecimientos con diferencias de hasta tres meses menos; pero había quienes calculaban la misma cantidad de meses de más. Incluso en la oncología, había subculturas de los peores errores: en una historia, muy probablemente apócrifa, un médico tratante de leucemia fue descubierto administrando quimioterapia intravenosa a un hombre cuyo monitor de la unidad de cuidados intensivos indicaba que ya tenía tiempo de haber fallecido.

 
CreditIlustración fotográfica por Cristiana Couceiro. Mano: Westend61/Getty Images

Pero ¿qué pasaría si un algoritmo pudiera predecir la muerte? A finales de 2016, Anand Avati, un estudiante graduado del Departamento de Ciencias Computacionales de Stanford, junto con su pequeño equipo de la Facultad de Medicina trataron de “enseñarle” a un algoritmo a identificar pacientes con altas probabilidades de fallecer dentro de un periodo determinado. “El equipo de cuidados paliativos del hospital tenía un reto”, me comentó Avati. “¿Cómo podríamos encontrar pacientes que se encontraran a tres o doce meses de morir?” Esta ventana era “el punto óptimo de los cuidados paliativos”. Un tiempo que superara los doce meses podría agotar los limitados recursos innecesariamente, al ofrecer demasiados cuidados, demasiado pronto; por el contrario, si la muerte ocurriera en menos de tres meses a partir de su predicción, no habría una preparación real para el fallecimiento: serían muy pocos cuidados, suministrados demasiado tarde. Avati sabía que ubicar a los pacientes en el reducido periodo óptimo les permitiría a los médicos echar mano de sus recursos de una manera mucho más apropiada y humana. Y, si el algoritmo funcionaba, los equipos de cuidados paliativos se sentirían aliviados al no tener que buscar en los registros de forma manual a quienes podrían beneficiarse de ello.

Avati y su equipo identificaron a 200.000 pacientes que podrían ser objeto de estudio. Los pacientes padecían todo tipo de enfermedades: cáncer, enfermedades neurológicas y deficiencias cardiacas o insuficiencia renal. La idea clave del equipo era utilizar los registros médicos del hospital como una especie de máquina del tiempo. Un hombre falleció en enero de 2017, por ejemplo. ¿Qué pasaría si pudiéramos retroceder en el tiempo hasta el “punto óptimo de cuidados paliativos” (la ventana entre enero y octubre de 2016, cuando los cuidados habrían sido más efectivos)? Pero Avati sabía que para encontrar ese punto en el caso de un paciente determinado muy probablemente tendrías que reunir y analizar información anterior a ese periodo. ¿Sería posible reunir información acerca de este hombre durante el periodo previo a la ventana de tiempo que le permitiría a un médico predecir su fallecimiento en ese periodo de tres a doce meses? Y ¿qué clase de información podría enseñarle a dicho algoritmo a hacer las predicciones?

Avati obtuvo registros médicos que ya habían sido codificados por los médicos del hospital: el diagnóstico del paciente, la cantidad de tomografías realizadas, la cantidad de días de estancia en el hospital, los tipos de procedimientos realizados y las recetas médicas. La información era limitada (no había cuestionarios, conversaciones ni olfateo de químicos), pero era objetiva y estandarizada entre los pacientes.

Se introdujeron estos registros en la llamada red neural profunda, una especie de arquitectura de software llamada de esa forma debido a que se cree que puede imitar la forma en la que se organizan las neuronas en el cerebro. El objetivo del algoritmo era ajustar los pesos y fuerzas de cada segmento de información con el fin de generar un indicador de las probabilidades de que un paciente pudiera fallecer dentro de un periodo de tres a doce meses.

El “algoritmo de la muerte”, como podríamos llamarlo, digirió y absorbió la información de cerca de 160.000 pacientes a modo de entrenamiento. Una vez que ingirió toda la información, el equipo de Avati lo puso a prueba con los 40.000 pacientes restantes. El algoritmo funcionó sorprendentemente bien. El índice de falsa alarma era muy bajo: nueve de cada diez pacientes que se había predicho que fallecerían entre tres y doce meses murieron en ese periodo. El 95 por ciento de los pacientes a quienes el programa les había asignado pocas probabilidades de fallecer sobrevivieron más de doce meses. (La información que utilizó este algoritmo podrá depurarse ampliamente en el futuro. Se podrán incluir los resultados de laboratorio, las tomografías, las anotaciones de un médico o la propia evaluación de un paciente, y así aumentar su poder predictivo).

¿Qué es exactamente lo que el algoritmo “aprendió” acerca del proceso de morir? Y, a su vez, ¿qué puede enseñarles a los oncólogos? Esa es la trampa de un sistema de aprendizaje tan avanzado: aprende, pero no puede decirnos cómo lo hizo; asigna probabilidades, pero no puede expresar el razonamiento que hay detrás de dicha asignación. Al igual que un niño que ha aprendido a andar en bicicleta por ensayo y error se encogerá de hombros y se marchará al pedirle que exprese las reglas que le permitieron hacerlo, el algoritmo nos mirará impávido al preguntarle el porqué. Al igual que la muerte, es otra caja negra.

Con todo, al husmear en la caja para analizar casos particulares, es posible ver patrones esperados e inesperados. Un hombre al que se le asignó una puntuación de 0,946 falleció en unos cuantos meses, como se había predicho. Había padecido cáncer de vejiga y de próstata, se le habían practicado veintiuna tomografías y había estado hospitalizado sesenta días (toda esa información fue interpretada por el algoritmo como señal de muerte inminente). Pero al parecer se dio gran relevancia al hecho de que las tomografías eran de su columna y de que se había colocado un catéter en su espina dorsal, características que mis colegas y yo no habríamos sabido reconocer como predictores de muerte (más tarde supe que una tomografía de la médula espinal tenía más probabilidades de identificar cáncer en el sistema nervioso, una ubicación mortal para la metástasis).

Para mí es muy difícil leer acerca del “algoritmo de la muerte” sin pensar en mi paciente S. De haber estado disponible una versión más sofisticada del algoritmo, ¿lo habría utilizado en ese caso? Por supuesto. ¿Habría sido posible que ello hubiese dado pie a la conversación de los últimos días de vida que S. jamás sostuvo con su familia? Sí, pero no puedo sacudirme cierta incomodidad inherente al pensamiento de que un algoritmo pueda comprender los patrones de mortalidad mejor que los humanos. ¿Y por qué un programa como ese ─sigo preguntándome─ parece mucho más aceptable cuando viene dentro de una caja de pelo blanco y negro que en lugar de emitir resultados de probabilidades se acurruca junto a nosotros con las patas retraídas?

 

Vocktail: parece un ‘trago’, sabe como un ‘trago’, pero no es un ‘trago’

El dispositivo permite personalizar tu bebida con diferentes aromas y sabores simulando digitalmente algunas muestras y colores para lograr la copa ideal sin mezclar ingredientes en físico

 

¿Te imaginas un cóctel virtual? Puedes dejar de soñarlo porque ya es una realidad. Un dispositivo interactivo llamado Vocktail permite personalizar un ‘trago’, el cual tiene olor, sabor y se ve como una bebida real, de acuerdo con los investigadores del Centro Keio-NUS Connective Ubiquitous Technology for Embodiments (CUTE).

Vocktail simula digitalmente distintas muestras, olores y colores para crear nuevos sabores virtuales o aumentar los ya existentes con el fin de lograr la copa ideal a base de agua, sin mezclar bebidas e ingredientes en físico. 

“Puedes entrar a un bar y pedir un mojito y simplemente usar la aplicación, diseñar tu bebida a tu preferencia, con solo decir: un aroma de chocolate y toques de banana o mango. O puedes personalizar el agua para que tenga el sabor de tu bebida preferida”, dijo el investigador Nimesha Ranasinghe, quien dirigió el proyecto en CUTE.

Una copa con base en 3D, cartuchos y una app

Este aparato consiste en una copa de cóctel que está fusionada con una base impresa en 3D, la cual contiene el módulo de control electrónico y tres micro bombas conectadas a cartuchos de diferentes aromas. 

Está acoplado con una aplicación móvil que permite a los usuarios crear sabores virtuales personalizados configurando de forma remota los estímulos de sabor, olor y color a través de Bluetooth.

Dos electrodos de plata sobre el borde del cristal generan corrientes eléctricas controladas de diferentes magnitudes y frecuencias en la punta de la lengua para simular sensaciones saladas o ácidas mientras bebes, lo cual modifica el sabor de la bebida. 

Para cambiar el olor, las bombas de aire liberan moléculas desde los cartuchos de olor escogidos directamente en la superficie de la bebida, que está cerca de la nariz de la persona al momento de tomar.

Cada persona puede añadir o cambiar cartuchos dependiendo del aroma deseado. Estos últimos se reemplazan fácilmente como los cartuchos en una impresora. 

Por último, los estímulos visuales forman las percepciones del gusto, y las personas pueden seleccionar su color favorito con la aplicación móvil, que proyecta una luz Led en la bebida. 

La combinación de estos tres estímulos entrega una experiencia única de sabor virtual, sostienen los investigadores.

 
led

Vocktail y la salud

Vocktail también podría beneficiar a personas que tienen alguna dieta restringida por diversas condiciones de salud como la hipertensión o los problemas cardíacos.

“Usando esta tecnología, la sal puede ser entregada de una manera virtual sin las desventajas que trae consigo en el ámbito de la salud. De la misma manera para pacientes diabéticos, quienes podrían reducir el consumo de azúcar sin la pérdida del placer sensorial. Esto también podría aumentar la calidad de vida de los pacientes de quimio, quienes tienen un sentido del gusto muy reducido.

“Hay muchos usos que pueden ser explorados”, agregó Ranasinghe.

El equipo de investigación está trabajando para personalizar otros aspectos como la efervescencia y la textura de la bebida, para crear experiencias aun más realistas, y está en proceso de producción masiva. 

Con información del Foro Económico Mundial (WEF por sus siglas en inglés).

http://www.elfinanciero.com.mx

La mutación genética que hizo posible la construcción de los rascacielos de Nueva York

La falta de vértigo de los indios mohawks, bautizados como las «águilas de la construcción», fue clave en el perfil de Manhattan

Resultado de imagen para «Lunch atop a Skyscraper» (Almuerzo en lo alto de un rascacielos) - Wikipedia
«Lunch atop a Skyscraper» (Almuerzo en lo alto de un rascacielos) 

El ser humano está genéticamente programado para sentir miedo, es nuestro ADN el que despierta la respuesta de temor ante potenciales peligros. La fobia a las alturas –acrofobia– es una de las más comunes entre la población general, a pesar de que hay personas que son inexplicablemente inmunes al vértigo. Entre ellas habría que citar a Philippe Petit, un funambulista francés soberbio y narcisista, que alcanzó gran repercusión mediática en 1974 cuando cruzó sobre un cable la distancia que separaba las Torres Gemelas del World Trade Center, en Nueva York.

A pesar de que Chicago fue pionera en el diseño de los rascacielos, fue en Nueva York donde tuvieron su mayor desarrollo. Ejércitos de forjadores, albañiles, soldadores y carpinteros trabajaron sin descanso, soportando los rigores del invierno, las elevadas temperaturas estivales y la peligrosidad de la construcción, para erigir estos mastodontes de acero.

Se calcula que fueron 9.000 los trabajadores que levantaron el Empire State Building, el que durante mucho tiempo fue el edificio más alto del mundo, en tan sólo un año y 45 días. La mayoría eran inmigrantes huidos del Viejo Continente tras el desastre de la Primera Guerra Mundial en busca del sueño americano. La plantilla también contaba con cientos de trabajadores indios mohawks, procedentes de la reserva de Kahnawak (Montreal, Canadá). Estos indios habían demostrado su pericia en las alturas durante la construcción del puente que atravesaba el río St. Lawrence, en el territorio de Mohawk.

Sus salientes pómulos, su piel cobriza, su altiva forma de caminar y su aplomo para transitar por las vigas de acero suspendidas a cientos de metros de altitud les hacían inconfundibles. La falta de vértigo de estos indios, probablemente por una mutación genética, hizo que se ganaran el sobrenombre reverencial de “águilas de la construcción”.

¿Quién no recuerda la fotografía «Lunch atop a Skyscraper» (Almuerzo en lo alto de un rascacielos)? Fue tomada el 20 de septiembre de 1932, en plena recesión económica, mientras se construía el RCA –dentro del Rockefeller Center- por el fotógrafo Charlie Clyde Ebbets. La imagen capta a once obreros almorzando sobre una viga en el piso 69 –a unos 244 metros del suelo-, tras ellos se puede contemplar el opulento Manhattan. Los trabajadores no cuentan con ningún sistema de seguridad ni arnés, reflejo de la situación laboral del momento.

Baja siniestralidad laboral

Para ser fieles a la verdad, no todos los que aparecen en la foto eran indios mohawks. El trabajador que aparece más a la derecha, con una botella en la mano, se llamaba Sonny Glynn y era irlandés, la misma nacionalidad de Matty O`Shaughnessy, el que aparece encendiendo un cigarrillo en el otro extremo de la imagen.

La verdad es que los mohawks no tuvieran vértigo a las alturas, fue una verdadera suerte para los constructores de los rascacielos, por un parte les ahorró mucho dinero y, por otra, hubo una menor siniestralidad. Es verdaderamente sorprendente que en la construcción del Empire State Building tan sólo fallecieran por accidente laboral cinco personas.

Se cuenta, y esto entra dentro de la leyenda, que al finalizar la jornada y encaramados a los tablones se reunían los mohawks para jugarse a las cartas su salario, unos dos dólares por hora.

El que no habría podido subirse a los rascacielos en construcción habría sido Scottie Ferguson, un detective de policía de San Francisco aquejado de acrofobia tras sufrir un accidente en el que murió un compañero al intentar rescatarle de un tejado. Este personaje es uno de los protagonistas de “Vértigo” (1958), del genial director inglés Alfred Hitchcock.

Pedro Gargantilla es médico internista del Hospital de El Escorial (Madrid) y autor de varios libros de divulgación.

http://www.abc.es/ciencia

 

Nariz electrónica, la competencia de catadores, médicos y perros policía

Los sistemas olfativos artificiales son cada vez son más eficaces, baratos y manejables y ya se está trabajando en dispositivos «de bolsillo» que podrían ayudar a enfermos de diabetes o detectar agentes químicos peligrosos

José Luis Herrero (izda.) y Jesús Lozano (dcha.), investigadores de la Universidad de Extremadura, junto al inspector jefe del grupo Tedax-NRBQ, José Miguel Sánchez, con el dispositivo de nariz electrónica

Metro de Tokio, 1995. La secta Aum Shinrikyo libera gas sarín, un potente paralizante que provoca la muerte de doce personas y daños a otras cinco mil. Nueva York, 2001. Al-Qaida manda a varios senadores cartas con antrax, un bacilo que, si ataca a los pulmones, es letal. Teatro Dubrovka, 2002. El Ministerio del Interior ruso envia unagente químico al sistema de ventilación del edificio secuestrado con el que fallecen los 42 terroristas y sus 120 rehenes. Siria, 2017. La Organización de las Naciones Unidas afirma que se han cometido decenas de ataques de nuevo con gas sarín durante la guerra, afectando a civiles, entre ellos, niños.

En un contexto de globalización, en el que las amenazas cada vez son más cercanas e imprevisibles, trabajan los Tedax (Técnicos Especialistas en Desactivación de Artefactos Explosivos). Ellos son, en España, la primera línea de batalla en un campo confuso, en el que solo cuentan con la protección de sus trajes y la dirección del olfato de sus fieles perros policía. Hasta ahora.

El proyecto ‘Sistemas Olfativos Artificiales para la Detección de Agentes Peligrosos‘, realizado por Jesús Lozano y José Luis Herrero, investigadores de la Universidad de Extremadura (UEX), ha recibido el Premio de Investigación Fundación Policía Española 2016-2017. Se trata de una aplicación basada en la tecnología comúnmente denominada nariz electrónica, que es capaz de detectar el olor de un explosivo o de un agente químico peligroso, y que envía la información directamente a un dispositivo inteligente en cuestión de minutos. Una tecnología que podría acabar con el riesgo de los agentes a la hora de enfrentarse a este tipo de episodios.

Se trabaja en dos dispositivos: uno acoplado en un dron, apra espacios exteriores, y otro autónomo, con forma de «pelota» para introducir en habitaciones cerradas

Sin embargo, Lozano aclara que «la idea no es quitarle el puesto a los perros policía, básicamente porque ellos tienen 200.000 células olfativas y una nariz electrónica cuenta con entre 4 y 16 sensores». Este dispositivo, ideado en colaboración con el inspector jefe del Grupo TEDAX-NRBQ, José Miguel Sánchez, se ha desarrollado en dos modelos: uno integrado en un dron -que permitiría medir la calidad del aire en recintos abiertos, como patios- y otro, autónomo, con forma de una «especie de pelota» -para espacios cerrados-. Se podría, incluso, agregar una bolsa que tome muestras para ser analizadas con posterioridad. «Un Tedax tarda unos quince o veinte minutos en ponerse el traje más equipado si no sabe qué es lo que se va a encontrar. Este es un dispositivo que le da una pauta al profesional del escenario al que se enfrenta, con el consiguiente ahorro de costes y tiempo que eso conlleva», recalca. Todo por 700 euros el dispositivo, un precio muy asequible en comparación con las narices electrónicas que se encuentran ahora mismo en el mercado.

35 años de desarrollo tecnológico

Aunque parezca ciencia ficción en 2017, las bases que rigen la tecnología de la nariz electrónica surgen en 1982 con la publicación en la revista Nature del estudio «Analysis of discrimination mechanisms in the mammalian olfactory system using a model nose», de Persaud y Dodd. Pero no será hasta 1992 cuando se crea el primer dispositivo, muy básico, que evolucionará hasta la publicación en 1999 de «Electronic Noses: Principles and Applications» (de los científicos de Oxford Gardner y Bartlett), la «Biblia» en cuanto a narices electrónicas se trata y desde la que se desarrollaron todas las aplicaciones posteriores.

La nariz electrónica tiene de base el funcionamiento de la nariz humana: recoge información, la almacena y, después, compara

El dispositivo trabaja con la misma base que lo hace la nariz humana: las células olfativas (en el caso de los prototipos artificiales, sensores) se recogen y llegan al cerebro (inteligencia artificial), que lo almacena como un recuerdo (datos). Cuando este mismo olor vuelve a ser detectado por el olfato, inmediatamente se activa el recuerdo y se compara. «A eso le ponemos nombre, como cuando decimos “esto huele a pan” o “esto me recuerda al olor de la lluvia”», ejemplifica Lozano. Y, al igual que el cerebro animal, esta tecnología precisa de un gran archivo de olores, por lo que se hace necesario «entrenarla», algo que los humanos hacemos de manera inconsciente pero que es el mayor escollo a la hora de implantar esta tecnología.

Oler cervezas y la diabetes

Los dispositivos de nariz electrónica, cada vez más pequeños, refinados y baratos, son habituales en empresas del sector de las bebidas o en la sanidad. «El sector sanitario tiene muchísimas posibilidades, pero es una tecnología difícil de domar. Nosotros, de momento, nos centramos en las bacterias», explica al respecto Alfredo Azabal Agudo cofundador e ingeniero de producto de Up Devices, una startup centrada en el dispositivo de nariz electrónica y que colabora estrechamente con la Universidad de Extremadura.

Los sistemas olfativos artificiales son comunes en el sector de la alimentación y bebidas y en el sanitario

Fundada hace menos de un año y con la mira puesta también en el sector alimentario, es una de las cinco empresas integrantes del proyecto acelerador de startups «BarLab», organizado por Mahou San Miguel. Con su colaboración, han creado un dispositivo que «huele» la cerveza y puede medir parámetros de calidad como el defecto luz -el cambio de sabor de esta bebida cuando se deja al sol- o reconocer el tipo de cerveza. Y toda la información viaja por bluetooth hasta un smartphone o tableta.

Y es solo el principio de las «narices electrónicas de bolsillo». Ya se están ideando prototipos que le dicen al enfermo de diabetes si está teniendo una bajada de azúcar o un horno que alerta de que se está quemando la comida. «El sistema está casi listo. Móviles y electrodomésticos ya están probando esta tecnología. Por ejemplo, frigoríficos que detectan que se pudre la comida y avisan a su dueño al móvil. Si tenemos sensores de movimiento o de luz en el móvil, ¿por qué no uno en la cocina que nos avise de un posible escape de gas? Al final, todo va a estar conectado, y la nariz electrónica jugará también su papel dentro del internet de las cosas», concluye Lozano.

http://www.abc.es/tecnologia/electronica