martes, 24 de febrero de 2015

Un software detecta expresiones de dolor en recién nacidos

  
Científicos de la Escuela Paulista de Medicina (EPM) de la Universidad Federal de São Paulo (Unifesp), en Brasil, desarrollaron un software que detecta expresiones faciales relacionadas con las sensaciones de dolor en recién nacidos, que podrá ayudar en el cuidado de los bebés y permitir intervenciones más ágiles y precisas.

Este programa informático fue concebido en el marco de la investigación intitulada Desarrollo de un software para la detección de la expresión facial de dolor de recién nacidos, llevada adelante por Ruth Guinsburg con el apoyo de la FAPESP.

De acuerdo con Guinsburg, esta iniciativa surgió como consecuencia de la dificultad que enfrentan los cuidadores de recién nacidos en las unidades de terapia intensiva (UTI) para el reconocimiento y la evaluación de las señales de dolor.

“Esa subjetividad termina por dificultar eventuales intervenciones, ya que existen diversos factores que pueden llevar a los recién nacidos a demostrar ciertas molestias no siempre relacionados con el dolor. La investigación torna factible un instrumento útil para el monitoreo del dolor de los bebés en la rutina de las unidades neonatales”, declaró a Agência FAPESP.

En niños que aún no son capaces de verbalizar, el reconocimiento del dolor se realiza con base en indicadores conductuales y fisiológicos, tales como respuestas motoras sencillas, las expresiones faciales y el llanto.

El software concebido en la Unifesp se desarrolló con base en la escala Neonatal Facial Coding System (NFCS), ampliamente utilizada en el reconocimiento de los movimientos faciales de dolor, convertida en lenguaje de computadora por los científicos con la colaboración del Departamento de Informática en Salud (DIS) de la EPM y de profesionales de la Universidad de Mogi das Cruzes.

Los mecanismos del programa empezaron a concebirse en 2009, luego de que el Comité de Ética en Investigación Científica de la Unifesp aprobara del proyecto. Se filmó a 30 recién nacidos en el Hospital São Paulo entre junio y agosto de 2013.


El programa informático, desarrollado por científicos de Brasil, monitorea bebés en UTIs neonatales y puede ayudar a los cuidadores. (Foto: FAPESP)

“Fue necesario un trabajo sumamente cuidadoso con las familias para que no hubiese desentendimientos acerca de la captación de las imágenes tomadas durante procedimientos dolorosos con indicación médica, tales como punción capilar, venosa o arterial e inyecciones intramusculares o subcutáneas, necesarios para el cuidado de los neonatos y no realizados con fines de investigación”, dijo Guinsburg.

Los bebés seleccionados tenían entre 24 y 168 horas de nacidos, y no presentaban necesidad de ningún soporte de ventilación o sonda gástrica ni padecían malformaciones congénitas. Los responsables de los mismos firmaron una declaración de consentimiento para que se realizasen las capturas de las imágenes que se utilizaron en la investigación.

Durante el período de monitoreo, las expresiones faciales se fotografiaron en tiempo real con tres cámaras ubicadas a la izquierda, a la derecha y arriba de los recién nacidos.

El software, basado en la identificación biométrica, mapeó y detectó 66 puntos de los rostros de los bebés, que luego se ciñeron a 16 puntos nodales principales a partir de los cuales se seleccionaron aquéllos que más se movían cuando se expresaba el dolor agudo provocado por algún procedimiento médico.

Las distancias entre los puntos sirvieron de base para detectar las expresiones faciales que, de acuerdo con la escala que se adoptó en la investigación, demuestran señales de dolor: frente saliente, fisura palpebral estrechada, surco nasolabial profundizado, boca abierta y boca tensa.

Se identificaron 5.644 imágenes, un promedio de 188 por recién nacido. Posteriormente, los científicos testearon la concordancia entre los análisis del software y los de seis profesionales de la salud experimentados en el reconocimiento del dolor neonatal y con especialización en neonatología. Se compararon tres imágenes de cada bebé: dos registradas durante el período de reposo, sin dolor, y una durante procedimientos dolorosos.

“Observamos que el software no detectó expresiones de dolor en un 85% de las imágenes tomadas mientras los bebés reposaban, sin que se los estuviese sometiendo a ningún procedimiento doloroso. En tanto, durante la realización de los procedimientos, en un 100% de las imágenes se detectaron expresiones de dolor mediante el empleo del programa, mientras que algunos profesionales las identificaron en tan sólo un 77% de las fotografías”, comentó Guinsburg.

Para Guinsburg, la precisión con que el software detectó las expresiones permite que éste se erija en un importante instrumento destinado a ayudar a los equipos de salud de las UTIs neonatales.


“El dolor del recién nacido siempre es visto por otro, depende de una decodificación del cuidador sujeta al tiempo disponible para el monitoreo e incluso a factores más subjetivos, tales como la empatía. La automatización de este seguimiento puede contribuir para con el bienestar de los bebés y ayudar en el cuidado, llevando a intervenciones más asertivas”, dijo.

Los científicos trabajan ahora en la adaptación del software para el monitoreo de bebés enfermos, mejorando las cámaras y adecuando el sistema para su empleo al lado de la cuna.


Los resultados de la investigación salieron publicados en un artículo de Tatiany Marcondes Heiderich, Ana Teresa Stochero Leslie y Guinsburg, todas del Departamento de Pediatría y Ciencias Aplicadas a la Pediatría de la Unifesp, en la revista Acta Paediatrica. (Fuente: Diego Freire/Agência FAPESP/DICYT)

miércoles, 18 de febrero de 2015

Desarrollan un software que reconoce las señales sísmicas del volcán Llaima




“En Chile es vital aumentar el conocimiento sobre los volcanes. Así, podremos enfrentar emergencias como una erupción, incluso predecirla y tomar decisiones a tiempo”, expresa Chacón.

El territorio chileno, debido a su ubicación en el cinturón de fuego del Pacífico, posee la segunda cadena volcánica más numerosa del mundo, contando por lo menos con dos mil ejemplares. De esta cifra, solo 43 son monitoreados, muchos de ellos se encuentran en el sur del país y figuran dentro de los más activos de América Latina. Lo que más preocupa de estas estructuras geológicas es su potencial erupción, donde es clave su actividad sísmica.

En la búsqueda de esta información, investigadores de las universidades de Santiago de Chile, La Frontera y del Observatorio Volcanológico de Los Andes del Sur (Ovdas), desarrollaron el estudio Reconocimiento de patrones aplicado a las señales sísmicas del Volcán Llaima: Un análisis de las características de los eventos, que se encuentra disponible en la revista científica Journal of Volcanology and Geotherma Research.

“Basados en la teoría del aprendizaje automático, desarrollamos un software que, a partir de los datos que arrojaban los sensores ubicados en las faldas del volcán, identifica de qué tipo de señal sísmica se trata”, logrando un 80 por ciento de exactitud en el Volcán Llaima, según indica Max Chacón, uno de los creadores del programa y académico del Departamento de Ingeniería Informática de la Universidad.

Las señales sísmicas de un volcán no corresponden a movimientos telúricos propios del choque de las placas tectónicas, como podría desprenderse de una primera lectura de estos fenómenos. Estos son movimientos exclusivos de los volcanes que surgen de sus características particulares, como su actividad, movimiento del magma, desplazamiento de los gases, rigidez del material del cual está compuesto, etc.

[Img #25287]
Volcán Llaima. (Foto: USACH)


Previamente, este equipo de investigadores había estudiado el volcán Villarrica, detectando que en éste existían tres patrones de señales sísmicas representativas: el LP (Long Period), que se asocia a la presión del gas y fluidos que existen dentro del volcán; el Tremor, que está relacionado con los cambios en la densidad del gas y el magma; y por último, el VT (Volcano Tectonic), que explica las fracturas de las partes sólidas del volcán o sus conductos.

En el estudio del volcán Llaima se volvió a aplicar el software, pero buscando, además, identificar las características de los datos enviados por los sensores del volcán. Dentro de estos, se tomaron en cuenta principalmente la amplitud de las señales, su frecuencia y fase, y cómo éstas se presentaban en conjunto en cada señal sísmica.

“Con esto tratábamos de entregarle mayor información a los vulcanólogos, con el fin de que ellos identificaran con mayor facilidad la señal, analizando también la forma en que estas características se presentaban para que los eventos sísmicos se produjeran”, destaca Chacón, experto en modelos de sistema.

Una de las conclusiones más interesantes, según el académico, fue la similitud de los resultados arrojados por los dos volcanes, lo que contradice la actual creencia que cada volcán tiene movimientos sísmicos únicos. El investigador afirma que, por ahora, se maneja la hipótesis de que esta similitud se debe a la cercanía entre ambos macizos, sin embargo, eso no está comprobado.

Debido a esto, se plantean dos potenciales pasos a seguir en el marco de esta investigación. El primero, es un estudio comparado de estos volcanes, para medir las diferencias exactas entre ellos; el segundo paso, es mejorar el software, con el fin de encontrar las correlaciones de estas señales sísmicas al momento de una erupción.

“En Chile convivimos con muchos volcanes, por eso es vital aumentar el conocimiento de ellos. Mientras más sepamos, mejor podremos enfrentar emergencias como una erupción, incluso predecirla y tomar decisiones a tiempo”, expresa Chacón. (Fuente: USACH/DICYT)

lunes, 9 de febrero de 2015

Skype presenta Skype Translator un sistema de traducción simultánea para conversaciones



¿No sabes inglés y necesitas hablar con un cliente que es americano? Una nueva tecnología presentada por Skype permitirá que converséis sin problemas. En esta primera fase estará disponible para los idiomas inglés y castellano en modo audio  y para más de 40 idiomas en mensajes de texto 

“Hoy estamos orgullosos y emocionados de poder anunciar la primera fase del programa preliminar de Skype Translator. El lanzamiento de este programa preliminar se hará con dos idiomas, el español y el inglés en audio y texto, y con más de 40 idiomas en mensajería instantánea que estarán disponibles para los clientes de Skype que se hayan apuntado a través de la página de inscripción y que tengan instalado Windows 8.1 en su ordenador o dispositivo” ha explicado Gurdeep Pall, vicepresidente corporativo de Skype.

Skype Translator abre un abanico de posibilidades para que las personas en todo el mundo puedan conectarse y comunicarse salvando la barrera idiomática. Además, el sistema se basa en el aprendizaje, es decir, la propia tecnología mejora con su uso consiguiendo cada vez mejores traducciones. De momento la compañía ha comenzado con dos idiomas hablados por millones de personas, el inglés y el castellano. Sin embargo su objetivo a largo plazo “es traducir tantos idiomas y plataformas como sea posible ampliando con ello la experiencia de Skype Translator de manera individual para cada uno de los 300 millones de usuarios conectados” apuntan desde la compañía.

Para el propio Gurdeep Pall,  “Skype Translator es un gran ejemplo de los beneficios de la inversión de Microsoft en la investigación. Hemos invertido en el reconocimiento de voz, tecnologías de traducción y aprendizaje de máquinas automáticas durante más de una década, y ahora están emergiendo como importantes componentes en esta era de la computación más personal. Skype Translator es el ejemplo más reciente y visible”.

Se trata de una primera versión preliminar y no todos los ordenadores soportan el sistema. Para que funcione, la tecnología necesita un dispositivo con el sistema operativo Windows 8.1 y de hecho, esta innovación ha sido posible gracias a la colaboración de Skype con Microsoft Research.


¿Cómo funciona Skype Translator?

El aprendizaje automático es la capacidad que tiene el software de aprender a partir de datos recibidos. Esta es la base sobre la que Skype Translator está construido. Según el software vaya aprendiendo de estos datos en esta primera etapa previa irá reconociendo y traduciendo cada vez mejor independientemente de los diferentes los acentos o las variaciones idiomáticas de los usuarios de Skype Translator.

Los datos sobre los que el software aprende el reconocimiento de voz y la traducción simultánea provienen de una variedad de fuentes incluyendo páginas web ya traducidas, vídeos con subtítulos, así como conversaciones previas traducidas anteriormente. También se ha nutrido de donaciones de conversaciones que han permitido enriquecer los motores de reconocimiento de voz y traducción simultánea y enseñarle cómo asignar el flujo de audio entrante al texto y, a continuación el texto en otro idioma de salida.

Una vez los datos están dentro del sistema de aprendizaje automático, el software construye un modelo estadístico con las palabras de la conversación y el contexto. De esta manera, cuando el usuario habla el software puede encontrar algo similar en su modelo estadístico y aplicar lo que previamente ha aprendido de la transformación del audio al texto y de un idioma a otro.



http://www.muyinteresante.es/innovacion/tecno/articulo/skype-presenta-skype-translator-un-sistema-de-traduccion-simultanea-para-conversaciones-561418657415