miércoles, 20 de mayo de 2015

Portafolio de Estructura de Datos y Algoritmos



Al final de la materia de Estructura de datos, se realiza un portafolio el cual quiero compartir en mi blog, espero que de alguna manera aporte algo de ideas.




Puedes descargar dando clic en el siguiente enlace...




miércoles, 13 de mayo de 2015

Eliminación por sitio






La eliminación de un nodo en un árbol binario de búsqueda implica una reorganización posterior del mismo con el objeto de que una vez eliminado el nodo el árbol mantenga su naturaleza de búsqueda.



Si quieres conocer sobre este tema, clic en el link.


https://drive.google.com/file/d/0B8ANuUTdirOoOXh5ZzFCbXRVbTA/view?usp=sharing

miércoles, 6 de mayo de 2015

Método de ordenamiento QuickSort


Q u i c k S o r t


El ordenamiento rápido (quicksort en inglés) es un algoritmo creado en el año 1960 por el científico británico en computación C. A. R. Hoare basado en la técnica de divide y vencerás, que permite, en promedio, ordenar n elementos en un tiempo proporcional a n log n.





Si quieres saber mas sobre QuickSort visita este enlace...


https://drive.google.com/file/d/0B8ANuUTdirOobW9PVVlpSWhSblE/view?usp=sharing

Recorrido de Árbol en In-Orden


  • Inorden: (izquierdo, raíz, derecho). Para recorrer un árbol binario no vacío en inorden (simétrico), hay que realizar las siguientes operaciones recursivamente en cada nodo:

  1. Atraviese el sub-árbol izquierdo
  2. Visite la raíz
  3. Atraviese el sub-árbol derecho




Si quieres saber mas acerca del recorrido IN-orden visita esta página...

https://drive.google.com/file/d/0B8ANuUTdirOod1cxRnNfRklKY0E/view?usp=sharing

miércoles, 15 de abril de 2015

miércoles, 18 de marzo de 2015

Un todoterreno eléctrico basado en algoritmos de control avanzado

Un todoterreno eléctrico basado en algoritmos de control avanzado

  
Desde 2011, el Instituto Universitario de Investigación del Automóvil (INSIA) de la Universidad Politécnica de Madrid (UPM), en España, trabaja en el desarrollo del proyecto Innvextran, un vehículo innovador cuya tracción es solamente eléctrica, con baterías que se recargan de la red eléctrica y también mediante un pequeño motor térmico (de gasolina) que acciona un generador de rango extendido que está desacoplado de la tracción del vehículo.

Frente a las soluciones de este tipo más extendidas, consistentes en plantas puramente eléctricas o en configuración paralelo, la propuesta de los investigadores de la UPM consiste en incorporar a este tipo de vehículos un tren de tracción de configuración híbrida de serie. De este modo, se puede asegurar el funcionamiento puramente eléctrico en determinadas zonas para adecuarse a las exigencias medioambientales y garantizar, además, la autonomía necesaria para la aplicación correspondiente, mediante un motor-generador desacoplado de la tracción mecánica.

Este prototipo ha tenido que adaptarse a una serie de necesidades conforme a lo que el Programa Nacional de Cooperación Público-Privada de I+D+i exigía para su financiación por el Fondo Europeo de Desarrollo Regional (FEDER). Por esa razón, su fabricación exigía tener en cuenta la adaptación del vehículo para pequeñas flotas de transporte ligero no contaminante.

El INSIA, junto a las empresas Mecacontrol y CETEMET, ha desarrollado este vehículo multiusos con diferentes configuraciones, que al fabricarse en pequeñas series, respondiera a la flexibilidad de adecuarse a las exigencias particulares de sus clientes.

El prototipo surgido del proyecto, actualmente pendiente de su legalización y posterior industrialización, presenta la forma de un todoterreno.

Innvextran, en la última edición del Salón del Automóvil de Madrid. (Foto: UPM)

Este vehículo eléctrico, al que se ha denominado Innvextran, se presentó en el último Salón del Automóvil de Madrid, donde superó las expectativas de sus diseñadores. Varias instituciones mostraron su interés por conocer su tecnología y las posibilidades de integrarla en sus flotas de transporte ligero, ya que cuenta con la gran ventaja de grandes recorridos frente a otros coches eléctricos.

El INSIA ha aportado a este proyecto los recursos de las unidades de Ingeniería de Vehículos Industriales y Sistemas de Propulsión. Además, según explica José María López, investigador principal del proyecto, “el instituto ha añadido un valor más: su amplia experiencia en el mundo del automóvil. De hecho, este instituto dispone de un banco de ensayos de configuraciones híbridas que es singular en el entorno europeo y que permite el ensayo del tren propulsor completo”.


Técnicamente, los aspectos más complicados de Innvextran a los que se enfrentó el equipo de trabajo han sido el dimensionamiento e integración de los componentes (motor eléctrico, baterías y motor térmico-generador) sobre una plataforma ya existente y la puesta a punto de los algoritmos de control avanzado del sistema propulsor, que se llevó a cabo de acuerdo con modelos de simulación por ordenador. La resolución de este último problema ha sido una de las claves para lograr los objetivos del proyecto. El modelo está a disposición de su fabricación en el mercado del automóvil para las grandes marcas que deseen comercializarlo. (Fuente: UPM)

Nuevos algoritmos localizan dónde se grabó un vídeo a partir de sus imágenes y sonidos

Nuevos algoritmos localizan dónde se grabó un vídeo a partir de sus imágenes y sonidos

Muchos de los vídeos disponibles en la web se acompañan de algún texto que informa del lugar donde se han grabado, pero hay otros que no presentan esta información. Esto complica la aplicación de las cada vez más frecuentes herramientas de geolocalización de contenido multimedia.

Para solucionarlo, científicos del centro La Salle de la Universidad Ramón Llull (Barcelona), en España, han desarrollado un sistema para situar en el mapa los vídeos que no indican dónde se han producido, todo un reto teniendo en cuenta que la mayor parte de las escenas son sobre la vida cotidiana y no aparecen lugares claramente reconocibles. Como no tienen textos asociados, el método se basa en el registro de sus imágenes o frames y todo el audio.

“La información acústica puede ser tan válida como la visual, y en ocasiones, incluso más, a la hora de geolocalizar un vídeo”, apunta Xavier Sevillano, uno de los autores. “En este ámbito utilizamos algunos vectores físicos y matemáticos heredados del campo de reconocimiento de fuentes acústicas, porque ya han demostrado buenos resultados”.

Todos los datos obtenidos se fusionan y agrupan en clusters para, mediante algoritmos informáticos desarrollados por los investigadores, poderlos comparar con los de un gran conjunto de vídeos captados y geolocalizados previamente por todo el mundo.

En su estudio, que publica la revista Information Sciences, el equipo ha utilizado como referencia casi 10.000 secuencias de la base de datos audiovisual MediaEval Placing task, una iniciativa de comparación o benchmarking para evaluar algoritmos de procesamiento de información multimedia. “En ella se buscan los vídeos que son más parecidos audiovisualmente al que queremos encontrar, para de esta forma detectar sus coordenadas geográficas más probables”, dice Sevillano.

El sistema sitúa algunos vídeos dentro de un radio de hasta un kilómetro respecto a su situación geográfica real. (Foto: Flickr-VV.AA)

El científico señala que el sistema propuesto, “a pesar de contar con una base de datos limitada en tamaño y cobertura geográfica, es capaz de geolocalizar vídeos con más precisión que sus competidores”. En concreto, es capaz de situar un 3% de los vídeos dentro de un radio de diez kilómetros respecto a su situación geográfica real, y en un 1% de los casos con una precisión de un kilómetro. Los porcentajes todavía son modestos, aunque aportan una exactitud cuatro veces superior a la alcanzada hasta ahora.

Los investigadores reconocen que su método requerirá de una base audiovisual mucho más amplia para aplicarlo a los millones de vídeos que circulan por internet, pero destacan su utilidad para localizar aquellos que no cuentan con metadatos textuales y las posibilidades potenciales que ofrece.

“Este método podría ayudar a los equipos de rescate a deducir dónde desapareció una persona o un grupo en un lugar remoto, detectando las localizaciones que muestren los vídeos que pudieran haber subido a una red social antes de perder contacto”, señala Sevillano.

En el futuro, las fuerzas de seguridad también podrían usarlo, incluso para reconocer los escenarios de las ejecuciones de rehenes y operaciones de grupos terroristas como Al Qaeda o el Estado Islámico. “Nuestro sistema no hace ninguna asunción acerca de la ubicación de los vídeos, pero en estos casos contamos con información adicional muy valiosa para acotar las búsquedas, ya que se supone que estamos hablando de la zona de Irak o Siria, por lo que usaríamos vídeos de referencia solo de allí”, explica el investigador.


Otra aplicación mucho más inmediata es facilitar la navegación geográfica en repositorios de vídeos, como YouTube, que justo cumple 10 años esta semana. “Por ejemplo, si quiero ir de vacaciones a Nueva York y me apetece ver vídeos de Manhattan, cuando hago la búsqueda en YouTube me salen vídeos grabados en esta isla, pero también la actuación del grupo The Manhattans de los años 70 y el tráiler de la película Manhattan de Woody Allen, que no son relevantes en mi búsqueda”, comenta Sevillano, “y en estos casos, la nueva técnica también puede ayudar”. (Fuente: SINC)

Descubren agujeros de seguridad en 39.890 bases de datos online

Descubren agujeros de seguridad en 39.890 bases de datos online
  
Por culpa de un software de base de datos de código abierto mal configurado sobre el que basan sus servicios millones de tiendas online y otras plataformas en internet de todo el mundo, se ha venido arrastrando un peligroso agujero de seguridad, ahora revelado. Si los operadores no modifican la configuración por defecto durante el proceso de instalación y no tienen en cuenta detalles cruciales, los datos quedan disponibles online, completamente desprotegidos. El centro CISPA, especializado en seguridad de la información, con sede en la ciudad alemana de Sarrebruck, donde se ha hecho el hallazgo, ya ha contactado al vendedor y a las autoridades competentes de protección de datos.

No es un fallo complejo, pero su efecto es desastroso, tal como comenta Michael Backes, profesor de seguridad de la información y criptografía en la Universidad de Sarre (Saarland) y director del CISPA. Backes fue contactado por Kai Greshake, Eric Petryka y Jens Heyens del citado centro a finales de enero. Heyens es un estudiante de ciberseguridad en la Universidad de Sarre, y sus dos compañeros estudiantes planean concentrarse en este tema durante el próximo semestre. El fallo que los tres jóvenes investigadores detectaron afecta a 39.890 bases de datos. El agujero de seguridad permite que sean accesibles online sin estar protegidas por ningún mecanismo de defensa. Se tienen incluso permisos para actualizar y cambiar datos. Los investigadores no tardaron en percatarse de que estas bases de datos no se dejaban abiertas a propósito. El vendedor de la base de datos es MongoDB Inc. Su base de datos MongoDB es una de las más ampliamente utilizadas en todo el mundo entre las de código abierto.


Kai Greshake, Eric Petryka y Jens Heyens. (Foto: CISPA / Universidad de Sarre)

En los minutos posteriores a su hallazgo del primer caso, los investigadores detectaron asimismo el serio problema en muchas otras bases de datos. Incluso encontraron una base de datos de clientes que podría pertenecer a un proveedor de servicios de Internet y de teléfonos móviles francés. Esta base contenía las direcciones y números de teléfono de alrededor de ocho millones de clientes. Greshake, Petryka y Heyens detectaron también una base de datos no protegida de una tienda online alemana, incluyendo información de pagos.

Los investigadores del CISPA contactaron con MongoDB Inc. de forma inmediata, para que hiciera las oportunas correcciones, así como con las correspondientes autoridades nacionales e internacionales para que tomaran las medidas adecuadas de seguridad.


Analizar plantas en segundos gracias a las gafas de Google y a una aplicación especial

Analizar plantas en segundos gracias a las gafas de Google y a una aplicación especial


  
Unos científicos han desarrollado una aplicación para las gafas de Google (las Google Glass) que, al ser utilizadas con un accesorio portátil, permite a quien las lleve puestas analizar rápidamente la salud de un vegetal sin dañarlo.

La aplicación analiza la concentración de clorofila, la sustancia que en las plantas es la responsable de convertir la luz solar en energía utilizable. Una producción reducida de clorofila en vegetales puede indicar la degradación de la calidad del agua, del suelo o del aire.

Un método actual de uso común para medir la concentración de clorofila requiere arrancar algunas de las hojas de la planta, disolverlas en un disolvente químico y realizar entonces el análisis químico. Con el nuevo sistema, las hojas se examinan pero quedan intactas y siguen siendo funcionales.

El sistema desarrollado por el equipo de Aydogan Ozcan, director adjunto del Instituto de NanoSistemas de California, dependiente de la Universidad de California en la ciudad estadounidense de Los Ángeles (UCLA), utiliza una imagen captada por la cámara de las Google Glass para medir la absorción de luz de la clorofila en la parte verde del espectro óptico.

La aplicación y el accesorio desarrollados por el laboratorio de Ozcan para las gafas de Google se muestran aquí siendo utilizados. (Foto: UCLA)

El cuerpo principal de la unidad de iluminación portátil puede ser construido utilizando impresión en 3D. El accesorio funciona mediante tres baterías AAA; añadiendo una pequeña placa de circuitos, puede montarse por menos de 30 dólares.

El usuario puede controlar el dispositivo usando el sistema de control táctil o pronunciando una orden verbal. Las Glass fotografían la hoja y envían una imagen preprocesada (realzada) de forma inalámbrica a un servidor remoto, que extrae y procesa más datos subyacentes en ella, suministrándole al usuario por el mismo cauce de transmisión la lectura de la concentración de clorofila, todo en menos de 10 segundos.


La aplicación para las Google Glass y la unidad de iluminación podrían reemplazar a diversos instrumentos de laboratorio costosos y voluminosos.

jueves, 5 de marzo de 2015


Vigilar sin pinchazos el nivel de glucosa gracias a un tatuaje temporal
  
Las personas con diabetes a menudo deben comprobar sus niveles de glucosa varias veces al día, utilizando dispositivos que emplean una diminuta aguja para extraer una pequeña muestra de sangre de la punta de un dedo. Los pacientes que evitan esta comprobación porque les desagrada o la encuentran difícil de realizar afrontan un riesgo más alto de tener mala salud. Debido a ello, la comunidad científica ha estado buscando formas menos invasivas de vigilar los niveles de la glucosa.

Unos ingenieros en nanotecnología han desarrollado y puesto a prueba un tatuaje temporal que extrae muestras del fluido existente entre las células de la piel, y que mide el nivel de glucosa en él. Este primer ejemplo de dispositivo flexible y fácil de llevar puesto podría ser un prometedor paso adelante en la comprobación no invasiva de la glucosa para pacientes con diabetes.

El sensor es obra del equipo de Amay Bandodkar, en el laboratorio del Profesor Joseph Wang, en la Escuela Jacobs de Ingeniería, dependiente de la Universidad de California en San Diego, Estados Unidos.

Tatuajes temporales basados en este sensor podrían encontrar otras aplicaciones, como la detección de metabolitos de relevancia médica en el cuerpo o el suministro de medicinas a través de la piel.




El tatuaje, como los demás de tipo temporal, es fácil de aplicar en la piel. (Foto: Jacobs School of Engineering / UC San Diego)

Por el momento, el tatuaje no proporciona la clase de lectura numérica que un paciente necesitaría para vigilar su propia glucosa. Pero este tipo de lectura está siendo desarrollado por investigadores en ingeniería eléctrica e informática en la misma universidad. El instrumento de lectura acabará teniendo también capacidades de emisión por Bluetooth, para enviar esta información directamente al médico del paciente en tiempo real o almacenar los datos en la nube.

El equipo de investigación está asimismo trabajando en formas de que el tatuaje dure más tiempo, sin que su costo aumente. Actualmente, el tatuaje sensor puede tiene una vida útil de 1 día. De todos modos, estos tatuajes sensores son extremadamente baratos, del orden de unos pocos céntimos o centavos, y por tanto pueden ser reemplazados sin que ello constituya una gran carga financiera.

http://noticiasdelaciencia.com/not/12663/vigilar-sin-pinchazos-el-nivel-de-glucosa-gracias-a-un-tatuaje-temporal/

martes, 24 de febrero de 2015

Un software detecta expresiones de dolor en recién nacidos

  
Científicos de la Escuela Paulista de Medicina (EPM) de la Universidad Federal de São Paulo (Unifesp), en Brasil, desarrollaron un software que detecta expresiones faciales relacionadas con las sensaciones de dolor en recién nacidos, que podrá ayudar en el cuidado de los bebés y permitir intervenciones más ágiles y precisas.

Este programa informático fue concebido en el marco de la investigación intitulada Desarrollo de un software para la detección de la expresión facial de dolor de recién nacidos, llevada adelante por Ruth Guinsburg con el apoyo de la FAPESP.

De acuerdo con Guinsburg, esta iniciativa surgió como consecuencia de la dificultad que enfrentan los cuidadores de recién nacidos en las unidades de terapia intensiva (UTI) para el reconocimiento y la evaluación de las señales de dolor.

“Esa subjetividad termina por dificultar eventuales intervenciones, ya que existen diversos factores que pueden llevar a los recién nacidos a demostrar ciertas molestias no siempre relacionados con el dolor. La investigación torna factible un instrumento útil para el monitoreo del dolor de los bebés en la rutina de las unidades neonatales”, declaró a Agência FAPESP.

En niños que aún no son capaces de verbalizar, el reconocimiento del dolor se realiza con base en indicadores conductuales y fisiológicos, tales como respuestas motoras sencillas, las expresiones faciales y el llanto.

El software concebido en la Unifesp se desarrolló con base en la escala Neonatal Facial Coding System (NFCS), ampliamente utilizada en el reconocimiento de los movimientos faciales de dolor, convertida en lenguaje de computadora por los científicos con la colaboración del Departamento de Informática en Salud (DIS) de la EPM y de profesionales de la Universidad de Mogi das Cruzes.

Los mecanismos del programa empezaron a concebirse en 2009, luego de que el Comité de Ética en Investigación Científica de la Unifesp aprobara del proyecto. Se filmó a 30 recién nacidos en el Hospital São Paulo entre junio y agosto de 2013.


El programa informático, desarrollado por científicos de Brasil, monitorea bebés en UTIs neonatales y puede ayudar a los cuidadores. (Foto: FAPESP)

“Fue necesario un trabajo sumamente cuidadoso con las familias para que no hubiese desentendimientos acerca de la captación de las imágenes tomadas durante procedimientos dolorosos con indicación médica, tales como punción capilar, venosa o arterial e inyecciones intramusculares o subcutáneas, necesarios para el cuidado de los neonatos y no realizados con fines de investigación”, dijo Guinsburg.

Los bebés seleccionados tenían entre 24 y 168 horas de nacidos, y no presentaban necesidad de ningún soporte de ventilación o sonda gástrica ni padecían malformaciones congénitas. Los responsables de los mismos firmaron una declaración de consentimiento para que se realizasen las capturas de las imágenes que se utilizaron en la investigación.

Durante el período de monitoreo, las expresiones faciales se fotografiaron en tiempo real con tres cámaras ubicadas a la izquierda, a la derecha y arriba de los recién nacidos.

El software, basado en la identificación biométrica, mapeó y detectó 66 puntos de los rostros de los bebés, que luego se ciñeron a 16 puntos nodales principales a partir de los cuales se seleccionaron aquéllos que más se movían cuando se expresaba el dolor agudo provocado por algún procedimiento médico.

Las distancias entre los puntos sirvieron de base para detectar las expresiones faciales que, de acuerdo con la escala que se adoptó en la investigación, demuestran señales de dolor: frente saliente, fisura palpebral estrechada, surco nasolabial profundizado, boca abierta y boca tensa.

Se identificaron 5.644 imágenes, un promedio de 188 por recién nacido. Posteriormente, los científicos testearon la concordancia entre los análisis del software y los de seis profesionales de la salud experimentados en el reconocimiento del dolor neonatal y con especialización en neonatología. Se compararon tres imágenes de cada bebé: dos registradas durante el período de reposo, sin dolor, y una durante procedimientos dolorosos.

“Observamos que el software no detectó expresiones de dolor en un 85% de las imágenes tomadas mientras los bebés reposaban, sin que se los estuviese sometiendo a ningún procedimiento doloroso. En tanto, durante la realización de los procedimientos, en un 100% de las imágenes se detectaron expresiones de dolor mediante el empleo del programa, mientras que algunos profesionales las identificaron en tan sólo un 77% de las fotografías”, comentó Guinsburg.

Para Guinsburg, la precisión con que el software detectó las expresiones permite que éste se erija en un importante instrumento destinado a ayudar a los equipos de salud de las UTIs neonatales.


“El dolor del recién nacido siempre es visto por otro, depende de una decodificación del cuidador sujeta al tiempo disponible para el monitoreo e incluso a factores más subjetivos, tales como la empatía. La automatización de este seguimiento puede contribuir para con el bienestar de los bebés y ayudar en el cuidado, llevando a intervenciones más asertivas”, dijo.

Los científicos trabajan ahora en la adaptación del software para el monitoreo de bebés enfermos, mejorando las cámaras y adecuando el sistema para su empleo al lado de la cuna.


Los resultados de la investigación salieron publicados en un artículo de Tatiany Marcondes Heiderich, Ana Teresa Stochero Leslie y Guinsburg, todas del Departamento de Pediatría y Ciencias Aplicadas a la Pediatría de la Unifesp, en la revista Acta Paediatrica. (Fuente: Diego Freire/Agência FAPESP/DICYT)

miércoles, 18 de febrero de 2015

Desarrollan un software que reconoce las señales sísmicas del volcán Llaima




“En Chile es vital aumentar el conocimiento sobre los volcanes. Así, podremos enfrentar emergencias como una erupción, incluso predecirla y tomar decisiones a tiempo”, expresa Chacón.

El territorio chileno, debido a su ubicación en el cinturón de fuego del Pacífico, posee la segunda cadena volcánica más numerosa del mundo, contando por lo menos con dos mil ejemplares. De esta cifra, solo 43 son monitoreados, muchos de ellos se encuentran en el sur del país y figuran dentro de los más activos de América Latina. Lo que más preocupa de estas estructuras geológicas es su potencial erupción, donde es clave su actividad sísmica.

En la búsqueda de esta información, investigadores de las universidades de Santiago de Chile, La Frontera y del Observatorio Volcanológico de Los Andes del Sur (Ovdas), desarrollaron el estudio Reconocimiento de patrones aplicado a las señales sísmicas del Volcán Llaima: Un análisis de las características de los eventos, que se encuentra disponible en la revista científica Journal of Volcanology and Geotherma Research.

“Basados en la teoría del aprendizaje automático, desarrollamos un software que, a partir de los datos que arrojaban los sensores ubicados en las faldas del volcán, identifica de qué tipo de señal sísmica se trata”, logrando un 80 por ciento de exactitud en el Volcán Llaima, según indica Max Chacón, uno de los creadores del programa y académico del Departamento de Ingeniería Informática de la Universidad.

Las señales sísmicas de un volcán no corresponden a movimientos telúricos propios del choque de las placas tectónicas, como podría desprenderse de una primera lectura de estos fenómenos. Estos son movimientos exclusivos de los volcanes que surgen de sus características particulares, como su actividad, movimiento del magma, desplazamiento de los gases, rigidez del material del cual está compuesto, etc.

[Img #25287]
Volcán Llaima. (Foto: USACH)


Previamente, este equipo de investigadores había estudiado el volcán Villarrica, detectando que en éste existían tres patrones de señales sísmicas representativas: el LP (Long Period), que se asocia a la presión del gas y fluidos que existen dentro del volcán; el Tremor, que está relacionado con los cambios en la densidad del gas y el magma; y por último, el VT (Volcano Tectonic), que explica las fracturas de las partes sólidas del volcán o sus conductos.

En el estudio del volcán Llaima se volvió a aplicar el software, pero buscando, además, identificar las características de los datos enviados por los sensores del volcán. Dentro de estos, se tomaron en cuenta principalmente la amplitud de las señales, su frecuencia y fase, y cómo éstas se presentaban en conjunto en cada señal sísmica.

“Con esto tratábamos de entregarle mayor información a los vulcanólogos, con el fin de que ellos identificaran con mayor facilidad la señal, analizando también la forma en que estas características se presentaban para que los eventos sísmicos se produjeran”, destaca Chacón, experto en modelos de sistema.

Una de las conclusiones más interesantes, según el académico, fue la similitud de los resultados arrojados por los dos volcanes, lo que contradice la actual creencia que cada volcán tiene movimientos sísmicos únicos. El investigador afirma que, por ahora, se maneja la hipótesis de que esta similitud se debe a la cercanía entre ambos macizos, sin embargo, eso no está comprobado.

Debido a esto, se plantean dos potenciales pasos a seguir en el marco de esta investigación. El primero, es un estudio comparado de estos volcanes, para medir las diferencias exactas entre ellos; el segundo paso, es mejorar el software, con el fin de encontrar las correlaciones de estas señales sísmicas al momento de una erupción.

“En Chile convivimos con muchos volcanes, por eso es vital aumentar el conocimiento de ellos. Mientras más sepamos, mejor podremos enfrentar emergencias como una erupción, incluso predecirla y tomar decisiones a tiempo”, expresa Chacón. (Fuente: USACH/DICYT)

lunes, 9 de febrero de 2015

Skype presenta Skype Translator un sistema de traducción simultánea para conversaciones



¿No sabes inglés y necesitas hablar con un cliente que es americano? Una nueva tecnología presentada por Skype permitirá que converséis sin problemas. En esta primera fase estará disponible para los idiomas inglés y castellano en modo audio  y para más de 40 idiomas en mensajes de texto 

“Hoy estamos orgullosos y emocionados de poder anunciar la primera fase del programa preliminar de Skype Translator. El lanzamiento de este programa preliminar se hará con dos idiomas, el español y el inglés en audio y texto, y con más de 40 idiomas en mensajería instantánea que estarán disponibles para los clientes de Skype que se hayan apuntado a través de la página de inscripción y que tengan instalado Windows 8.1 en su ordenador o dispositivo” ha explicado Gurdeep Pall, vicepresidente corporativo de Skype.

Skype Translator abre un abanico de posibilidades para que las personas en todo el mundo puedan conectarse y comunicarse salvando la barrera idiomática. Además, el sistema se basa en el aprendizaje, es decir, la propia tecnología mejora con su uso consiguiendo cada vez mejores traducciones. De momento la compañía ha comenzado con dos idiomas hablados por millones de personas, el inglés y el castellano. Sin embargo su objetivo a largo plazo “es traducir tantos idiomas y plataformas como sea posible ampliando con ello la experiencia de Skype Translator de manera individual para cada uno de los 300 millones de usuarios conectados” apuntan desde la compañía.

Para el propio Gurdeep Pall,  “Skype Translator es un gran ejemplo de los beneficios de la inversión de Microsoft en la investigación. Hemos invertido en el reconocimiento de voz, tecnologías de traducción y aprendizaje de máquinas automáticas durante más de una década, y ahora están emergiendo como importantes componentes en esta era de la computación más personal. Skype Translator es el ejemplo más reciente y visible”.

Se trata de una primera versión preliminar y no todos los ordenadores soportan el sistema. Para que funcione, la tecnología necesita un dispositivo con el sistema operativo Windows 8.1 y de hecho, esta innovación ha sido posible gracias a la colaboración de Skype con Microsoft Research.


¿Cómo funciona Skype Translator?

El aprendizaje automático es la capacidad que tiene el software de aprender a partir de datos recibidos. Esta es la base sobre la que Skype Translator está construido. Según el software vaya aprendiendo de estos datos en esta primera etapa previa irá reconociendo y traduciendo cada vez mejor independientemente de los diferentes los acentos o las variaciones idiomáticas de los usuarios de Skype Translator.

Los datos sobre los que el software aprende el reconocimiento de voz y la traducción simultánea provienen de una variedad de fuentes incluyendo páginas web ya traducidas, vídeos con subtítulos, así como conversaciones previas traducidas anteriormente. También se ha nutrido de donaciones de conversaciones que han permitido enriquecer los motores de reconocimiento de voz y traducción simultánea y enseñarle cómo asignar el flujo de audio entrante al texto y, a continuación el texto en otro idioma de salida.

Una vez los datos están dentro del sistema de aprendizaje automático, el software construye un modelo estadístico con las palabras de la conversación y el contexto. De esta manera, cuando el usuario habla el software puede encontrar algo similar en su modelo estadístico y aplicar lo que previamente ha aprendido de la transformación del audio al texto y de un idioma a otro.



http://www.muyinteresante.es/innovacion/tecno/articulo/skype-presenta-skype-translator-un-sistema-de-traduccion-simultanea-para-conversaciones-561418657415