Inteligencia artificial

Watson de IBM ya detecta emociones

La actualización de tres de sus API dota a la tecnología de IBM de nuevas posibilidades de cara a interactuar con la "inteligencia artificial", con posibilidad de que sea posible adivinar el estado de ánimo de las personas así como nuestras emociones.

Pepper Watson IBM
El robot Pepper mostrado durante la feria de CES 2016, interactuando con humanos

A pesar de que los robots se han fraguado a lo largo del tiempo una mala reputación por su incapacidad para comprender las emociones de los humanos, una nueva actualización de Watson de IBM podría echar por tierra de una vez por todas, dicha creencia. De hecho, la “inteligencia artificial” de la tecnología de IBM ahora puede entender nuestros sentimientos. La compañía ha presentado tres nuevas API de Watson, mediante las cuales, es posible desplegar un analizador de tono, analizar las emociones, así como llevar a cabo un reconocimiento visual. El resultado de conjugar los tres parámetros parece ser una versión de Watson mucho más humana y amigable que la que conocemos hasta ahora.

Como ya lo anticipara a principios de año Ginni Rometty, Presidente y CEO de IBM, “Watson va a estar presente en todas partes, véase en la cocina, en el banco, en el gimnasio, así como en las clínicas y hospitales”. IBM está ampliando sus colaboraciones con marcas destacadas de cada sector, como Under Armour, Whirlpool o Softbank, entre muchas otras, con el fin de desarrollar aparatos inteligentes que permitan detectar las emociones de los humanos. En temas de salud o E-health, ya hemos podido comprobar diversos casos que evidencias todo su potencial. Una aplicación conectada con Watson, por ejemplo, puede predecir con una anticipación de casi tres horas, cuando los niveles de azúcar en la sangre de un paciente con diabetes descenderán por debajo de lo deseado. Esto permite ajustar su dosis o dieta para mantener sus cifras dentro del rango. De hecho, IBM y Medtronic ya emplean los procesos de analítica de Watson como elemento back-end para una aplicación que, según afirman ambas compañías, podrá ayudar a los cerca de 400 millones de personas que padecen de diabetes en todo el mundo.

Mientras que la API relacionada con el reconocimiento visual se centra más en el aprendizaje profundo y reconocimiento de imágenes, las otros dos se valen de las emociones de las personas. La de Analizador de tono va a ser capaz de evaluar las emociones simplemente por el tono de voz de las personas, mientras que la API de análisis de las Emociones es capaz de pintar una imagen aún más clara del estado de ánimo de cada instante.

Los avances de Watson hablan por sí solos. La tecnología de IBM va a ser capaz de leer nuestras emociones para que robots y dispositivos puedan responder de una manera más natural en función de nuestros estados de ánimo.

 



Contenido Patrocinado

Fernando Rubio Román, CTO de Microsoft España. TECNOLOGÍA
Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital