Innovación

La IA avanzada del MIT tiene como objetivo predecir el estado de ánimo de una conversación

La IA avanzada del MIT tiene como objetivo predecir el estado de ánimo de una conversación

El MIT está trabajando en el desarrollo de un sistema de inteligencia artificial portátil que puede predecir con precisión el estado de ánimo de una conversación.

Descifrar la forma en que una persona articula el estado de ánimo y el tono de una oración puede alterar significativamente el significado de una conversación. En última instancia, la interpretación de su significado se deja al oyente. Ser capaz de distinguir las emociones que una persona está retratando es un componente fundamental de la conversación. Sin embargo, no todo el mundo puede distinguir entre tonos.

Para algunas personas, especialmente aquellas que sufren de ansiedad o Asperger, pueden interoperar una conversación de una manera diferente a la prevista. La falta de comunicación puede hacer que las interacciones sociales sean extremadamente estresantes.

Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT y del Instituto de Ingeniería y Ciencia Médica (IMES) dicen que pueden tener la solución: un dispositivo de inteligencia artificial portátil capaz de distinguir si una conversación es feliz, triste o neutral al monitorear activamente la forma en que habla una persona.

"Imagínese si, al final de una conversación, pudiera rebobinarla y ver los momentos en que las personas que lo rodean se sintieron más ansiosas", dice el estudiante graduado Tuka Alhanai, "Nuestro trabajo es un paso en esta dirección, lo que sugiere que podemos no estar tan lejos de un mundo en el que las personas pueden tener un entrenador social de IA en el bolsillo ".

Los wearables que predicen el estado de ánimo analizan activamente los patrones de habla y las señales fisiológicas de una persona para determinar los tonos y estados de ánimo expresados ​​en una conversación con 83 por ciento de precisión. El sistema está programado para registrar una "puntuación de sentimiento" cada cinco segundos durante una conversación.

"Hasta donde sabemos, este es el primer experimento que recopila datos físicos y de voz de una manera pasiva pero sólida, incluso cuando los sujetos tienen interacciones naturales y no estructuradas", dice Ghassemi. "Nuestros resultados muestran que es posible clasificar el tono emocional de las conversaciones en tiempo real".

Las técnicas de aprendizaje profundo continuarán mejorando el rendimiento del sistema a medida que más personas utilicen el sistema creando más datos para que los analicen los algoritmos. Para proteger la privacidad del usuario, los datos se procesan localmente en un dispositivo para evitar posibles violaciones de la privacidad. Sin embargo, aún puede haber problemas de privacidad, ya que el dispositivo puede potencialmente grabar las conversaciones de personas sin pretensiones.

Cómo funciona el dispositivo

Los estudios anteriores que examinaron la emoción de una conversación requerían que un participante actuara artificialmente una emoción específica. En un intento por crear emociones más orgánicas, los investigadores del MIT hicieron que los participantes contaran una historia feliz o triste.

[Fuente de imagen:MITCSAIL / YouTube]

Los participantes del estudio usaron un Samsung Simband, un dispositivo capaz de capturar formas de onda fisiológicas de alta resolución para medir muchos atributos, incluidos la frecuencia cardíaca, la presión arterial, el flujo sanguíneo y la temperatura de la piel. El dispositivo también graba simultáneamente datos de audio que luego se analizan para determinar el tono, el tono, la energía y el vocabulario.

"El uso que hace el equipo de dispositivos del mercado de consumo para recopilar datos fisiológicos y de voz muestra lo cerca que estamos de tener tales herramientas en los dispositivos cotidianos", dice Björn Schuller, profesor y presidente de Sistemas Complejos e Inteligentes en la Universidad de Passau en Alemania. "La tecnología pronto podría sentirse mucho más inteligente emocionalmente, o incluso 'emocional' en sí misma".

Los investigadores del MIT grabaron 31 conversaciones y luego usaron los datos para entrenar dos algoritmos separados. El primero deduce la conversación para categorizarla como feliz o triste. El algoritmo secundario determina si la conversación es positiva, negativa o neutral en intervalos de 5 segundos.

"El sistema detecta cómo, por ejemplo, el sentimiento en la transcripción del texto era más abstracto que los datos sin procesar del acelerómetro", dice Alhanai. "Es bastante notable que una máquina pueda aproximarse a cómo los humanos percibimos estas interacciones, sin una participación significativa de nosotros como investigadores ".

¿Funciona?

Sorprendentemente, los algoritmos determinaron con éxito la mayoría de las emociones que un ser humano esperaría durante una conversación. Aunque, los resultados del modelo fueron solo 18 por ciento por encima de la probabilidad. A pesar del pequeño porcentaje, la nueva técnica sigue siendo un 7.5 por ciento más preciso que los enfoques existentes.

Desafortunadamente, el modelo todavía está demasiado subdesarrollado como para ser de utilidad práctica como entrenador social. Sin embargo, los investigadores planean ampliar la recopilación de datos al permitir que el sistema se utilice en dispositivos comerciales como el reloj de manzana.

“Nuestro siguiente paso es mejorar la granularidad emocional del algoritmo para que sea más preciso al señalar momentos aburridos, tensos y emocionantes, en lugar de simplemente etiquetar las interacciones como 'positivas' o 'negativas'”, dice Alhanai. "El desarrollo de tecnología que pueda tomar el pulso de las emociones humanas tiene el potencial de mejorar drásticamente la forma en que nos comunicamos entre nosotros".

VEA TAMBIÉN: Los vasos, la música creada por las señales fisiológicas de las emociones

Escrito por Maverick Baker

Ver el vídeo: Querés predecir el futuro? Usá datos. Nicolás Loeff. TEDxMontevideo (Octubre 2020).