#44 Sinais fisiológicos podem ser a chave para IA 'emocionalmente inteligente'

2 years ago
8

A inteligência artificial está na vanguarda da tecnologia moderna. Tornar a IA 'emocionalmente inteligente' pode abrir portas para interações homem-máquina mais naturais. Para fazer isso, ele precisa captar o sentimento do usuário durante um diálogo. Sinais fisiológicos podem fornecer uma rota direta para tais sentimentos. Agora, pesquisadores do Japão levam as coisas para o próximo nível com uma IA com capacidades de detecção de sentimentos comparáveis ​​às dos humanos.

"Análise de sentimento multimodal" é um grupo de métodos que constituem o padrão-ouro para um sistema de diálogo de IA com detecção de sentimento. Esses métodos podem analisar automaticamente o estado psicológico de uma pessoa a partir de sua fala, tom da voz, expressão facial e postura e são cruciais para sistemas de IA centrados no ser humano. A técnica poderia potencialmente realizar uma IA emocionalmente inteligente com capacidades além do humano, que entende o sentimento do usuário e gera uma resposta de acordo.

No entanto, os métodos atuais de estimativa de emoções focam apenas em informações observáveis ​​e não levam em conta as informações contidas em sinais não observáveis, como sinais fisiológicos. Esses sinais são uma potencial mina de ouro de emoções que podem melhorar tremendamente o desempenho da estimativa de sentimento.

Em um novo estudo, os sinais fisiológicos foram adicionados à análise multimodal de sentimentos pela primeira vez por pesquisadores do Japão. Os seres humanos são muito bons em esconder seus sentimentos. O estado emocional interno de um usuário nem sempre é refletido com precisão pelo conteúdo do diálogo, mas como é difícil para uma pessoa controlar conscientemente seus sinais biológicos, como frequência cardíaca, pode ser útil usá-los para estimar seu estado emocional. Isso pode resultar em uma IA com recursos de estimativa de sentimentos que estão além dos humanos.

A equipe analisou 2.468 diálogos com a IA obtida de 26 participantes para estimar o nível de prazer experimentado pelo usuário durante a conversa.

Ao comparar todas as fontes de informação separadas, a informação do sinal biológico provou ser mais eficaz do que a voz e a expressão facial. O desempenho da IA ​​tornou-se comparável ao de um humano.

Loading comments...