Premium Only Content
#44 Sinais fisiológicos podem ser a chave para IA 'emocionalmente inteligente'
A inteligência artificial está na vanguarda da tecnologia moderna. Tornar a IA 'emocionalmente inteligente' pode abrir portas para interações homem-máquina mais naturais. Para fazer isso, ele precisa captar o sentimento do usuário durante um diálogo. Sinais fisiológicos podem fornecer uma rota direta para tais sentimentos. Agora, pesquisadores do Japão levam as coisas para o próximo nível com uma IA com capacidades de detecção de sentimentos comparáveis às dos humanos.
"Análise de sentimento multimodal" é um grupo de métodos que constituem o padrão-ouro para um sistema de diálogo de IA com detecção de sentimento. Esses métodos podem analisar automaticamente o estado psicológico de uma pessoa a partir de sua fala, tom da voz, expressão facial e postura e são cruciais para sistemas de IA centrados no ser humano. A técnica poderia potencialmente realizar uma IA emocionalmente inteligente com capacidades além do humano, que entende o sentimento do usuário e gera uma resposta de acordo.
No entanto, os métodos atuais de estimativa de emoções focam apenas em informações observáveis e não levam em conta as informações contidas em sinais não observáveis, como sinais fisiológicos. Esses sinais são uma potencial mina de ouro de emoções que podem melhorar tremendamente o desempenho da estimativa de sentimento.
Em um novo estudo, os sinais fisiológicos foram adicionados à análise multimodal de sentimentos pela primeira vez por pesquisadores do Japão. Os seres humanos são muito bons em esconder seus sentimentos. O estado emocional interno de um usuário nem sempre é refletido com precisão pelo conteúdo do diálogo, mas como é difícil para uma pessoa controlar conscientemente seus sinais biológicos, como frequência cardíaca, pode ser útil usá-los para estimar seu estado emocional. Isso pode resultar em uma IA com recursos de estimativa de sentimentos que estão além dos humanos.
A equipe analisou 2.468 diálogos com a IA obtida de 26 participantes para estimar o nível de prazer experimentado pelo usuário durante a conversa.
Ao comparar todas as fontes de informação separadas, a informação do sinal biológico provou ser mais eficaz do que a voz e a expressão facial. O desempenho da IA tornou-se comparável ao de um humano.
-
6:32
Pingos de ciência
2 years ago#104 Pesquisadores criam o primeiro condensado de Bose-Einstein de quasipartícula 27/10/22
111 -
1:08:03
Donald Trump Jr.
17 hours agoJanuary 6th: More to Uncover, Live with Rep Loudermilk & Darren Beattie | TRIGGERED Ep.205
248K281 -
1:00:48
The StoneZONE with Roger Stone
10 hours agoJustin Trudeau Throws In The Towel! w/ Canadian Hockey Legend Theo Fluery | The StoneZONE
89.2K24 -
1:18:37
We Like Shooting
20 hours ago $3.00 earnedDouble Tap 391(Gun Podcast)
54.3K1 -
2:32:43
FreshandFit
20 hours agoAndrew Wilson VS Gary The Numbers Guy Astrology & Numerology Debate!
134K82 -
9:22:40
Dr Disrespect
18 hours ago🔴LIVE - DR DISRESPECT - TRIPLE THREAT CHALLENGE - RIVALS, PUBG, WARZONE
232K45 -
1:15:03
Dad Dojo Podcast
17 hours ago $1.68 earnedEP16: Parenting: Then vs Now
45K -
53:58
Sarah Westall
11 hours agoBlack Pilled vs Learning Reality and Maintaining Perspective, AI Reality w/ Johnny Vedmore
67.6K4 -
55:01
LFA TV
1 day agoJan. 6, 2021, vs. Jan. 6, 2025 | TRUMPET DAILY 1.6.25 7pm
44.8K2 -
1:19:27
The Big Mig™
1 day agoLimitless Health with Calley Means
57.4K8