Premium Only Content

#44 Sinais fisiológicos podem ser a chave para IA 'emocionalmente inteligente'
A inteligência artificial está na vanguarda da tecnologia moderna. Tornar a IA 'emocionalmente inteligente' pode abrir portas para interações homem-máquina mais naturais. Para fazer isso, ele precisa captar o sentimento do usuário durante um diálogo. Sinais fisiológicos podem fornecer uma rota direta para tais sentimentos. Agora, pesquisadores do Japão levam as coisas para o próximo nível com uma IA com capacidades de detecção de sentimentos comparáveis às dos humanos.
"Análise de sentimento multimodal" é um grupo de métodos que constituem o padrão-ouro para um sistema de diálogo de IA com detecção de sentimento. Esses métodos podem analisar automaticamente o estado psicológico de uma pessoa a partir de sua fala, tom da voz, expressão facial e postura e são cruciais para sistemas de IA centrados no ser humano. A técnica poderia potencialmente realizar uma IA emocionalmente inteligente com capacidades além do humano, que entende o sentimento do usuário e gera uma resposta de acordo.
No entanto, os métodos atuais de estimativa de emoções focam apenas em informações observáveis e não levam em conta as informações contidas em sinais não observáveis, como sinais fisiológicos. Esses sinais são uma potencial mina de ouro de emoções que podem melhorar tremendamente o desempenho da estimativa de sentimento.
Em um novo estudo, os sinais fisiológicos foram adicionados à análise multimodal de sentimentos pela primeira vez por pesquisadores do Japão. Os seres humanos são muito bons em esconder seus sentimentos. O estado emocional interno de um usuário nem sempre é refletido com precisão pelo conteúdo do diálogo, mas como é difícil para uma pessoa controlar conscientemente seus sinais biológicos, como frequência cardíaca, pode ser útil usá-los para estimar seu estado emocional. Isso pode resultar em uma IA com recursos de estimativa de sentimentos que estão além dos humanos.
A equipe analisou 2.468 diálogos com a IA obtida de 26 participantes para estimar o nível de prazer experimentado pelo usuário durante a conversa.
Ao comparar todas as fontes de informação separadas, a informação do sinal biológico provou ser mais eficaz do que a voz e a expressão facial. O desempenho da IA tornou-se comparável ao de um humano.
-
6:32
Pingos de ciência
2 years ago#104 Pesquisadores criam o primeiro condensado de Bose-Einstein de quasipartícula 27/10/22
117 -
1:05:42
I_Came_With_Fire_Podcast
6 hours agoFaith & America's Founders
13.1K1 -
9:21:33
Dr Disrespect
12 hours ago🔴LIVE - DR DISRESPECT - THE BEST IS BACK!
174K24 -
1:32:53
Badlands Media
20 hours agoAltered State S3 Ep. 34
52.2K4 -
43:41
CarlCrusher
3 hours agoSHOCKING Discovery on the Path of the Skinwalker | Thunder Strike Ranch | Episode 2
15.6K2 -
30:58
Solar Groove Muzic
1 day ago $0.12 earnedSUMMER AFRO HOUSE BEATS of 2025
12.8K1 -
8:38
WhaddoYouMeme
8 hours ago $1.05 earnedChristians in Iran Are Being Hunted—Here’s Why
20.6K18 -
LIVE
VapinGamers
5 hours ago $0.05 earnedCOD Black Ops 6 with Abnerdagreat, Gunnin and Runnin! - !rumbot
123 watching -
1:53:32
Glenn Greenwald
6 hours agoWhy Did Zohran Win in NYC? Plus: Gazan Pulitzer Prize Winner Mosab Abu Toha on the Latest Atrocities | SYSTEM UPDATE SHOW #476
192K107 -
1:41:14
RiftTV/Slightly Offensive
9 hours agoCrowder Takes SHOT at Candace, “Panicans” OBLITERATED? | The Rift | Guests: Hodge Twins
49.2K25