(CONNECT) Des chercheurs des universités Berne et Genève ont comparé les décisions d'une intelligence artificielle à celles de sujets humains lors de tests d'intelligence émotionnelle. Comme le montre une communiqué, les modèles d'IA ont affiché de meilleurs résultats.
Pour leurs recherches, les chercheurs ont utilisé de grands modèles linguistiques, Large Language Models (LLM), comme ChatGPT. Ces modèles sont capables de traiter, de générer et d'interpréter le langage humain. Dans leur expérience, ils ont utilisé six modèles différents de ce type - ChatGPT-4, ChatGPT-01, Gemini 1.5 Flash, Copilot 365, Claude 3.5 Haiku et DeepSeek V3 - pour effectuer des tests d'intelligence émotionnelle tels qu'ils sont réalisés dans les entreprises. En parallèle, les tâches devaient être résolues par des humains.
"Au final, les LLM ont obtenu un score nettement plus élevé - 82 % de réponses correctes contre 56 % pour les humains. Cela indique que ces IA ne comprennent pas seulement les émotions, mais qu'elles comprennent également ce que signifie se comporter de manière émotionnellement intelligente", a déclaré Marcello Mortillaro, chercheur principal au Swiss Center for Affective Sciences (CISA) de l'Université de Genève, cité dans le communiqué.
Dans une deuxième approche, ChatGPT-4 a été invité à créer de nouveaux tests. Ces tests automatiques ont été effectués par 400 sujets. Les  ; "tests créés en un temps record" se sont révélés aussi fiables que les tests initiaux, développés depuis des années, précise le communiqué. Les chercheurs en concluent que les LLM disposent de connaissances émotionnelles et peuvent réfléchir sur les émotions, peut-on lire dans le communiqué. La étude a été publiée dans "Nature Communications Psychology". ce/eb