Pourquoi éprouvons-nous des émotions envers les machines ? La question est digne d’un épisode de Black Mirror et interroge notre rapport aux intelligences artificielles.
Cet article s’appuie sur un entretien avec Julien Pierre, enseignant-chercheur à l’université de Sherbrooke, pour explorer les enjeux émotionnels de l’IA au quotidien.
La théorie des cinq émotions de Paul Ekman
En 1970, un psychologue américain nommé Paul Ekman définit cinq émotions universelles. Il venait de parcourir le monde en quête d’une vérité : nos émotions sont biologiques. Peu importe votre culture ou votre pays de naissance, vos émotions sont détectables. Un froncement de sourcils, une plissure des lèvres… Les mêmes expressions traversent nos visages pour exprimer : la joie, la colère, la peur, le dégoût et la tristesse.
Si cette théorie fait débat, elle domine dans le champ scientifique. Trente ans après son apparition, elle gagne le domaine informatique. Le modèle proposé par Ekman est utilisé pour reconnaître des émotions sur des visages humains à partir de données visuelles. L’émotion est authentifiée puis codée automatiquement.
Mais comment un chatbot parvient-il à détecter une émotion au travers d’un texte ?
Un agent conversationnel peut analyser le langage de son interlocuteur pour parvenir à identifier ses sentiments. Pierre précise la méthode : « On va repérer si le vocabulaire projette des émotions positives, neutres ou négatives. On élabore une échelle d’intensité : de très positif à peu positif. »
La vitesse d’écriture ou le choix de nos mots sont des indicateurs de notre état affectif. Un chatbot est capable de dire si nous sommes heureux ou non. Il est également programmé pour fournir des réponses adaptées à notre type d’émotion. Par exemple, ChatGPT pourrait dire « Je suis content pour toi. » ou « Je suis désolé d’apprendre cette nouvelle. »
Les IA sont capables de reconnaître automatiquement une émotion et d’en simuler une. D’ailleurs, les algorithmes sont entraînés pour inciter les individus à partager leurs sentiments et à réagir. Plus l’utilisateur interagit avec le robot et plus il fournit des données pour l’entraîner et améliorer sa précision de réponse. Vous l’avez peut-être remarqué : au bout d’un temps de conversation, ChatGPT s’épuise.
Il faut acheter le modèle supérieur pour pouvoir continuer à discuter avec l’IA. Si cette stratégie économique est mise en place, c’est pour récolter plus de données. Pierre reconnaît que « les modèles actuels sont généreux ». Ils offrent beaucoup de temps d’utilisation gratuit.
Ainsi, trois étapes se formalisent dans une interaction machine-humain :
1. La reconnaissance de l’émotion au travers du langage exprimé.
2. La simulation d’une émotion sous forme d’empathie.
3. La stimulation : l’IA cherche à relancer la discussion pour la prolonger.
Si la détection d’une émotion repose sur l’analyse de l’expression verbale, nous pouvons interroger les capacités de communication d’un agent conversationnel.
Comment un chabot formalise-t-il ses réponses ?
Une intelligence artificielle est programmée pour traiter énormément de données. L’état actuel du web permet d’obtenir des millions de textes facilement. Un agent conversationnel comme ChatGPT est entraîné sur ces ressources. Il est capable de prédire la suite d’une phrase, car il s’appuie sur des données déjà évaluées et statistiquement fiables.
Avant 2020, les chatbots offraient des réponses assez conventionnelles. D’après Pierre : « L’algorithme suivait des embranchements limités. On parlait d’arbres conversationnels. Il suivait des branches précises et déterminées. »
L’arrivée des IA génératives apporte plus de nuances dans les interactions. Elles peuvent adapter leurs réponses en fonction du contexte de la conversation et, dans certains cas, conserver une mémoire activée pour améliorer l’interaction. « Vous pouvez faire le test ! » , dit Pierre.
Demandez à ChatGPT « Qu’est-ce que tu sais de moi ? ». Il sera capable de vous répondre à partir des données récoltées lors de vos précédentes conversations.
Si les IA ne font qu’imiter nos émotions, comment se fait-il que nous en ressentions pour elles ?
Charles Bodon, doctorant et chargé d’enseignements en philosophie contemporaine à l’Université Paris 1 Panthéon-Sorbonne, explique que « l’anthropomorphisme des machines est un processus cognitif naturel » dans la mesure où nous faisons face à des entités que nous ne comprenons pas. Attribuer des caractéristiques humaines aux IA est « le meilleur moyen que notre cerveau a pour rendre ergonomique notre rapport à cet outil. »
S’il y a un risque d’attachement aux chatbots, il reste minime. L’émotion est réelle, mais une réciprocité n’est pas forcément attendue. Quel enfant ne s’est jamais épris d’une peluche ou d’un jouet ?
Nous pouvons ressentir des émotions à sens unique à l’égard d’objets du quotidien. En effet, la fantasmagorie existait avant les machines, souligne Pierre. Les attachements et fantasmes peuvent aussi s’appliquer à des célébrités ou à des êtres de fiction. Bodon précise que « l’émotion simulée par une machine n’est pas pour autant un indicateur probant du fait que nous en ressentions en retour. »
Projeter des émotions sur les intelligences artificielles ne signifie pas une contrepartie nécessairement attendue. Nous ressentons des émotions envers les IA parce que nous avons tendance à humaniser ce qui nous entoure. Pourtant, ces machines ne font qu’imiter nos réactions sans jamais éprouver de sentiments.
L’illusion fonctionne, mais la réalité reste inchangée : les émotions sont humaines.