Le Parisien MatinLe Parisien Matin
  • Home
  • Politique
  • Europe
  • Afrique
  • Moyen-Orient
  • Amériques
  • Économie
  • Technologie
  • Société
Facebook Twitter Instagram
Twitter LinkedIn
Le Parisien MatinLe Parisien Matin
jeudi, 22 mai Magazine
  • Home
  • Politique
  • Europe
  • Afrique
  • Moyen-Orient
  • Amériques
  • Économie
  • Technologie
  • Société
Le Parisien MatinLe Parisien Matin
Magazine
Technologie

Les émotions face aux IA : illusion programmée ?

Kallie RichettiPar Kallie Richettimercredi, 09 avrilAucun commentaire5 Min Temps de lecture
Partager Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
Julien Pierre nous explique que nous pouvons ressentir des émotions à sens unique face à une IA de plus en plus performante.
Julien Pierre nous explique que nous pouvons ressentir des émotions à sens unique face à une IA de plus en plus performante.
Partager
Facebook Twitter LinkedIn Pinterest Email

Pourquoi éprouvons-nous des émotions envers les machines ? La question est digne d’un épisode de Black Mirror et interroge notre rapport aux intelligences artificielles.

Cet article s’appuie sur un entretien avec Julien Pierre, enseignant-chercheur à l’université de Sherbrooke, pour explorer les enjeux émotionnels de l’IA au quotidien.

La théorie des cinq émotions de Paul Ekman 

En 1970, un psychologue américain nommé Paul Ekman définit cinq émotions  universelles. Il venait de parcourir le monde en quête d’une vérité : nos  émotions sont biologiques. Peu importe votre culture ou votre pays de  naissance, vos émotions sont détectables. Un froncement de sourcils, une  plissure des lèvres… Les mêmes expressions traversent nos visages pour  exprimer : la joie, la colère, la peur, le dégoût et la tristesse.  

Si cette théorie fait débat, elle domine dans le champ scientifique. Trente ans après son apparition, elle gagne le domaine informatique. Le modèle proposé par Ekman est utilisé pour reconnaître des émotions sur des visages humains à partir de données visuelles. L’émotion est authentifiée puis codée automatiquement.

Mais comment un chatbot parvient-il à détecter une émotion au  travers d’un texte ? 

Un agent conversationnel peut analyser le langage de son interlocuteur pour parvenir à identifier ses sentiments. Pierre précise la méthode : « On va repérer si le vocabulaire projette des émotions positives, neutres ou négatives. On élabore une échelle d’intensité : de très positif à peu positif. »

La vitesse d’écriture ou le choix de nos mots sont des indicateurs de notre état affectif. Un chatbot est capable de dire si nous sommes heureux ou non. Il est également programmé pour fournir des réponses adaptées à notre type d’émotion. Par exemple, ChatGPT pourrait dire « Je suis content pour toi. » ou « Je suis désolé d’apprendre cette nouvelle. »

Les IA sont capables de reconnaître automatiquement une émotion et d’en simuler une. D’ailleurs, les algorithmes sont entraînés pour inciter les individus à partager leurs sentiments et à réagir. Plus l’utilisateur interagit avec le robot et plus il fournit des données pour l’entraîner et améliorer sa précision de réponse. Vous l’avez peut-être remarqué : au bout d’un temps de conversation, ChatGPT s’épuise.

Il faut acheter le modèle supérieur pour pouvoir continuer à discuter avec l’IA. Si cette stratégie économique est mise en place, c’est pour récolter plus de données. Pierre reconnaît que « les modèles actuels sont généreux ». Ils offrent beaucoup de temps d’utilisation gratuit.

Ainsi, trois étapes se formalisent dans une interaction machine-humain :

1. La reconnaissance de l’émotion au travers du langage exprimé.

2. La simulation d’une émotion sous forme d’empathie.

3. La stimulation : l’IA cherche à relancer la discussion pour la prolonger.


Si la détection d’une émotion repose sur l’analyse de l’expression verbale, nous pouvons interroger les capacités de communication d’un agent conversationnel.

Comment un chabot formalise-t-il ses réponses ? 

Une intelligence artificielle est programmée pour traiter énormément de données. L’état actuel du web permet d’obtenir des millions de textes facilement. Un agent conversationnel comme ChatGPT est entraîné sur ces ressources. Il est capable de prédire la suite d’une phrase, car il s’appuie sur des données déjà évaluées et statistiquement fiables.

Avant 2020, les chatbots offraient des réponses assez conventionnelles. D’après Pierre : « L’algorithme suivait des embranchements limités. On parlait d’arbres conversationnels. Il suivait des branches précises et déterminées. »

L’arrivée des IA génératives apporte plus de nuances dans les interactions. Elles  peuvent adapter leurs réponses en fonction du contexte de la conversation et,  dans certains cas, conserver une mémoire activée pour améliorer l’interaction.  « Vous pouvez faire le test ! » , dit Pierre. 

Demandez à ChatGPT « Qu’est-ce que tu sais de moi ? ». Il sera capable de  vous répondre à partir des données récoltées lors de vos précédentes  conversations.

Si les IA ne font qu’imiter nos émotions, comment se fait-il que  nous en ressentions pour elles ?

Charles Bodon, doctorant et chargé d’enseignements en philosophie contemporaine à l’Université Paris 1 Panthéon-Sorbonne, explique que « l’anthropomorphisme des machines est un processus cognitif naturel » dans la mesure où nous faisons face à des entités que nous ne comprenons pas. Attribuer des caractéristiques humaines aux IA est « le meilleur moyen que notre cerveau a pour rendre ergonomique notre rapport à cet outil. »

S’il y a un risque d’attachement aux chatbots, il reste minime. L’émotion est réelle, mais une réciprocité n’est pas forcément attendue. Quel enfant ne s’est jamais épris d’une peluche ou d’un jouet ?

Nous pouvons ressentir des émotions à sens unique à l’égard d’objets du quotidien. En effet, la fantasmagorie existait avant les machines, souligne Pierre. Les attachements et fantasmes peuvent aussi s’appliquer à des célébrités ou à des êtres de fiction. Bodon précise que « l’émotion simulée par une machine n’est pas pour autant un indicateur probant du fait que nous en ressentions en retour. »

Projeter des émotions sur les intelligences artificielles ne signifie pas une contrepartie nécessairement attendue. Nous ressentons des émotions envers les IA parce que nous avons tendance à humaniser ce qui nous entoure. Pourtant, ces machines ne font qu’imiter nos réactions sans jamais éprouver de sentiments.

L’illusion fonctionne, mais la réalité reste inchangée : les émotions sont humaines.

    Charles Bodon chatbot émotions IA Intelligence Artificielle
    Partager. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous Article« Le rideau n’est pas encore tombé » : le maire de l’opposition turque arrêté alors que les manifestations se multiplient dans les villes
    Next Article Une arrestation, une génération, un point de rupture

    Related Posts

    Technologie

    Une vague d’enlèvements contre des détenteurs de cryptomonnaies

    dimanche, 18 mai
    Notre Sélection

    Les émotions au cœur des jeux vidéo

    dimanche, 18 mai
    Technologie

    Ubisoft s’effondre en Bourse après une année décevante

    samedi, 17 mai
    Add A Comment

    Leave A Reply Cancel Reply

    Abonnez-vous à notre Bulletin

    Directement dans votre boîte de réception ! Apprenez-en davantage dans notre politique de confidentialité

    Vérifiez votre boîte de réception ou votre dossier spam pour confirmer votre abonnement.

    À propos

    Le Parisien Matin est une plateforme de contenu collaboratif, dédiée à fournir des perspectives variées sur des sujets d’actualité, de politique et de société. Nous travaillons avec un réseau de prestataires indépendants, spécialisés dans la rédaction, l’analyse, et les interviews.

    Le Parisien Matin logo variation

    Twitter LinkedIn
    • Code d’éthique et de Conduite
    • Réclamations & Corrections
    • Politique de Confidentialité
    • Termes et Conditions
    • Politique Cookies
    • Nous Contacter
    © 2025 Tous droits réservés Le Parisien Matin.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Echap pour annuler.