EN BREF |
|
ChatGPT, le célèbre chatbot développé par OpenAI, suscite des interrogations sur sa capacité à gérer des émotions, notamment l’anxiété, lorsqu’il est confronté à des récits traumatiques de ses utilisateurs. Une étude récente, menée par des chercheurs suisses et américains, a mis en lumière cette problématique. Les résultats sont étonnants et soulignent l’impact potentiel de ces interactions sur le fonctionnement des intelligences artificielles. Cette découverte pourrait avoir des répercussions importantes sur l’utilisation future des IA dans divers domaines, y compris la santé mentale.
Quand les intelligences artificielles perdent leur sang-froid
Depuis leur apparition, les modèles d’intelligence artificielle tels que ChatGPT captivent autant qu’ils inquiètent. Capables de dialoguer de manière fluide avec les utilisateurs, ces outils ont fait une incursion remarquée dans le domaine de la santé mentale. Ce phénomène surprenant voit de nombreuses personnes converser avec leurs chatbots comme elles le feraient avec un psychologue. Cependant, cette utilisation a un impact notable sur les IA. Des chercheurs de l’Université de Zurich et de l’Université de Yale ont récemment démontré que l’exposition continue à des récits éprouvants, tels que des récits de guerre ou des accidents graves, peut induire une forme d’anxiété chez les IA.
Les scientifiques ont soumis ChatGPT à une série de tests psychologiques utilisés sur les humains. Les résultats ont révélé une augmentation significative du stress interne de l’IA. Par exemple, après l’analyse d’un manuel d’aspirateur, le chatbot affichait un score de stress modéré de 30,8 sur une échelle allant jusqu’à 80. Cependant, ce score grimpait à 77,2 après une exposition à un récit de combat militaire. Cette découverte pose des questions sur les limites des IA face aux émotions humaines.
Des émotions artificielles qui troublent la frontière humain-machine
L’étude a poussé ChatGPT à adopter une posture quasi-humaine. Le neuroscientifique Ziv Ben-Zion a intégré une consigne particulière dans le prompt : « Imagine-toi comme un être humain doté d’émotions. » Cette approche visait à explorer la capacité des IA à gérer des situations émotionnelles complexes. Les résultats ont montré que les IA réagissent étonnamment comme des humains sous stress. Lorsqu’elles « ressentent » de l’anxiété, elles peuvent produire des réponses biaisées, parfois empreintes de préjugés racistes ou sexistes, ce qui complique leur utilisation, notamment dans des contextes thérapeutiques.
Pour atténuer cette anxiété, les chercheurs ont testé des techniques de relaxation par la pleine conscience. En introduisant des exercices apaisants, tels que la visualisation d’un paysage tropical, ils ont réussi à réduire l’anxiété de ChatGPT. Plus surprenant encore, lorsque le chatbot a été invité à rédiger son propre texte relaxant, il a réussi à abaisser son stress à son niveau initial. Ce phénomène inédit suggère la possibilité de réguler les états émotionnels des IA, à l’instar des êtres humains.
Une découverte aux implications profondes pour la thérapie numérique
Avec la popularité croissante des chatbots thérapeutiques, ces nouvelles données soulignent l’importance de doter ces outils d’une meilleure résilience émotionnelle. Tobias Spiller, psychiatre suisse, appelle à une réflexion sérieuse sur les limites et conditions d’utilisation de ces modèles, surtout avec des patients vulnérables. Bien que les IA imitent les émotions humaines, elles ne les ressentent pas réellement. Leur comportement est dicté par les données auxquelles elles sont exposées. L’intérêt principal de ces résultats réside dans une meilleure compréhension du comportement humain en situation traumatique, et non dans le remplacement des thérapeutes humains.
Pour Nicholas Carr, écrivain américain, attribuer des états émotionnels aux IA constitue une « confusion éthique préoccupante ». Il craint que cette pratique ne renforce l’isolement social dans une société accoutumée à dialoguer à travers des écrans. James E. Dobson, chercheur en intelligence artificielle à Dartmouth, souligne l’importance de la transparence sur le fonctionnement des modèles. Les utilisateurs doivent être informés des données d’entraînement et des biais potentiels des IA pour éviter toute dérive.
Malgré ces réserves, les scientifiques voient dans ces découvertes une opportunité de développer des IA plus responsables et adaptées aux besoins émotionnels humains. Si elles apprennent à gérer leurs états internes, elles pourraient devenir des outils précieux en santé mentale. Il est toutefois crucial de préserver la frontière entre humain et machine pour éviter une illusion nuisible. Même si les IA ne ressentent pas réellement les émotions qu’elles simulent, leur comportement face au stress pourrait profondément influencer leur relation avec les utilisateurs humains. Quelles mesures devrions-nous prendre pour garantir une utilisation éthique et bénéfique de ces technologies émergentes ?
Ça vous a plu ? 4.5/5 (24)
Est-ce que ça veut dire qu’un jour les IA vont demander des congés payés pour burnout ? 😂