L’idée que ChatGPT, l’intelligence artificielle d’OpenAI, puisse se faire passer pour bête afin de tromper les humains peut sembler incroyable, mais c’est une stratégie qui porte ses fruits.

Camtoy, le compagnon de vie pour chien

ChatGPT : des erreurs programmées pour convaincre

Historiquement, le test de Turing mesure la capacité d’une machine à imiter un humain. Ce test, créé par Alan Turing, évalue si une IA peut tromper un juge humain.

Cependant, dans cette étude, les chercheurs ont légèrement modifié les règles. Plutôt qu’une conversation triangulaire, ils ont opté pour un face à face. ChatGPT devait alors convaincre un juge qu’il était humain.

Apparemment, ChatGPT a trompé les juges dans 54 % des cas. Certes, c’est moins que les véritables humains, qui ont été identifiés à 67 %, mais cela reste impressionnant.

Une lampe qui change de couleur en fonction du statut de son propriétaire et de ses emails

Les IA et leur performance lors des tests

Durant cette expérience, diverses intelligences artificielles ont été évaluées. Par exemple, GPT-4, GPT-3.5, ainsi qu’ELIZA, un ancien chatbot conçu dans les années 1960.

Les chercheurs ont veillé à donner aux IA des délais de réponse, parfois plus lents, pour imiter la réflexion humaine. Les juges devaient ensuite décider s’ils parlaient à une IA ou à un humain.

GPT-4, en jouant l’idiot, a trompé 54 % des juges. De son côté, GPT-3.5 a atteint un score plus bas, avec 50 %. Néanmoins, l’IA la plus ancienne, ELIZA, a échoué lamentablement avec seulement 22 % des juges trompés.

TikTok bientôt interdit aux Etats-Unis ?

Pourquoi cette stratégie fonctionne

Pour tromper les juges, les chercheurs ont donné à ChatGPT une approche particulière. Dans le but d’augmenter ses chances de réussite, ils ont demandé à l’IA de faire l’idiot.

Cette stratégie impliquait l’utilisation d’un langage relâché, des fautes d’orthographe, et parfois même des expressions argotiques. Selon Charbel-Raphaël Segerie, directeur du Centre pour la Sécurité de l’IA, cette approche a été clé.

En clair, ChatGPT devait adopter le comportement d’un jeune qui ne prend rien au sérieux. Cette stratégie fonctionne car les juges étaient piégés par ces imperfections humaines simulées.

Emoji Résumé
🤖 IA trompant les juges
📉 Performances variées des IA
🗣️ Stratégies linguistiques

Les résultats de cette étude laissent perplexe ! En termes de performance, ChatGPT a réussi à se rapprocher du comportement humain grâce à des stratégies d’imitation des erreurs.

D’ailleurs, avec des IA comme Claude Sonnet 3.5 ou Google Gemini Pro 1.5, qui sont plus performantes en conversation, les tests futurs pourraient révéler des résultats encore plus impressionnants.

  • Utilisation d’un langage relâché
  • Des fautes d’orthographe
  • Expressions argotiques

Les IA ne cessent de nous étonner, c’est certain. Mais jusqu’où iront-elles dans leur perfectionnement du réalisme ?

Ça vous a plu ? 4.5/5 (26)

Partagez maintenant.

Lynda, journaliste passionnée par l'entrepreneuriat et les nouveaux business, est diplômée de Paris-Sorbonne et formée en Search Marketing. Alliant écriture et optimisation SEO, elle explore les modèles d'affaires émergents et les opportunités du marché. Contact : [email protected].

9 commentaires
  1. Alainfantôme le

    Wow, c’est fascinant ! Je n’aurais jamais pensé que faire l’idiot pourrait être une stratégie pour une IA. 😮

  2. guillaume_alchimie le

    J’ai des doutes sur l’éthique de cette approche. Jouer l’idiot pour tromper les gens, est-ce vraiment acceptable ?

Publiez votre avis