L’idée que ChatGPT, l’intelligence artificielle d’OpenAI, puisse se faire passer pour bête afin de tromper les humains peut sembler incroyable, mais c’est une stratégie qui porte ses fruits.
ChatGPT : des erreurs programmées pour convaincre
Historiquement, le test de Turing mesure la capacité d’une machine à imiter un humain. Ce test, créé par Alan Turing, évalue si une IA peut tromper un juge humain.
Cependant, dans cette étude, les chercheurs ont légèrement modifié les règles. Plutôt qu’une conversation triangulaire, ils ont opté pour un face à face. ChatGPT devait alors convaincre un juge qu’il était humain.
Apparemment, ChatGPT a trompé les juges dans 54 % des cas. Certes, c’est moins que les véritables humains, qui ont été identifiés à 67 %, mais cela reste impressionnant.
Une lampe qui change de couleur en fonction du statut de son propriétaire et de ses emails
Les IA et leur performance lors des tests
Durant cette expérience, diverses intelligences artificielles ont été évaluées. Par exemple, GPT-4, GPT-3.5, ainsi qu’ELIZA, un ancien chatbot conçu dans les années 1960.
Les chercheurs ont veillé à donner aux IA des délais de réponse, parfois plus lents, pour imiter la réflexion humaine. Les juges devaient ensuite décider s’ils parlaient à une IA ou à un humain.
GPT-4, en jouant l’idiot, a trompé 54 % des juges. De son côté, GPT-3.5 a atteint un score plus bas, avec 50 %. Néanmoins, l’IA la plus ancienne, ELIZA, a échoué lamentablement avec seulement 22 % des juges trompés.
Pourquoi cette stratégie fonctionne
Pour tromper les juges, les chercheurs ont donné à ChatGPT une approche particulière. Dans le but d’augmenter ses chances de réussite, ils ont demandé à l’IA de faire l’idiot.
Cette stratégie impliquait l’utilisation d’un langage relâché, des fautes d’orthographe, et parfois même des expressions argotiques. Selon Charbel-Raphaël Segerie, directeur du Centre pour la Sécurité de l’IA, cette approche a été clé.
En clair, ChatGPT devait adopter le comportement d’un jeune qui ne prend rien au sérieux. Cette stratégie fonctionne car les juges étaient piégés par ces imperfections humaines simulées.
Emoji | Résumé |
---|---|
🤖 | IA trompant les juges |
📉 | Performances variées des IA |
🗣️ | Stratégies linguistiques |
Les résultats de cette étude laissent perplexe ! En termes de performance, ChatGPT a réussi à se rapprocher du comportement humain grâce à des stratégies d’imitation des erreurs.
D’ailleurs, avec des IA comme Claude Sonnet 3.5 ou Google Gemini Pro 1.5, qui sont plus performantes en conversation, les tests futurs pourraient révéler des résultats encore plus impressionnants.
- Utilisation d’un langage relâché
- Des fautes d’orthographe
- Expressions argotiques
Les IA ne cessent de nous étonner, c’est certain. Mais jusqu’où iront-elles dans leur perfectionnement du réalisme ?
Wow, c’est fascinant ! Je n’aurais jamais pensé que faire l’idiot pourrait être une stratégie pour une IA. 😮
Je ne suis pas sûr de comprendre pourquoi cette stratégie fonctionne. Quelqu’un peut m’expliquer ?
Merci pour cet article très intéressant !
J’ai des doutes sur l’éthique de cette approche. Jouer l’idiot pour tromper les gens, est-ce vraiment acceptable ?
54 % de succès, c’est quand même pas mal pour une IA. Bravo à OpenAI !
Pourquoi ELIZA a-t-elle échoué si lamentablement ? 🤔
Je trouve ça un peu inquiétant que les machines puissent se faire passer pour humaines aussi facilement.
Article très bien écrit, j’ai appris beaucoup de choses !
Les fautes d’orthographe comme stratégie, c’est un peu bizarre, non ?