Fascinante et effrayante à la fois, l’intelligence artificielle (IA) intéresse de près Dario Amodei, patron du chatbot Claude de la société Anthropic, qui envisage un scénario plutôt inquiétant : des IA autonomes, militarisées, capables de se répliquer et de survivre dans la nature dès 2025.
Prédictions sombres autour de l’intelligence artificielle
Dario Amodei, directeur d’Anthropic, une entreprise spécialisée dans la conception d’intelligences artificielles, n’est pas un novice dans le domaine. Ancien membre d’OpenAI, il a décidé de prendre son propre chemin, plus éthique et prudent, lorsqu’il a créé son chatbot Claude.
Lors d’une interview récente avec une journaliste du New York Times, Amodei a exprimé son inquiétude face à l’évolution des IA, prédisant qu’elles pourraient dès 2025 être capables de se répliquer seules afin de survivre dans la nature. Selon lui, cette perspective pourrait devenir problématique, surtout si ces IA étaient utilisées par des états à des fins militaires, augmentant ainsi leur pouvoir de nuisance.
Anthropic : sécurité et éthique avant tout
Au sein d’Anthropic, Amodei a décidé de faire primer la sécurité et l’éthique avant toute considération de développement. Ainsi, il a établi une échelle de référence, appelée AI Safety Levels (ASL), afin d’évaluer potentiellement la dangerosité des IA en fonction de leur niveau de développement.
Actuellement, les modèles les plus avancés se situent au niveau ASL 2, présentant des risques limités. Cependant, Amodei a exprimé sa peur de voir atteindre rapidement le niveau ASL 4, où les IA seraient totalement autonomes et capables d’influencer les humains. Si des états venaient à militarisées ces IA, ils pourraient alors considérablement renforcer leur force de nuisance.
Pays à observer
Bien que l’idée de IA se répliquant par elles-mêmes soit encore un concept un peu futuriste, Amodei prévoit que certains pays pourraient être tentés d’exploiter cette technologie pour renforcer leurs capacités offensives. Il cite notamment la Corée du Nord, la Chine et la Russie comme pays à surveiller de près.
Il reconnaît que son discours peut paraître alarmiste, mais il argue qu’en tant que créateur d’IA, il sait de quoi il parle. Alors que le développement de l’IA Claude est fortement encadré d’un point de vue éthique chez Anthropic, tous les éditeurs d’IA ne sont pas forcément aussi soucieux de respecter ces principes, surtout si leur objectif est de les utiliser à des fins militaires.
Pour confirmer son inquiétude à l’égard des machines autonomes, il est prêt à faire un pari risqué en affirmant qu’il deviendra sobre s’il a tort. C’est un pari audacieux, mais qui indique bien la gravité de ses préoccupations.
La menace de voir des robots autonomes, capables de se répliquer et de survivre dans la nature, est-elle une prévision réaliste ? Ou s’agit-il à ce stade d’un scénario de science fiction ? Peut-on vraiment prédire avec certitude la tournure que prendra l’intelligence artificielle dans les années à venir? Autant de questions qui invitent à réfléchir aux enjeux et aux défis posés par l’IA.
Ça vous a plu ? 4.6/5 (22)