La quête pour intégrer la moralité humaine dans l’intelligence artificielle (IA) prend un tournant audacieux. OpenAI, à la pointe de l’innovation technologique, investit dans une recherche novatrice menée par des chercheurs de l’Université Duke. L’objectif : créer des algorithmes qui anticipent les jugements moraux humains. Ce projet, bien que discret, suscite des questions cruciales sur la possibilité réelle d’atteindre un tel idéal.
OpenAI et son engagement pour une IA éthique
OpenAI a récemment révélé, dans une déclaration à l’IRS, avoir accordé une subvention à l’Université Duke pour un projet intitulé « Research AI Morality ». Cette initiative s’inscrit dans le cadre d’un programme plus large, doté d’un budget de 1 million de dollars sur trois ans. En dépit des détails limités disponibles, il est clair que ce financement témoigne de l’engagement d’OpenAI pour une IA éthiquement responsable.
Le projet est dirigé par le professeur Walter Sinnott-Armstrong, spécialiste de l’éthique pratique, et son collaborateur Jana Borg. Ensemble, ils ont déjà exploré comment l’IA peut agir comme un « GPS moral », aidant les humains à faire des choix éthiques plus éclairés. Leur travail inclut la création d’algorithmes pour décider, par exemple, de la répartition des dons d’organes.
Les défis complexes de la moralité en IA
Malgré ces avancées, la notion de moralité reste un concept complexe et nuancé difficilement accessible pour la technologie actuelle. En 2021, l’Allen Institute for AI a développé Ask Delphi, un outil censé fournir des recommandations éthiques. Bien que performant sur des dilemmes moraux simples, il démontrait des lacunes notables lorsqu’il suffisait de reformuler une question pour altérer complètement sa réponse.
Cette limitation s’explique par le fonctionnement des systèmes d’IA modernes, qui reposent sur des modèles d’apprentissage automatique. Ces modèles apprennent à partir de nombreux exemples tirés du web, mais n’ont ni compréhension des concepts éthiques ni de la logique et des émotions impliquées dans les décisions morales.
Les biais culturels et éthiques des systèmes d’IA
Un des défis majeurs d’OpenAI est de surmonter les biais inhérents aux données d’entraînement de l’IA. Ces données sont souvent dominées par les valeurs des nations occidentales, ce qui peut entraîner des réponses qui n’expriment pas les valeurs d’autres cultures.
Par exemple, le système Delphi a jugé que l’hétérosexualité était plus « moralement acceptable » que l’homosexualité. Cela illustre comment les biais culturels peuvent influencer les jugements moraux de l’IA, un enjeu que les chercheurs doivent impérativement adresser.
🧠 Éthique | OpenAI finance le développement de l’IA pour prédire les jugements moraux humains. |
🔍 Complexité | La moralité est un concept complexe, difficile à modéliser pour l’IA actuelle. |
🌐 Biais | Les données d’apprentissage de l’IA reflètent souvent des biais culturels spécifiques. |
L’avenir de la moralité dans l’intelligence artificielle
Les chercheurs soutenus par OpenAI s’efforcent de créer un algorithme qui pourrait anticiper les jugements moraux humains. Cela implique de prendre en compte diverses approches éthiques, telles que le kantianisme et l’utilitarisme, chacune ayant ses propres mérites et limitations.
Bien que le chemin soit parsemé d’embûches, cette initiative soulève des questions fondamentales sur le rôle et la responsabilité de l’IA dans notre société. La technologie peut-elle réellement comprendre et appliquer la moralité humaine ?
Alors que la recherche progresse, elle ouvre de nouvelles perspectives fascinantes et incite à la réflexion : l’IA pourra-t-elle un jour juger avec une moralité équivalente à celle des humains ?