Dans une ère où l’intelligence artificielle façonne de plus en plus notre quotidien, la distinction entre le réel et le virtuel devient floue. Meta prend des mesures proactives contre le fléau des fausses images, plus communément appelées « deepfakes ». Ces images, générées par IA, sont devenues si sophistiquées qu’elles peuvent tromper l’œil humain, posant un risque significatif de désinformation et de mésinformation.
Une lutte acharnée
Nick Clegg, responsable des affaires internationales chez Meta, a annoncé dans une note de blog datée du 6 février 2024, que l’entreprise s’apprête à lancer de nouveaux outils pour identifier les images générées par IA sur ses plateformes. « Dans les prochains mois, nous étiquetterons les images que les utilisateurs publient sur Facebook, Instagram et Threads lorsque nous pourrons détecter des signaux conformes aux normes de l’industrie montrant qu’elles sont générées par l’IA« , a-t-il déclaré.
Cette initiative inclut l’application de « watermarks » ou filigranes, qui permettront d’identifier clairement les images créées par des intelligences artificielles. Meta ne se limite pas à marquer les images issues de son propre outil, Meta AI, mais vise également à étendre cette pratique aux contenus créés via les outils d’autres entreprises telles que Google, OpenAI, Microsoft, Adobe, Midjourney, ou encore Shutterstock.
Une démarche essentielle
Cette démarche survient à un moment critique, où l’utilisation de l’IA générative suscite des inquiétudes quant à son exploitation pour influencer ou manipuler l’opinion publique, notamment dans le contexte d’événements politiques majeurs comme les élections présidentielles américaines de 2024. Bien que Nick Clegg reconnaisse que l’étiquetage à grande échelle des images générées par IA ne résoudra pas entièrement le problème des deepfakes, il est convaincu que cela contribuera significativement à limiter leur prolifération, dans la mesure permise par les technologies actuelles.
Cette initiative de Meta s’inscrit dans un effort plus large de l’industrie technologique pour établir des garde-fous contre l’utilisation malveillante de l’IA, soulignant l’importance de la responsabilité et de la transparence dans l’évolution de ces technologies. Qu’en pensez-vous ?
Ça vous a plu ? 4.6/5 (24)