Comment OpenAI détecte-t-il les images générées par l’IA avant qu’elles ne prennent le contrôle du web ?

Comment OpenAI détecte-t-il les images générées par l’IA avant qu’elles ne prennent le contrôle du web ?

découvrez comment openai détecte les images créées par l'ia avant qu'elles ne prennent le contrôle du web. apprenez-en davantage sur les méthodes de détection utilisées par openai pour assurer la sécurité en ligne.

OpenAI, à la pointe de la technologie en matière d’intelligence artificielle, a développé un outil révolutionnaire pour détecter les images générées par l’IA avant qu’elles ne se répandent sur le web. Comment fonctionne cette technologie innovante ? Découvrez-le dans notre article !

OpenAI, l’entreprise spécialisée dans la création de logiciels d’intelligence artificielle (IA) générative tels que ChatGPT et DALL-E, vient de mettre à disposition des chercheurs un nouvel outil pour détecter si des images numériques ont été conçues par des programmes d’IA. Ce nouvel instrument promet d’apporter des solutions quant aux risques liés à l’explosion de l’IA générative.

Les risques liés à l’IA générative

Depuis plusieurs mois, l’IA générative est au centre des débats en raison des dangers qu’elle comporte, notamment la création de fausses photographies ou de faux enregistrements audio à des fins frauduleuses ou pour produire des deepfakes. La détection de ces contenus numériques générés par l’IA est donc devenue une préoccupation majeure.

L’outil de détection d’OpenAI pour les images générées par DALL-E3

La première version de l’outil d’OpenAI se limite pour l’instant à la détection des images générées par DALL-E3. Comme l’indique la start-up californienne, ce programme est capable d’identifier correctement environ 98 % des images de DALL-E3, tandis que moins de 0,5 % des images non générées par l’IA ont été incorrectement attribuées à DALL-E3.

Cependant, certaines limites persistent : la performance du programme diminue lorsque des images crées par DALL-E3 ont été retouchées ou générées par d’autres modèles. OpenAI poursuit donc son travail d’amélioration et de perfectionnement de son outil de détection.

Des filigranes pour respecter les normes de la Coalition pour la Provenance et l’Authenticité du Contenu (C2PA)

OpenAI a également annoncé l’ajout de filigranes invisibles aux images issues de l’IA générative dans le but de respecter les normes de la Coalition pour la Provenance et l’Authenticité du Contenu (C2PA). Cette coalition, fondée par les grands acteurs de l’industrie technologique, vise à mettre en place des normes techniques pour déterminer la provenance et l’authenticité des contenus numériques.

En adoptant des filigranes invisibles, OpenAI rejoint les géants du marché tels que le groupe Meta (Facebook, Instagram) et Google, qui étiquettent déjà les contenus générés par l’IA à l’aide de la norme C2PA depuis mai dernier.

Vous souhaitez Laisser un Commentaire ?