Le géant développe une technologie capable de repérer les contenus produits par des outils d’IA tiers.
Tl;dr
- Meta prévoit d’étiqueter davantage d’images générées par l’IA.
- L’entreprise travaille sur des normes de signalement avec des partenaires de l’industrie.
- Les outils développés par Meta pourront détecter les signaux invisibles à grande échelle.
- Les utilisateurs devront ajouter eux-mêmes les étiquettes pour les contenus vidéo et audio générés par l’IA.
Des images de réalité virtuelle pour une réalité plus transparente
Meta, l’entreprise parente de Facebook, s’apprête à intensifier le marquage des images générées par intelligence artificielle. Une initiative qui s’inscrit dans une démarche plus large visant à contrer la désinformation, particulièrement préoccupante en période d’élections majeures comme aux États-Unis.
De nouvelles normes en développement
Selon Nick Clegg, président des affaires mondiales de Meta, l’entreprise travaille de concert avec des partenaires de l’industrie pour mettre au point des normes permettant de signaler un média – image, vidéo ou enregistrement audio – dont la création a impliqué l’usage d’IA. Ces nouvelles normes devraient être intégrées dans le courant de l’année à venir.
La détection des signaux invisibles
Meta développe actuellement des outils capables de détecter, à grande échelle, des signaux invisibles, c’est-à-dire des informations générées par l’IA conformément aux normes techniques C2PA et IPTC. L’entreprise s’attend ainsi à pouvoir identifier et marquer les images provenant de Google, OpenAI, Microsoft, Adobe et autres acteurs majeurs.
Une responsabilité partagée
En ce qui concerne les contenus vidéo et audio générés par l’IA, Meta s’appuie sur l’esprit de responsabilité de ses utilisateurs. Ceux-ci sont en effet invités à signaler eux-mêmes les contenus générés par des outils d’IA tiers, en attendant que Meta développe ses capacités de détection dans ce domaine.
Source link