HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

Google veut un filigrane numérique invisible pour le contenu généré par l’IA

Google veut un filigrane numérique invisible pour le contenu généré par l’IA. Une solution prometteuse, pas infaillible, pour identifier ces contenus.

Google fait un pas de plus vers une certaine transparence dans les contenus générés par IA. Google DeepMind a annoncé SynthID, un outil d’identification et filigrane pour l’art génératif. L’entreprise explique que la technologie intègre un filigrane numérique, invisible à l’œil humain, directement dans les pixels d’une image. SynthID va être déployé auprès d’un “nombre limité” de clients qui utilisent Imagen, le générateur de Google disponible dans sa suite d’outils IA cloud.

Google veut un filigrane numérique invisible pour le contenu généré par l’IA

L’un des soucis de l’art génératif, excepté les implications éthiques, est son potentiel à créer des deepfakes, avec toutes les conséquences que cela peut entraîner. “Intégrer un filigrane sur le contenu audio et visuel pour indiquer plus clairement que le contenu est généré par une IA” fut l’un des engagements volontaires pris par les sept sociétés IA en juillet dernier, après une réunion à la Maison-Blanche. Google est la première de ces entreprises à lancer un tel système.

Google n’est pas trop rentré dans les détails de l’implémentation technique de SynthID, mais indique que le filigrane ne peut pas être retiré facilement via de simples techniques d’édition. “Trouver le bon équilibre entre l’imperceptibilité et la robustesse pour les manipulations d’images est difficile”, écrit l’entreprise dans un post sur le blog de DeepMind. “Nous avons conçu SynthID pour que la qualité d’image ne soit pas compromise et permette au filigrane de rester détectable, même après des modifications comme l’ajout de filtres, des changements de couleurs et le passage via différents algorithmes de compression avec perte – souvent utilisés pour le JPEG”, expliquent les responsables du projet Sven Gowal et Pushmeet Kohli.

La partie identification de SynthID évalue l’image sur trois niveaux de confiance du filigrane numérique : détecté, non détecté et possiblement détecté. Dans la mesure où l’outil est embarqué dans les pixels de l’image, Google explique que son système peut fonctionner aux côtés des approches basées sur les métadonnées, comme celle d’Adobe pour ses fonctionnalités génératives dans Photoshop, actuellement en bêta ouverte.

Une solution prometteuse, pas infaillible, pour identifier ces contenus

SynthID inclut deux modèles de deep learning : un pour le filigrane, un autre pour l’identification. Google explique que les deux ont été entraînés sur de nombreuses images, pour aboutir à un modèle ML combiné. “Le modèle combiné est optimisé sur la base d’objectifs, dont l’identification correcte de contenu avec filigrane et l’amélioration de l’imperceptibilité en alignant visuellement le filigrane avec le contenu original”, écrivent Sven Gowal et Pushmeet Kohli.

Google reconnait que ce n’est pas une solution parfaite, ajoutant qu’elle n’est pas “totalement protégée des manipulations extrêmes d’images”, mais le filigrane est “une approche technique prometteuse pour permettre aux gens et aux organisations de travailler avec des contenus générés par IA de manière responsable.” L’entreprise explique que l’outil pourrait être étendu à d’autres modèles IA, dont ceux qui génèrent du texte (comme ChatGPT), de la vidéo et de l’audio.

Bien que les filigranes pourraient effectivement aider à lutter contre les deepfakes, il est facile d’imaginer la course avec les hackers, avec les services qui adopteront SynthID et qui devront être mis continuellement à jour. Par ailleurs, la nature open-source de Stable Diffusion, l’un des outils de génération de contenu les plus populaires, pourrait rendre l’adoption de SynthID ou similaire au niveau de l’industrie un véritable défi. Il y a déjà de nombreuses versions qui tournent sur des PC en local. Quoi qu’il en soit, Google espère pouvoir proposer SynthID aux tierces parties intéressées “dans un futur proche”, ne serait-ce que pour améliorer la transparence de l’IA.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité