Un nouvel outil permet aux artistes de lutter contre les robots IA en dissimulant des données corrompues. Nightshade est un prolongement de l’outil Glaze.
L’IA représente un grand risque de vol du travail créatif des artistes et la question de la lutte contre ce phénomène est déjà sur nombre de lèvres. La dernière initiative voulant protéger les artistes et leurs créations est baptisée Nightshade, c’est un outil permettant aux artistes d’ajouter des pixels indétectables dans leurs contenus qui vont venir corrompre les données d’entraînement de l’IA, comme l’explique le MIT Technology Review. La création de Nightshade survient alors que des sociétés majeures comme OpenAI et Meta font face à des procès pour violation de droit d’auteur et vol de travaux personnels sans dédommagement.
Un nouvel outil permet aux artistes de lutter contre les robots IA en dissimulant des données corrompues
Le professeur de l’Université de Chicago, Ben Zhao, et son équipe ont créé Nigthshade, lequel est actuellement en cours de relecture par d’autres experts, pour tenter de redonner un certain pouvoir aux artistes. Les scientifiques ont testé leur outil sur les modèles récents de Stable Diffusion et une IA qu’ils ont eux-mêmes mis sur pied de zéro.
Nightshade fonctionne comme un poison, altérant la manière dont un modèle de machine learning produit du contenu et ce à quoi ressemble le produit fini. Par eemple, celui-ci pourrait faire en sorte qu’un système IA interprète un prompt de sac à main comme un grille-pain ou affiche une image de chat à la place d’un chien demandé par l’utilisateur.
Nightshade est un prolongement de l’outil Glaze
Nightshade fait suite au lancement d’un autre outil de Ben Zhao et son équipe, Glaze, qui modifie lui aussi subtilement les pixels dans le travail d’un artiste, mais il fait en sorte que les systèmes IA détectent cette image initiale de manière totalement différente. Un artiste qui veut protéger son travail peut envoyer celui-ci à Glaze et décider d’utiliser Nightshade.
Des technologies comme Nightshade pourraient parvenir à convaincre les géants de l’IA de dédommager les artistes pour leur contenu, une alternative bien meilleure que de perturber ainsi tous les systèmes. Les sociétés qui chercheraient à éliminer ce poison devraient alors localiser le moindre élément de données corrompues, une tâche des plus chronophages. Ben Zhao avertit par ailleurs que certains individus pourraient tenter d’utiliser cet outil de manière malveillante, mais pour que les conséquences soient importantes, il faudrait des milliers de contenus corrompus.
Source link