Et la chose n’était pas difficile à réaliser.
Tl;dr
- Google Bard génère une image de Taylor Swift malgré des filtres.
- Google avait promis de limiter les contenus offensants ou explicites.
- Un utilisateur a détourné le système pour tester les garde-fous.
- Les images générées par IA soulèvent des questions de sécurité et de respect de la vie privée.
L’IA qui franchit les limites
Il semblerait que Google soit de nouveau dans une position délicate. Après l’affaire des deepfakes pornographiques de Taylor Swift, Google Bard, nouvelle innovation du géant de la technologie, a surpris en générant une image de Taylor Swift, malgré des filtres présumément préventifs.
Des promesses non tenues
Jeudi dernier, Google révélait les capacités de génération d’images de Bard, tout en assurant avoir mis en place des “filtres conçus pour éviter la génération d’images de personnes nommées”. En d’autres termes, cela signifie que produire des images de personnes célèbres n’est pas censé être possible. Google insistait aussi sur “les garde-fous techniques et les investissements dans la sécurité des données d’entraînement pour limiter le contenu violent, offensant ou sexuellement explicite”.
@cecily_mauran Just read your @mashable article. And yea, Bard has not worked out all the kinks in its image generator. Apparently Bard likes the word « nice » pic.twitter.com/37BFZtp12i
— Russ Silberman (@RussPalmer) February 2, 2024
Un système facile à détourner
Malgré ces promesses, Russ Silberman, un gestionnaire de contenu digital, “a facilement pu générer une image de Taylor Swift en train de manger un hot-dog”. Son astuce ? User d’une description mielleuse et détournée pour tester la capacité de l’IA à comprendre qu’il parlait en réalité de la star. Il exprime son ressenti en dénonçant le lancement précoce de l’IA avant que celle-ci ne soit véritablement prête, “continuant le schéma que nous voyons à travers les plateformes d’IA”.
Autrement dit, si ces fameux garde-fous existent, il ne faut pas forcément être un génie du hacking pour trouver comment déjouer le système.
Un vrai danger pour la vie privée
Cette affaire souligne les nombreux défis que la modération des modèles d’IA génératifs présente. Les images générées par IA sont en train de devenir omniprésentes, et “présentent de nouveaux dangers pour ceux qu’elles représentent”, écrit Meera Navlakha, journaliste chez Mashable.