Microsoft et OpenAI ont confirmé à Engadget que la technique en question ne contournait pas leurs filtres de sécurité.
Tl;dr
- Un manager Microsoft découvre des failles de sécurité sur DALL-E 3 d’OpenAI.
- Il allègue que ces failles pourraient permettre la génération d’images violentes ou explicites.
- Frustré par la réaction de Microsoft, il porte sa revendication devant les politiques.
- Les failles découvertes pourraient être liées aux deepfakes pornographiques de Taylor Swift.
Des failles dans la sécurité de l’IA
Shane Jones, un leader en ingénierie chez Microsoft, révèle que DALL-E 3, le produit phare de l’entreprise OpenAI, présente des vulnérabilités de sécurité. Selon lui, ces failles pourraient permettre aux utilisateurs de générer des images violentes ou explicites, une situation qui rappelle tristement les récents incidents visant la chanteuse Taylor Swift.
Alerte ignorée et censure
Jones rapporte avoir découvert une faille lui permettant de contourner les garde-fous de DALL-E 3. Il a fait part de ses préoccupations à ses supérieurs chez Microsoft, qui l’ont poussé à rapporter le problème directement à OpenAI. Peu de temps après avoir partagé son inquiétude, « l’erreur pourrait permettre la génération d’images nocives violentes et troublantes », il a tenté d’alerter le public sur LinkedIn. Cependant, il soutient que la réponse de Microsoft a été d’exiger la suppression de son post.
Une lutte pour la sécurité publique
Dans une lettre envoyée à ses représentants politiques, Jones appelle à la cessation de l’utilisation publique de DALL-E 3 jusqu’à ce qu’OpenAI puisse corriger les problèmes. Il estime nécessaire la mise en place d’un système de signalement et de suivi des vulnérabilités spécifiques à l’IA, tout en protégeant les employés qui dénoncent ces failles.
Source link