OpenAI ouvre un programme de bug bounty pour ChatGPT, avec des récompenses de 200 à 20 000 $.
OpenAI a décidé de faire appel au public pour trouver des bugs dans ChatGPT, en annonçant un “Programme de Bug Bounty” visant à récompenser les personnes qui signalent des failles de sécurité, des vulnérabilités ou d’autres problèmes avec le système d’intelligence artificielle (IA).
OpenAI ouvre un programme de bug bounty pour ChatGPT
Ce programme est ouvert à tous, des chercheurs et développeurs aux simples particuliers curieux d’explorer cette technologie. Les récompenses sont données en cash, à hauteur de 200 $ pour les “découvertes de faible sévérité” jusqu’à 20 000 $ pour les “découvertes exceptionnelles”. C’est la plateforme dédiée Bugcrowd qui se charge des soumissions et des paiements.
Google et Apple comptent parmi les sociétés de la tech ayant déjà implémenté des programmes de bug bounty. En 2019, la firme de Mountain View avait déboursé pas moins de 6,5 millions de dollars à celles et ceux qui avaient trouvé et signalé des bugs, allant jusqu’à signer un chèque de 201 337 $ pour une seule récompense. La firme de Cupertino, elle, va plus loin encore avec un cachet pouvant atteindre les 2 millions de dollars pour quiconque trouve des moyens de “contourner les protections spécifiques du Mode Verrouillage”.
Avec des récompenses de 200 à 20 000 $
ChatGPT a dû faire face à un certain nombre de bugs ces dernières semaines. Le mois dernier, il avait fallu déconnecter tout le système après que des utilisateurs signalaient voir des titres de conversations qui n’étaient pas les leurs. Quelques jours seulement plus tard, un utilisateur sur Twitter indiquait avoir découvert plus de 80 plugins secrets en piratant ChatGPT.
Tous les bugs signalés à OpenAI ne seront pas éligibles à une récompense financière, y compris le jailbreak ou même parvenir à faire dire au modèle quelque chose de négatif. Cette annonce de ce programme de bug bounty tente aussi par là de montrer que l’entreprise se préoccupe de la confidentialité et la sécurité, mais elle ajoute aussi que “bien que nous travaillons dur pour limiter les risques, nous ne pouvons prédire toutes les manières dont les utilisateurs utiliseront [la] technologie dans le monde réel.” Le temps nous dira si cette initiative porte ses fruits.
Source link