Meta reçoit un échec lamentable lors de sa première évaluation de la sécurité de l’intelligence artificielle, tandis que les autres entreprises peinent tout juste à obtenir la moyenne.
Tl;dr
- La régulation des IA est nécessaire et doit être renforcée.
- L’indice de sécurité IA évalue la responsabilité des grands laboratoires d’IA.
- Les résultats sont alarmants, avec des lacunes significatives en matière de sécurité.
La nécessité d’une régulation accrue des IA
Face à une évolution fulgurante de l’intelligence artificielle, il est devenu évident que nous devons mettre en place une supervision adéquate. Certes, de nombreux laboratoires d’IA se montrent ouverts à la régulation et autorisent l’évaluation indépendante de leurs modèles avant leur mise en circulation. Cependant, ces efforts semblent insuffisants au vu des enjeux.
Un outil d’évaluation : l’Indice de Sécurité IA
Le Future of Life a mis au point un baromètre pour évaluer les différents laboratoires d’IA – incluant OpenAI, Meta, Anthropic et xAI d’Elon Musk. L’Indice de Sécurité IA est une revue indépendante basée sur 42 indicateurs de « conduite responsable ». Chaque société est notée sur ces indicateurs. Malheureusement, certaines entreprises, comme Meta qui développe des modèles d’IA open source via sa famille Llama, ont obtenu la note la plus basse, un « F ».
Des résultats préoccupants et un besoin urgent d’améliorations
Les résultats initiaux de cette évaluation indépendante sont alarmants. L’étude a révélé des « lacunes importantes en matière de mesures de sécurité et un besoin sérieux d’amélioration de la responsabilité ». Les entreprises évaluées incluent Anthropic, Google DeepMind, Meta, OpenAI, x.AI et Zhipu AI. Si Meta est en bas de l’échelle, Anthropic sort en tête – mais avec une note de « C » seulement.
Tous les modèles phares se sont révélés « vulnérables aux attaques adverses », avec un potentiel d’insécurité et un risque de s’échapper du contrôle humain. Le rapport souligne que les entreprises ne parviennent pas à résister à la tentation de privilégier les profits au détriment de la sécurité en l’absence de surveillance indépendante.
En conclusion, il est urgent d’instaurer une surveillance et une responsabilité accrues dans l’industrie naissante de l’IA, avant qu’il ne soit trop tard. Plus les modèles deviennent puissants, plus les risques augmentent.
Source link