HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

OpenAI crée une équipe pour régner sur l’IA superintelligente

OpenAI crée une équipe pour régner sur l’IA superintelligente. Une bonne idée qui veut masquer le problème actuel.

OpenAI met sur pied une équipe dédiée pour tenter de gérer les risques d’une intelligence artificielle superintelligente. Une superintelligence est un modèle IA hypothétique qui serait plus intelligent que l’humain le plus talentueux et le plus intelligent, qui excelle dans de nombreux domaines d’expertise au lieu d’un unique domaine comme les générations précédentes de modèles.

OpenAI crée une équipe pour régner sur l’IA superintelligente

OpenAI est convaincu qu’un tel modèle pourrait voir le jour avant la fin de la décennie. “La superintelligence sera la technologie la plus percutante que l’humanité n’a jamais inventée, et cela pourrait nous aider à résoudre nombre de problèmes très importants de notre monde”, explique l’organisation à “but lucratif plafonné”. “Mais la grande puissance de la superintelligence pourrait aussi être très dangereuse et conduire à une perte d’autonomie de l’humanité ou même à l’extinction de l’humanité.”

Cette nouvelle équipe sera codirigée par le directeur scientifique d’OpenAI, Ilya Sutskever, et Jan Leike, responsable de l’alignement. De plus, OpenAI explique vouloir dédier 20 % de sa puissance de calcul actuelle à cette initiative, avec pour objectif de développer un chercheur d’alignement automatisé. Un tel système viendrait, théoriquement, assister OpenAI pour s’assurer qu’une superintelligence reste sûre à utiliser et alignée avec les valeurs humaines. “Bien que ce soit un objectif extrêmement ambitieux et que nous n’ayons aucune garantie d’y parvenir, nous sommes optimistes quant au fait qu’un effort ciblé et concerté puisse résoudre ce problème”, déclare OpenAI. “Il y a de nombreuses idées qui se sont montrées prometteuses dans des expérimentations préliminaires, nous avons des métriques très utiles pour quantifier nos progrès et nous pouvons utiliser les modèles d’aujourd’hui pour étudier nombre de ces problèmes de manière empirique.” Le laboratoire ajoutait qu’il partagerait une roadmap plus précise dans quelque temps.

Une bonne idée qui veut masquer le problème actuel

Cette annonce survient alors que des gouvernements aux quatre coins du globe réfléchissent à comment réguler l’industrie naissante de l’IA. Aux États-Unis, Sam Altman, le PDG d’OpenAI, a rencontré plus de 100 législateurs fédéraux ces derniers mois. Publiquement, il déclare qu’une régulation de l’IA est “essentielle” et qu’OpenAI est “impatient” de travailler avec ces derniers. Mais nous devrions rester sceptiques face à de telles déclarations et à des initiatives comme l’équipe de Superalignement d’OpenAI. En concentrant l’attention du public sur des risques qui pourraient ne jamais se matérialiser, des organisations comme OpenAI transfèrent le fardeau de la régulation à plus tard, alors que c’est un problème de maintenant. Il y a encore énormément à faire pour l’IA autour du travail, de la désinformation, de la gestion des droits d’auteur. Et c’est à faire maintenant, pas dans le futur.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité