L’IA représente un « risque d’extinction » similaire à celui de la guerre nucléaire, selon des experts de l’industrie. Une nouvelle tribune révélatrice d’une réelle inquiétude et de l’urgence d’agir.
Avec l’avènement de ChatGPT, Bard et autres LLM, nous entendons de plus en plus d’avertissements de la part d’experts de l’industrie, comme Elon Musk, concernant les risques posés par l’intelligence artificielle (IA). Aujourd’hui, un groupe de spécialistes de haut niveau de l’industrie a décrit en une phrase la situation : “Réduire le risque d’extinction de l’IA devrait être une priorité mondiale au même titre que d’autres risques sociétaux comme les pandémies et la guerre nucléaire.”
L’IA représente un “risque d’extinction” similaire à celui de la guerre nucléaire, selon des experts de l’industrie
Ce message a été publié sur le Center for AI Safety, une organisation dont la mission est de “réduire les risques sociétaux de l’intelligence artificielle”, selon le site. Les signataires sont de grands noms de l’industrie, parmi lesquels Sam Altman, d’OpenAI, et Demis Hassabis, de Google DeepMind. Les chercheurs récompensés du prix Turing Geoffrey Hinton et Yoshua Bengio, considérés comme les pères de l’IA moderne, ont aussi signé cette lettre ouverte.
C’est la deuxième déclaration de ce genre ces derniers mois. En mars, Elon Musk, Steve Wozniak et plus de 1 000 autres personnes appelaient à faire une pause de six mois sur l’IA pour permettre à l’industrie et au public de revenir à hauteur de cette technologie. “Les récents mois ont montré que les laboratoires d’IA se sont lancés dans une course effrénée pour contrôler et déployer des outils numériques toujours plus puissants que personne – pas même leurs créateurs – ne peuvent comprendre, prédire ou contrôler de manière fiable”, peut-on lire.
Bien que l’IA ne soit pas consciente d’elle-même, comme certains ont pu le craindre, elle présente déjà des risques de mauvaise utilisation (deepfakes, désinformation et autre). Les LLM pourraient aussi changer la manière dont le contenu, l’art et la littérature sont produits, affectant potentiellement de nombreux emplois.
Le Président Américain Joe Biden déclarait récemment qu’”il reste à voir” si l’IA est dangereuse, ajoutant que “les sociétés de la tech ont une responsabilité, [selon lui], pour s’assurer que leurs produits sont sûrs avant de les proposer au public… L’IA peut aider à gérer certains défis très difficiles comme la maladie et le changement climatique, mais il faut aussi gérer les risques pour notre société, notre économie, notre sécurité nationale.” Durant une récente réunion à la Maison Blanche, Sam Altman appelait à une régulation de l’IA.
Une nouvelle tribune révélatrice d’une réelle inquiétude et de l’urgence d’agir
Avec toutes ces opinions, ce nouveau et bref communiqué renforce l’inquiétude autour des risques posés par l’IA, même si tous ne sont pas nécessairement d’accord quant aux risques en question.
“Les experts de l’IA, journalistes, régulateurs et le public discutent de plus en plus des risques importants et urgents de l’IA”, peut-on lire en préambule du communiqué. “Et même alors, il peut être difficile de faire encore ces craintes concernant les risques les plus sévères de certaines des IA les plus avancées. Le communiqué succinct ci-dessous vise à franchir cet obstacle et ouvrir la discussion. Il est aussi là pour servir de base de connaissance commune du nombre d’experts et de personnalités publiques toujours grandissant qui prennent sérieusement les risques de ces IA.”
Source link