HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

Un humain a battu une IA au jeu de go… avec l’aide d’un ordinateur

Un joueur humain parvient à vaincre l’une des meilleures IA de jeu de go grâce à une faille découverte par une autre intelligence artificielle.

Un joueur de go amateur, mais très doué, a battu un système d’intelligence artificielle très performant. Cette prouesse a été possible grâce à une faille découverte par un autre ordinateur, comme le rapporte The Verge. En exploitant cette faille, le joueur américain Kellin Pelrine est parvenu à vaincre le système KataGo, remportant 14 de leurs 15 parties sans davantage d’aide de son allié l’ordinateur. C’est l’une des très rares victoires pour les humains depuis celle d’AlphaGo en 2016 qui a aidé à ouvrir la voie à la frénésie actuelle autour de l’IA. Cela montre aussi que même les algorithmes d’IA les plus avancés peuvent avoir des angles morts.

Un joueur humain parvient à vaincre l’une des meilleures IA de jeu de go

La victoire de Kellin Pelrine a été rendue possible grâce à la société de recherche spécialisée FAR AI, qui a conçu un programme permettant de mettre en évidence les failles de KataGo. Après avoir joué un million de parties, ce logiciel a pu détecter une faille qui pourrait être exploité par un joueur humain assez doué. Ce n’est “pas complètement trivial, mais pas extrêmement difficile” à apprendre, déclarait Kellin Pelrine. L’homme a utilisé la même méthode pour battre Leela Zero, une autre IA de go très évoluée.

Voici comment cela fonctionne : l’objectif est de créer une grande “boucle” de pierres pour encercler un groupe de l’adversaire, puis de distraire l’ordinateur en réalisant des déplacements dans d’autres zones du plateau. Même lorsque son groupe était presque encerclé, l’intelligence artificielle a échoué à remarquer cette stratégie. “En tant qu’humain, ce serait assez facile à remarquer”, déclarait Kellin Pelrin, dans la mesure où les pierres qui entourant apparaissent clairement sur le plateau.

grâce à une faille découverte par une autre intelligence artificielle

Cette faille démontre que les systèmes d’IA ne peuvent pas vraiment “penser” au-delà de leur apprentissage. Ils font alors souvent des choses qui semblent totalement stupides pour l’homme. Nous avons déjà pu le voir avec des chatbots comme celui de Microsoft dans son moteur de recherche Bing. Si le système est plutôt bon pour des tâches répétitives simples comme mettre au point un itinéraire, il a livré des informations fausses, réprimandé des utilisateurs pour lui avoir fait perdre son temps et même montré un comportement “déséquilibré” – très certainement dû au modèle sur lequel il a été entraîné -.

Lightvector, le développeur de KataGo, est probablement au courant de cette faille, que les joueurs exploitent d’ailleurs depuis plusieurs mois maintenant. Dans un post sur GitHub, l’entreprise explique travailler sur un correctif pour plusieurs types d’attaques de ce genre.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité