HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

Une étude montre que l’IA pourrait vérifier les citations sur Wikipedia pour améliorer la fiabilité

Une étude montre que l’IA pourrait vérifier les citations sur Wikipedia pour améliorer la fiabilité. Un outil fort utile mais de nombreux progrès restent encore à faire.

Vous ne pouvez pas croire tout ce que vous lisez sur une page Wikipedia, c’est pour cela qu’il est important de bien suivre les sources originales citées dans les notes en bas de page. Mais parfois, même ces sources peuvent vous induire en erreur. Des chercheurs ont mis au point une intelligence artificielle pour améliorer la fiabilité des références Wikipedia en entraînant ses algorithmes à identifier les citations douteuses.

Une étude montre que l’IA pourrait vérifier les citations sur Wikipedia pour améliorer la fiabilité

Le programme, baptisé SIDE, fait deux choses : il vérifie si une source est sérieuse et en suggère de nouvelles. Cependant, l’IA part du principe qu’une affirmation sur Wikipedia est vraie. Cela signifie que, s’il peut vérifier la validité d’une source, il ne vérifie pas l’affirmation en elle-même.

Dans une étude, les gens préféraient utiliser les citations suggérées par l’IA dans 70 % des cas. Les chercheurs ont découvert que dans près de 50 % des cas, SIDE a proposé une source qui était déjà utilisée par Wikipedia comme référence principale. Et dans 21 % des cas, SIDE avait un coup d’avance en proposant une recommandation qui était déjà déclarée appropriée par des humains dans l’étude.

Si cette IA semble démontrer qu’elle peut effectivement aider à vérifier les informations sur Wikipedia, les chercheurs admettent que des programmes alternatifs peuvent faire mieux, tant en termes de qualité que de vitesse. SIDE est limité en capacité, il ne considère par exemple que des références qui correspondent à des pages web. En réalité, Wikipedia cite des livres, des articles scientifiques et autres informations présentés via d’autres media au-delà du texte, comme des images ou des vidéos. Mais outre ses limitations, l’objectif premier de Wikipedia est que chaque rédacteur dans n’importe quel article peut assigner une référence à un sujet. Les chercheurs suggèrent que l’utilisation de Wikipedia en lui-même pourrait limiter l’étude. Ils font ici allusion au fait que les individus qui introduisent des citations dans le site peuvent introduire des biais sur la nature des sujets en question.

Un outil fort utile mais de nombreux progrès restent encore à faire

Et dans le même temps, nous savons bien que tout programme, et particulièrement une IA qui dépend de son entraînement, s’expose aux biais de son développeur. Les données utilisées pour entraîner et évaluer les modèles de SIDE pourraient être limitées en ce sens. Quoi qu’il en soit, les avantages de l’utilisation d’une IA pour faciliter le fact-checking, ou ne serait-ce que comme outil supplémentaire, pourrait avoir des applications ailleurs. Wikipedia et les autres sociétés sociales doivent composer avec des personnes malintentionnées et autres bots qui inondent les plateformes de fausses informations. Le besoin de lutter contre ces dernières pourrait être catalisé par des outils IA, comme SIDE, pensés et conçus dans ce but, mais il y a encore des progrès à faire.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité