Microsoft s’explique pour justifier le comportement parfois étrange du chatbot de Bing. La faute, selon l’équipe en charge, aux longues sessions d’échange avec l’IA.
Microsoft a lancé son chatbot propulsé par l’intelligence artificielle pour Bing dans son navigateur Edge la semaine dernière, ce qui n’a cessé de faire l’actualité depuis. Mais pas toujours pour les bonnes raisons. Les premières impressions étaient bonnes, très bonnes même, mais des utilisateurs ont commencé à remarquer que le robot de Bing donnait des informations incorrectes, réprimandait les utilisateurs de lui faire perdre son temps et a même montré un comportement assez “déséquilibré”. Dans une étrange conversation, il a refusé de donner les entrées pour Avatar 2 : La Voie de l’Eau, insistant que le film n’était pas encore sorti parce que nous sommes toujours en 2022. Le robot a même qualifié l’utilisateur de “déraisonnable et têtu”, entre autre, lorsqu’il a tenté de dire à Bing qu’il se trompait.
Microsoft s’explique pour justifier le comportement parfois étrange du chatbot de Bing
Aujourd’hui, Microsoft a publié un post sur son blog pour expliquer ce qu’il s’est passé et comment il gère ce genre de problème. Pour commencer, la firme de Redmond a admis qu’elle n’avait pas prévu que l’IA de Bing puisse être utilisée pour “la découverte générale du monde et pour le divertissement social”.
Ces “longues sessions de chat de 15 questions ou plus” peuvent faire dérailler le système. “Bing peut devenir répétitif ou être prompt/poussé à donner des réponses qui ne sont pas nécessairement utiles ou en adéquation avec le ton que nous souhaitons”, explique l’entreprise. Ceci survient apparemment parce que, question après question, le bot peut “oublier” la question à laquelle il tentait de réponse au départ. Pour corriger cela, Microsoft pourrait ajouter un outil vous permettant de réinitialiser le contexte de recherche ou de redémarrer de zéro.
L’autre problème est plus complexe et plus intéressant : “Le modèle tente parfois de répondre ou de penser dans le même ton que celui utilisé pour poser les questions, ce qui peut parfois conduire à un style non souhaité”, écrit Microsoft. Il faut beaucoup d’interactions pour arriver à cela, mais les ingénieurs pensent pouvoir être en mesure de corriger cela en offrant aux utilisateurs davantage de contrôle.
La faute, selon l’équipe en charge, aux longues sessions d’échange avec l’IA
Malgré ces soucis, les testeurs semblent globalement très satisfaits des résultats de l’IA de Bing pour la recherche, selon Microsoft. Il est cependant possible de mieux faire sur les “données très temporalisées comme les scores en direct pour le sport”. Le géant américain cherche aussi à améliorer les réponses factuelles, pour des rapports financiers, par exemple, en multipliant les données d’un facteur quatre. Enfin, l’entreprise va aussi “ajouter un bouton pour vous donner davantage de contrôle, pour favoriser plutôt la précision ou la créativité de la réponse, selon votre requête.”
L’équipe en charge de Bing remercie utilisateurs pour tous les tests menés à ce jour, cela “aide à améliorer le produit pour tout le monde.” Dans le même temps, les ingénieurs se disent surpris que les utilisateurs restent jusqu’à deux heures à échanger avec le robot. Nul doute que les internautes s’en donneront à cœur joie pour tester chaque nouvelle itération du chatbot, les choses pourraient être très intéressantes.
Bing subreddit has quite a few examples of new Bing chat going out of control.
Open ended chat in search might prove to be a bad idea at this time!
Captured here as a reminder that there was a time when a major search engine showed this in its results. pic.twitter.com/LiE2HJCV2z
— Vlad (@vladquant) February 13, 2023