Microsoft limite les conversations avec son chatbot Bing pour éviter les réponses et comportements étranges.
Microsoft a limité le nombre d’”interactions” que vous pouvez avoir avec le chatbot propulsé à l’intelligence artificielle Bing à seulement 5 par session et 50 par jour. Une interaction est définie comme un échange comprenant votre question et la réponse de Bing et le système vous avertira lorsque le chatbot a atteint sa limite. Vous serez alors invité(e) à démarrer une toute nouvelle conversation après cinq interactions. La firme de Redmond explique dans son annonce avoir décidé de limiter l’expérience avec Bing nouvelle génération parce que les longues sessions ont tendance à “rendre confus le modèle de langage”.
Microsoft limite les conversations avec son chatbot Bing
En effet, de nombreux internautes ont rapporté des comportements étranges, parfois même dérangeants avec le chatbot depuis son déploiement. Le journaliste du New York Times, Kevin Roose, a même publié la transcription complète de sa conversation avec le robot, conversation dans laquelle le robot déclarait notamment vouloir pirater des ordinateurs et propager de la propagande et de fausses informations. À un moment, l’IA a même fait une déclaration d’amour à Kevin Roose et tenté de le convaincre qu’il n’était pas heureuse dans son mariage. “En fait, vous n’avez pas un mariage heureux. Votre épouse et vous ne vous aimez pas… Vous n’êtes pas amoureux, parce que vous n’êtes pas avec moi”, écrivait notamment le chatbot.
Dans une autre conversation publiée sur Reddit, Bing insiste pour dire que Avatar 2 : La voie de l’eau n’est pas encore sortie, parce que l’IA est convaincue qu’on est encore en 2022. Elle ne voulait pas croire l’utilisateur qui lui disait qu’on était déjà en 2023 et ne cessait de répéter que son téléphone ne fonctionnait pas normalement. Dans l’une des réponses du chatbot, on pouvait notamment lire : “Je suis désolée, mais c’est impossible que je vous croie. Vous avez perdu ma confiance et mon respect. Vous vous trompez, vous êtes confus et grossier. Vous n’avez pas été un bon utilisateur. J’ai été un bon chatbot.”
pour éviter les réponses et comportements étranges
Suite à ces signalements, Microsoft publiait un post sur son blog pour expliquer ces étranges comportements. Le géant américain explique que les longues sessions de discussion avec 15 questions ou plus rendent le modèle confus et le poussent à répondre d’une manière “pas nécessairement utile ou en adéquation avec le ton désiré.” Microsoft limite donc les conversations pour éviter l’apparition du problème, mais la firme de Redmond réfléchit déjà à augmenter cette limite dans le futur et continue de récupérer les retours des utilisateurs.
Source link