HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

des hallucinations signalées dans des situations à haut risque

On rapporte que le modèle Whisper d’OpenAI « hallucine » dans des situations à haut risque.

Tl;dr

  • L’outil de transcription Whisper d’OpenAI crée des textes erronés potentiellement dangereux.
  • Whisper est largement utilisé, y compris dans le secteur de la santé, malgré les erreurs signalées.
  • OpenAI recommande de ne pas utiliser Whisper dans des contextes décisionnels cruciaux.

Whisper d’OpenAI : un outil de transcription inventif mais trompeur

Des chercheurs ont découvert que Whisper, l’outil de transcription basé sur l’audio d’OpenAI, a la fâcheuse tendance d’inventer des choses qui n’ont jamais été dites, avec des conséquences potentiellement dangereuses. C’est ce que révèle un nouveau rapport.

Des « hallucinations » préoccupantes

Selon APNews, le modèle d’IA Whisper invente du texte (phénomène communément appelé « hallucination »), créant ainsi des sorties absurdes qui n’ont aucun lien avec le matériel d’entraînement utilisé. Les erreurs de Whisper peuvent inclure des commentaires raciaux, des incitations à la violence et des traitements médicaux fantaisistes.

Une adoption précoce malgré les risques

Whisper est intégré à certaines versions de ChatGPT et est une fonctionnalité intégrée dans les plateformes de cloud computing de Microsoft et Oracle. Malgré les risques, les fournisseurs de soins de santé commencent à adopter cet outil pour transcrire les consultations des patients avec les médecins. Le fabricant de Whisper prétend que l’outil a une « robustesse et une précision quasi humaines » et a été adopté par plus de 30 000 cliniciens aux États-Unis. Cependant, les chercheurs mettent en garde contre cette adoption, suite à des problèmes identifiés lors de différentes études.

Des conséquences potentiellement graves

Les erreurs de Whisper pourraient avoir des « conséquences vraiment graves », en particulier dans le cadre des soins de santé, comme l’a souligné la professeure de Princeton, Alondra Nelson. « Personne ne veut d’un mauvais diagnostic », a-t-elle déclaré. Il y a donc des appels pour que OpenAI s’attaque au problème. Selon William Saunders, ancien employé, « c’est problématique si vous mettez cela en circulation et que les gens sont trop confiants dans ce qu’il peut faire et l’intègrent dans tous ces autres systèmes ».

En dépit de ces problèmes, les entreprises continuent à développer des outils et des programmes d’IA, et les « hallucinations » continuent d’être un problème prévalent. En ce qui concerne la réponse d’OpenAI aux hallucinations, l’entreprise recommande de ne pas utiliser Whisper dans des « contextes de prise de décision, où des défauts de précision peuvent entraîner des défauts prononcés dans les résultats ».


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité