HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

OpenAI utilise GPT-4 pour concevoir un système de modération de contenu évolué

OpenAI utilise GPT-4 pour concevoir un système de modération de contenu évolué. Sera-t-il plus efficace que les systèmes actuellement en place ?

La modération de contenu est l’un des soucis les plus délicats de l’internet depuis toujours. Le développeur de ChatGPT, OpenAI, pense pouvoir aider et il met aujourd’hui les capacités de GPT-4 à l’épreuve, utilisant son grand modèle multimodal pour “concevoir un système de modération de contenu évolutif, cohérent et personnalisable”.

OpenAI utilise GPT-4 pour concevoir un système de modération de contenu évolué

L’entreprise écrit sur un post de blog que GPT-4 peut non seulement aider à prendre des décisions de modération, mais aussi aider à mettre en place les directives et gérer les changements progressifs dans ces dernières, “réduisant le cycle de plusieurs mois à quelques heures”. Elle affirme que le modèle peut détecter les nombreuses nuances et autres règles dans les politiques de contenu et s’adapter instantanément. Ceci pour offrir un filtrage des contenus plus cohérent.

“Nous pensons que ceci offre une vision plus positive du futur des plateformes numériques, où l’IA peut aider à modérer le trafic en ligne selon les propres règles de chaque plateforme et ainsi retirer la charge mentale d’un grand nombre de modérateurs humains”, écrivent Lilian Weng, Vik Goel et Andrea Vallone d’OpenAI. “Quiconque dispose d’un accès à l’API OpenAI peut implémenter cette approche pour créer son propre système de modération assisté par l’IA.” OpenAI affirme que les outils de modération de GPT-4 peuvent aider les entreprises à réaliser le travail d’environ six mois en seulement une journée.

Utiliser l’IA pour alléger la charge des modérateurs humains pourrait être très salvateur. Meta, par exemple, utilise l’IA pour assister ses modérateurs depuis plusieurs années. Et pourtant OpenAI explique que, jusqu’à présent, les modérateurs humains reçoivent l’aide de “modèles de machine learning verticaux spécifiques et plus petits. Le processus est fondamentalement lent et cela peut entraîner un stress mental sur les modérateurs humains.”

Sera-t-il plus efficace que les systèmes actuellement en place ?

Les modèles IA sont loin d’être parfaits. Les géants de la tech utilisent l’IA dans leurs processus de modération depuis longtemps et, avec ou sans cette technologie, ils prennent encore souvent les mauvaises décisions. L’avenir nous dira si le système d’OpenAI peut éviter les pièces dans lesquels les systèmes actuels tombent depuis plusieurs années.

Quoi qu’il en soit, OpenAI admet que les humains devront toujours être impliqués. “Nous aurons toujours des humains pour vérifier certaines des évaluations du modèle”, expliquait Andrea Vallone, qui travaille sur le projet, à Bloomberg.

“Les jugements des modèles de langage sont vulnérables à des biais inattendus qui peuvent avoir été introduits dans le modèle pendant son apprentissage. Comme avec toute application IA, les résultats et la sortie devront être soigneusement étudiés, validés et ajustés par des humains”, peut-on lire dans le post de blog. “En réduisant l’implication de l’homme dans certaines parties du processus de modération qui peuvent être gérées par des modèles de langage, les ressources humaines peuvent être concentrées sur la gestion des cas plus complexes.”


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité