Le directeur de la confiance et sécurité d’OpenAI quitte l’entreprise. Une décision qui survient dans un contexte assez compliqué.
Le directeur de la confiance et sécurité d’OpenAI, Dave Willner, a quitté l’entreprise, comme l’annonce un post LinkedIn. Il conserve cependant un “rôle de conseiller”, mais a demandé à ses abonnés de lui transmettre toute opportunité similaire. Dave Willner explique avoir pris cette décision pour pouvoir passer davantage de temps avec sa famille. Avant de donner les “vraies” raisons.
Le directeur de la confiance et sécurité d’OpenAI quitte l’entreprise
“Dans les mois qui ont suivi le lancement de ChatGPT, il était de plus en plus difficile pour moi de tout gérer”, écrit-il. “OpenAI est dans une phase très intense de son développement – tout comme nos enfants. Quiconque a de jeunes enfants et un travail très intense a certainement déjà ressenti cette tension.”
Il continue en se disant “fier de tout” ce que l’entreprise a accompli pendant qu’il occupait ce poste et précise que ce fut “l’un des jobs et les cools et les plus intéressants” du monde.
Bien sûr, cette transition survient aussi alors que OpenAI fait face à plusieurs obstacles juridiques, tout comme son produit phare, ChatGPT. La FTC a récemment ouvert une enquête sur l’entreprise, craignant qu’elle n’enfreigne des lois de protection des consommateurs et use de pratiques “déloyales ou trompeuses” qui pourraient mettre à mal la confidentialité et la sécurité du grand public. L’enquête vise notamment un bug qui avait vu des données privées fuiter, ce qui, évidemment, tombe normalement sous la supervision de la division confiance et sécurité.
Une décision qui survient dans un contexte assez compliqué
Dave Willner explique que sa décision fut en vérité “un choix plutôt facile à faire, mais pas le genre de choix que quelqu’un dans [sa] position fait souvent de manière explicite en public.” Il déclare aussi espérer que cette décision aidera à avoir des discussions plus ouvertes à l’avenir sur l’équilibre en le travail et la vie personnelle.
Les craintes sont nombreuses, depuis quelques mois, quant à la sécurité de l’intelligence artificielle et OpenAI fait partie des entreprises qui se sont engagées à mettre en place des garde-fous sur leurs produits sur ordre du Président Biden et de la Maison Blanche. Parmi ceux-ci, permettre à des experts indépendants d’accéder à leur code, évaluer les risques sociétaux comme les biais, partager les informations de sécurité avec le gouvernement et inclure des filigranes sur les contenus audio et visuels pour indiquer au grand public qu’il s’agit de contenu généré par IA.
Source link