Zoom revient sur sa politique d’entrainement de son IA avec les données de ses clients. Énième exemple des possibles dérives à imputer à l’engouement autour de l’IA.
Zoom a modifié les conditions d’utilisation de son service après une vive controverse suite aux dernières mises à jour, permettant notamment d’entraîner l’IA de l’entreprise avec les données des utilisateurs. Un rapport de StackDiary mettait en avant ces modifications, lesquelles avaient été déployées en mars en toute discrétion. Ces dernières permettaient à la société d’avoir le contrôle sur les données des clients pour entraîner son IA. Aujourd’hui, dans un post sur son blog, Zoom indique qu’il ne le fera finalement pas ; l’entreprise a ensuite remis à jour ses conditions d’utilisation, précisant explicitement ne pas entraîner son IA avec la vidéo, l’audio ou les conversations des clients “sans leur consentement”.
Zoom revient sur sa politique d’entrainement de son IA avec les données de ses clients
Le problème est lié aux outils IA expérimentaux de Zoom, dont IQ Meeting Summary et IQ Team Chat Compose. Si les utilisateurs disposant d’un compte doivent donner leur accord pour utiliser ces outils, les autres participants n’ont que deux options : accepter les conditions et rejoindre la réunion et les refuser et la quitter.
“Ce qui fait tiquer, c’est la mention explicite du droit de l’entreprise à utiliser ces données pour le machine learning et l’intelligence artificielle, y compris l’entraînement et l’ajustement des algorithmes et modèles”, écrivait Alex Ivanovs dans StackDiary. “Ceci permet à Zoom d’entraîner son IS avec le consentement des clients sans fournir d’option pour refuser, une décision qui suscite de vifs débats concernant la confidentialité et le consentement des utilisateurs. Les conditions décrites confèrent même à l’entreprise la possibilité de “redistribuer, publier, importer, accéder, utiliser, stocker, transmettre, analyser, préserver, extraire, modifier, reproduire, partager, afficher, copier, traduire, transcrire, créer des contenus dérivés et traiter le contenu client et effectuer toutes ces actions dans le respect du contenu client.”
Énième exemple des possibles dérives à imputer à l’engouement autour de l’IA
Sur le post de blog, la responsable produit de Zoom, Smita Hashim, explique que les clients et administrateurs doivent effectivement donner leur consentement avant de choisir de partager leurs données pour l’entraînement de l’IA, insistant sur le fait que cela n’est “utilisé que pour améliorer les performances et la précision de ces services IA.” Et d’ajouter que “même si vous choisissez de partager vos données, celles-ci ne seront pas utilisées pour entraîner des modèles tiers.” “Nous avons la permission d’utiliser ce contenu utilisateur pour proposer des services à haute valeur ajoutée basés sur ce contenu, mais nos clients sont toujours propriétaires et contrôlent leur contenu. Par exemple, un client peut avoir un webinaire qu’il nous demande de diffuser sur YouTube. Même si nous utilisons le contenu audio et vidéo du client pour la diffusion, il reste propriétaire du contenu sous-jacent.”
“Nous n’utiliserons pas le contenu client, y compris les enregistrements éducatifs ou les données de santé protégées, pour entraîner nos modèles d’intelligence artificielle sans votre consentement”, peut-on lire aussi. Une nouvelle section a été ajoutée pour indiquer cela clairement : “Nonobstant ce qui précède, Zoom n’utilisera pas l’audio, la vidéo ou les conversations du Contenu Client pour entraîner nos modèles d’intelligence artificielle sans votre consentement.”
“Notre objectif est de permettre aux clients et administrateurs Zoom d’avoir le contrôle sur ces fonctionnalités et décisions, et nous sommes là pour expliciter comment nous faisons cela et comment cela affecte certains groupes d’utilisateurs.”
Source link