HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

Apple face à la justice après avoir annulé la détection de contenus abusifs sur iCloud

Un recours judiciaire contre Apple soulève des questions sur la protection des victimes de CSAM et la sécurité en ligne.

Tl;dr

  • Apple est poursuivi en justice pour avoir annulé son projet de détection de CSAM sur iCloud.
  • La plainte, déposée par une victime, accuse Apple de négliger la sécurité des enfants en ligne.
  • L’affaire soulève des questions sur l’équilibre entre la protection de la vie privée et la lutte contre les contenus abusifs.

Un système de détection abandonné

En 2021, Apple annonçait fièrement son intention de mettre en œuvre un système de détection des images d’abus sexuels sur des enfants (CSAM) dans les photos iCloud, utilisant des signatures numériques de la National Center for Missing and Exploited Children (NCMEC) et d’autres organisations. Cette technologie devait analyser les photos stockées sur iCloud pour repérer les images connues d’abus sexuels sur des enfants, et les signaler aux autorités. Cependant, en raison des préoccupations liées à la sécurité et à la confidentialité des utilisateurs, en particulier les risques de surveillance gouvernementale, Apple a abandonné ce projet, suscitant de vives critiques.

Une plainte qui met en lumière la souffrance des victimes

La plainte est portée par une femme de 27 ans, qui utilise un pseudonyme pour protéger son identité. Elle a été victime d’abus sexuels lorsqu’elle était bébé, et des images de ces abus ont été partagées en ligne. Aujourd’hui, elle reçoit encore des notifications des forces de l’ordre concernant l’exploitation de ces images. Cette femme estime qu’en ne mettant pas en œuvre une technologie de détection efficace, Apple force les victimes à revivre constamment leur traumatisme. Elle affirme que la décision d’Apple de ne pas déployer le système annoncé a des conséquences dramatiques sur sa vie, car elle doit faire face à des notifications régulières de poursuites judiciaires liées à ces images.

L’impact sur les autres victimes et la possibilité d’un recours collectif

L’avocat de la plaignante, James Marsh, estime qu’un grand nombre de victimes pourraient être concernées par cette affaire. Il évoque la possibilité d’un recours collectif, mentionnant qu’environ 2680 victimes pourraient être éligibles à une indemnisation si la plainte aboutit. Cette situation met en lumière non seulement les enjeux juridiques entourant la lutte contre le CSAM, mais aussi la question de l’équilibre entre la protection des enfants et la préservation de la vie privée des utilisateurs sur des plateformes comme iCloud.

La réponse d’Apple et les enjeux de sécurité

Apple a réagi à cette plainte en précisant qu’elle continuait à innover activement pour lutter contre les abus sans compromettre la sécurité et la vie privée de ses utilisateurs. La société californienne a expliqué que ses efforts pour protéger les victimes d’abus sexuels en ligne se poursuivaient, mais sous une forme différente de celle initialement annoncée. Cette réponse met en évidence la tension complexe entre la lutte contre les contenus illégaux en ligne et la protection des données privées des utilisateurs, un dilemme qui reste au cœur des débats sur la sécurité numérique et les droits individuels.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité