{"id":88080,"date":"2024-12-09T11:10:15","date_gmt":"2024-12-09T11:10:15","guid":{"rendered":"https:\/\/www.tunimedia.tn\/fr\/apple-face-a-la-justice-apres-avoir-annule-la-detection-de-contenus-abusifs-sur-icloud\/"},"modified":"2024-12-09T11:10:15","modified_gmt":"2024-12-09T11:10:15","slug":"apple-face-a-la-justice-apres-avoir-annule-la-detection-de-contenus-abusifs-sur-icloud","status":"publish","type":"post","link":"https:\/\/tunimedia.tn\/fr\/apple-face-a-la-justice-apres-avoir-annule-la-detection-de-contenus-abusifs-sur-icloud\/","title":{"rendered":"Apple face \u00e0 la justice apr\u00e8s avoir annul\u00e9 la d\u00e9tection de contenus abusifs sur iCloud"},"content":{"rendered":"<p> [ad_1]\n<\/p>\n<div>\n<p class=\"chapo\">Un recours judiciaire contre Apple soul\u00e8ve des questions sur la protection des victimes de CSAM et la s\u00e9curit\u00e9 en ligne.<\/p>\n<div class=\"tldr\">\n<h2 id=\"Tldr\" class=\"adn_sommaire\">Tl;dr<\/h2>\n<ul>\n<li>Apple est poursuivi en <a title=\"justice\" href=\"https:\/\/www.begeek.fr\/justice\">justice<\/a> pour avoir annul\u00e9 son projet de d\u00e9tection de CSAM sur <a title=\"iCloud\" href=\"https:\/\/www.begeek.fr\/icloud\">iCloud<\/a>.<\/li>\n<li>La plainte, d\u00e9pos\u00e9e par une victime, accuse Apple de n\u00e9gliger la <a title=\"s\u00e9curit\u00e9\" href=\"https:\/\/www.begeek.fr\/securite\">s\u00e9curit\u00e9<\/a> des enfants en ligne.<\/li>\n<li>L\u2019affaire soul\u00e8ve des questions sur l\u2019\u00e9quilibre entre la protection de la vie priv\u00e9e et la lutte contre les contenus abusifs.<\/li>\n<\/ul>\n<\/div>\n<h2 id=\"Un-systeme-de-detection-abandonne\" class=\"adn_sommaire\">Un syst\u00e8me de d\u00e9tection abandonn\u00e9<\/h2>\n<p>En 2021, <a href=\"https:\/\/www.begeek.fr\/apple-repousse-le-lancement-de-son-homepod-avec-ecran-integre-a-quand-dans-nos-foyers-407848\">Apple<\/a> annon\u00e7ait fi\u00e8rement son intention de mettre en \u0153uvre un syst\u00e8me de d\u00e9tection des images d\u2019abus sexuels sur des enfants (CSAM) dans les photos iCloud, utilisant des signatures num\u00e9riques de la National Center for Missing and Exploited Children (NCMEC) et d\u2019autres organisations. Cette technologie devait analyser les photos stock\u00e9es sur <a href=\"https:\/\/www.begeek.fr\/icloud-sature-5-astuces-pour-liberer-de-lespace-403684\">iCloud<\/a> pour rep\u00e9rer les images connues d\u2019abus sexuels sur des enfants, et les signaler aux autorit\u00e9s. Cependant, en raison des pr\u00e9occupations li\u00e9es \u00e0 la s\u00e9curit\u00e9 et \u00e0 la confidentialit\u00e9 des utilisateurs, en particulier les risques de surveillance gouvernementale, Apple a abandonn\u00e9 ce projet, suscitant de vives critiques.<\/p>\n<h2 id=\"Une-plainte-qui-met-en-lumiere-la-souffrance-des-victimes\" class=\"adn_sommaire\">Une plainte qui met en lumi\u00e8re la souffrance des victimes<\/h2>\n<p>La plainte est port\u00e9e par une femme de 27 ans, qui utilise un pseudonyme pour prot\u00e9ger son identit\u00e9. Elle a \u00e9t\u00e9 victime d\u2019abus sexuels lorsqu\u2019elle \u00e9tait b\u00e9b\u00e9, et des images de ces abus ont \u00e9t\u00e9 partag\u00e9es en ligne. Aujourd\u2019hui, elle re\u00e7oit encore des notifications des forces de l\u2019ordre concernant l\u2019exploitation de ces images. Cette femme estime qu\u2019en ne mettant pas en \u0153uvre une technologie de d\u00e9tection efficace, Apple force les victimes \u00e0 revivre constamment leur traumatisme.<strong> Elle affirme que la d\u00e9cision d\u2019Apple de ne pas d\u00e9ployer le syst\u00e8me annonc\u00e9 a des cons\u00e9quences dramatiques sur sa vie, car elle doit faire face \u00e0 des notifications r\u00e9guli\u00e8res de poursuites judiciaires li\u00e9es \u00e0 ces images.<\/strong><\/p>\n<h2 id=\"Lrsquoimpact-sur-les-autres-victimes-et-la-possibilite-drsquoun-recours-collectif\" class=\"adn_sommaire\">L\u2019impact sur les autres victimes et la possibilit\u00e9 d\u2019un recours collectif<\/h2>\n<p>L\u2019avocat de la plaignante, James Marsh, estime qu\u2019un grand nombre de victimes pourraient \u00eatre concern\u00e9es par cette affaire. Il \u00e9voque la possibilit\u00e9 d\u2019un recours collectif, mentionnant qu\u2019environ 2680 victimes pourraient \u00eatre \u00e9ligibles \u00e0 une indemnisation si la plainte aboutit. Cette situation met en lumi\u00e8re non seulement les enjeux juridiques entourant la lutte contre le CSAM, mais aussi la question de l\u2019\u00e9quilibre entre la protection des enfants et la pr\u00e9servation de la vie priv\u00e9e des utilisateurs sur des plateformes comme iCloud.<\/p>\n<h2 id=\"La-reponse-drsquoApple-et-les-enjeux-de-securite\" class=\"adn_sommaire\">La r\u00e9ponse d\u2019Apple et les enjeux de s\u00e9curit\u00e9<\/h2>\n<p>Apple a r\u00e9agi \u00e0 cette plainte en pr\u00e9cisant qu\u2019elle continuait \u00e0 innover activement pour lutter contre les abus sans compromettre la s\u00e9curit\u00e9 et la vie priv\u00e9e de ses utilisateurs. La soci\u00e9t\u00e9 californienne a expliqu\u00e9 que ses efforts pour prot\u00e9ger les victimes d\u2019abus sexuels en ligne se poursuivaient, mais sous une forme diff\u00e9rente de celle initialement annonc\u00e9e. Cette r\u00e9ponse met en \u00e9vidence la tension complexe entre la lutte contre les contenus ill\u00e9gaux en ligne et la protection des donn\u00e9es priv\u00e9es des utilisateurs, un dilemme qui reste au c\u0153ur des d\u00e9bats sur la s\u00e9curit\u00e9 num\u00e9rique et les droits individuels.<\/p>\n<\/div>\n[ad_2]\n<br \/><a href=\"https:\/\/www.begeek.fr\/apple-face-a-la-justice-apres-avoir-annule-la-detection-de-contenus-abusifs-sur-icloud-408065\">Source link <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>[ad_1] Un recours judiciaire contre Apple soul\u00e8ve des questions sur la protection des victimes de CSAM et la s\u00e9curit\u00e9 en ligne. Tl;dr Apple est poursuivi en justice pour avoir annul\u00e9 son projet de d\u00e9tection de CSAM sur iCloud. La plainte, d\u00e9pos\u00e9e par une victime, accuse Apple de n\u00e9gliger la s\u00e9curit\u00e9 des enfants en ligne. L\u2019affaire &hellip;<\/p>\n","protected":false},"author":1,"featured_media":88081,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[16,335,19,349,239],"tags":[],"class_list":["post-88080","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-high-tech","category-tie-games","category-mode","category-tech-net","category-web"],"jetpack_featured_media_url":"https:\/\/tunimedia.tn\/fr\/wp-content\/uploads\/2024\/12\/iCloud-Apple.jpeg","jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/posts\/88080","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/comments?post=88080"}],"version-history":[{"count":0,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/posts\/88080\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/media\/88081"}],"wp:attachment":[{"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/media?parent=88080"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/categories?post=88080"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/tunimedia.tn\/fr\/wp-json\/wp\/v2\/tags?post=88080"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}