Edward Snowden s’insurge contre la nouvelle fonctionnalité d’Apple qui veut aider à détecter d’éventuels abus sexuels sur enfant dans les photos.
Apple a toujours voulu protéger les utilisateurs, leur vie privée et leurs données. Ces dernières années, les choses se sont accélérées. Une bonne chose pour le grand public. Mais pas toujours. Certaines fonctionnalités suscitent la controverse. C’est le cas de la dernière en date, l’analyse des photos pour lutter contre la pédopornographie notamment. Une fonction que fustige aujourd’hui Edward Snowden.
Edward Snowden s’insurge contre la nouvelle fonctionnalité d’Apple
Récemment, la firme de Cupertino annonçait l’arrivée prochaine d’une nouvelle fonctionnalité d’analyse de photos sur ses iPhone. Cette fonctionnalité a pour objectif de scanner les photos présentes sur l’appareil pour détecter d’éventuels abus sexuels sur enfants. Une très bonne et noble idée, sur le papier, dans la mesure où cela simplifierait le travail pour les autorités pour traquer les auteurs.
qui veut aider à détecter d’éventuels abus sexuels sur enfant dans les photos
Cela étant dit, de nombreuses voix se sont élevées au sujet de cette fonctionnalité, arguant qu’Apple est très proche de franchir une ligne qui pourrait avoir d’énormes conséquences. L’ancien consultant pour la NSA Edward Snowden fait partie de ceux qui fustigent cette nouvelle fonctionnalité, affirmant que, si bien intentionnée soit-elle, il s’agit là ni plus ni moins qu’Apple déployant un outil de surveillance de masse dans le monde entier.
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021
Et le lanceur d’alertes n’est pas le seul à partager ce point de vue. D’autres ont fait part de raisonnements similaires, et des mêmes inquiétudes. C’est le cas de Daniel Bostic, qui suggère que si cela pourrait effectivement être utilisé pour identifier des photos d’abus sexuel sur enfant, rien ne saurait garantir que les gouvernements n’utilisent pas ce système pour identifier des photos anti-gouvernementales.
No one is defending explicit pictures of minors but this is category 5 insane.
How long until this is used to scan your phone for anti-government photos?
How long till authorities in the middle east use this to track down LGBT people?
How easy will it be to frame someone? https://t.co/tmFIrTTBH2
— Daniel Bostic (@debostic) August 5, 2021
Bien que certains de ces points de vue soient tout à fait valables, Benjamin Mayo, de chez 9to5Mac, précise que les réseaux sociaux procèdent ainsi depuis de nombreuses années, tout comme les services de stockage de photos dans le cloud. C’est en tous les cas un nouveau point de discorde dans le camp d’Apple, le géant américain qui s’érige en grand défenseur de la vie privée des utilisateurs depuis de longues années.
If the new Apple photo scanning stuff was looking at any and all photos stored on your device, I think there’d be somewhat of an ethical debate to be had. But it’s just applied to iCloud Photos, which makes it no different than any other major web service or social network.
— Benjamin Mayo (@bzamayo) August 5, 2021