Passer au contenu

Epic Games attaque Apple sur son outil de lutte contre la pédopornographie

Le système qui prévoit de scanner toutes les images transitant vers iCloud inquiète les acteurs du numérique, surtout parmi les concurrents de la marque à la pomme.

La nouvelle a fait quelques remous. Apple annonçait il y a quelques jours le déploiement d’un nouvel outil capable de détecter les images à caractère pédopornographique qui transitent vers iCloud. Concrètement, avant qu’un cliché ne soit stocké sur le cloud de la marque à la pomme, ce dernier sera scanné par Apple pour rechercher des correspondances avec le contenu recensé CSAM (Child Sexual Abuse Material). Si le contenu est identifié comme tel, un examinateur humain se chargera d’évaluer les risques, et le cas échéant, de transmettre l’information aux autorités compétentes.

Si la démarche est louable, elle n’a pas manqué de faire réagir les défenseurs de la vie privée. Le PDG d’Epic Games, qui est au cœur d’une vaste bataille judiciaire avec Apple, a fait part de son inquiétude sur Twitter.

“J’ai essayé de voir cela du point de vue d’Apple. Mais inéluctablement, il s’agit d’un logiciel espion gouvernemental installé par Apple sur la base d’une présomption de culpabilité. Bien qu’Apple ait écrit le code, sa fonction est d’analyser les données personnelles et de les signaler au gouvernement. C’est totalement différent d’un système de modération de contenu sur un forum public ou un réseau social. Avant que l’opérateur ne choisisse d’héberger les données publiquement, il peut les analyser pour déterminer tout ce qu’il ne veut pas héberger. Mais ce sont les données privées des gens.”

WhatsApp s’inquiète

Toujours sur Twitter, une autre entreprise du numérique a partagé ses réticences quant à la mise en place de l’outil. Will Cathcart, patron de WhatsApp chez Facebook, note qu’il pourrait être utilisé à des fins totalitaires par certains gouvernements. “Apple a construit et exploité un système de surveillance qui pourrait très facilement être utilisé pour analyser le contenu privé à la recherche de tout ce qu’ils ou un gouvernement décident de contrôler”. Il s’inquiète également de l’exploitation de ces informations en Chine ou dans d’autres pays, ainsi que par des sociétés de logiciels espions.

Apple se félicite de cet accomplissement

Dans une note de service, obtenue par 9to5Mac, la firme de Cupertino adresse un message plutôt enthousiaste à ses équipes.

“Assurer la sécurité des enfants est une mission très importante. À la manière d’Apple, la poursuite de cet objectif a nécessité un engagement interfonctionnel profond, couvrant l’ingénierie, la juridique, le marketing produit et les relations publiques. Ce que nous avons annoncé aujourd’hui est le produit de cette incroyable collaboration, qui fournit des outils pour protéger les enfants, mais aussi pour maintenir l’engagement profond d’Apple envers la confidentialité des utilisateurs.”

La lettre mentionne également les retours positifs, ainsi que les inquiétudes partagées sur les réseaux sociaux. “Nous savons que certaines personnes ont mal compris et s’inquiètent des implications, mais nous continuerons à expliquer et à détailler les fonctionnalités afin que les gens comprennent ce que nous avons construit.”

Reste à voir si Apple poursuivra sur sa lancée ou si les nombreuses réserves et inquiétudes partagées sur les réseaux sociaux enterreront définitivement le projet. Apple ne s’est pour l’instant pas exprimé publiquement sur cette controverse.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

4 commentaires
  1. > maintenir l’engagement profond d’Apple envers la confidentialité des utilisateurs


    Lol, le but de l’outil est justement qu’il n’y ait plus aucune confidentialité

  2. En plus du reste : “Si le contenu est identifié comme tel, un examinateur humain se chargera d’évaluer les risques, et le cas échéant, de transmettre l’information aux autorités compétentes.”
    ils ont prévu quoi pour ces personnes parce que on a vu combien c’est un travail difficile chez Facebook pour les personnes qui sont soumises à tout et n’importe quoi.

    Alors si ici en plus il y a une forte probabilité que les images/vidéos soit effectivement un tel contenu, je plains les personnes dont ce serait le travail de faire ces vérifications humaines

  3. C’est assez flippant…… il n’y a rien de “rassurant” ici. On est clairement dans du contrôle

  4. Il y a un petit amalgame qui est fait là, il ne s’agit en aucun cas de surveillance. Si vous stockez du contenu illégal sur votre mac, “pas de soucis” (enfin ça c’est entre vous et votre karma j’ai envie de dire). En revanche, si vous synchronisez celui-ci avec votre iCloud c’est là que c’est problématique.

    Mais pour rappel, iCloud stock vos données sur des serveurs qui ne vous appartiennent pas. Ils sont la propriété d’Apple. Certes l’idée de base est louable, mais en vérité, ce n’est pas tant pour protéger les enfants que se protéger lui même que Apple fait ça.
    Et oui, car en fonction des diverses lois, et même, de l’avis populaire, vous comprendrez bien que si iCloud devient un entrepôt à pédobeurk, Apple se fera cloué au piloris sur place publique pour ne rien avoir fait.

    Un cloud n’est pas, par définition, un espace personnel. De la même façon que vos valise sont passées aux rayons X avant d’être stockées dans un avion, il est tout à fait normal, voir sain, qu’un hébergeur de donnée surveille un minimum ce qui transit par chez lui. Sinon, bonjour le repaire de truand….

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode