C’était sans doute l’une des mesures phares qu’Apple avait prévu de déployer cette année. Il y a quelques mois, l’entreprise avait annoncé la mise en place d’un outil de scan automatique des photographies à destination des mineurs. Objectif : passer au crible le moindre contenu multimédia reçu par des enfants sur leur compte iCloud, afin de lutter contre la pornographie infantile, et les images à caractère sexuel non consenties. Avec un lancement initialement prévu aux États-Unis, l’outil n’avait pas forcément fait l’unanimité, mais semblait pourtant constituer l’un des combats majeurs de la Pomme.
Pourtant surprise : sur la page qui détaille les nouvelles mesures de protection des jeunes utilisateurs adoptées par Cupertino, la mention du scan de photo a complètement disparu. Depuis la sortie d’iOS 15.2, il n’est plus fait mention nulle part de l’outil, qui semble avoir discrètement été évincé des projets d’Apple. Dans une déclaration d’un porte-parole de la marque à la presse américaine, on a finalement appris que si les mentions à cette technologie avaient été retirées de son site officiel, Apple n’est pas encore prêt à l’abandonner. Il s’agirait selon le géant du web d’un report plutôt que d’un enterrement donc, afin de laisser à ses collaborateurs davantage de temps pour étudier le sujet, et prendre en compte les retours des défenseurs de la vie privée.
Apple floute le sujet
Malgré l’abandon — temporaire donc — du scan sur iCloud, Apple conserve deux mesures à destination des plus jeunes : d’abord le floutage des images à caractère sexuel au sein de l’application Messages, et ensuite la mise à disposition de ressources fournies par Siri, Spotlight et Safari sur l’épineuse question de la pédopornographie, et l’exploitation des mineurs. On ignore pour le moment quand sera prévu le déploiement à l’international de ces deux fonctionnalités.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.