Début août, Apple s’était retrouvé sous le feu des critiques après avoir annoncé ses nouvelles mesures en matière de lutte contre la pédopornographie. Pour cela, la firme s’autorise à scanner toutes les photos capturées à l’iPhone et transitant par iCloud, afin d’établir une correspondance ou non avec le contenu recensé CSAM (Child Sexual Abuse Material).
Mais s’il faudra attendre la sortie d’iOS 15 avant que ce nouveau système ne soit mis en place, le constructeur révèle qu’il examine déjà scrupuleusement d’autres applications afin d’y déceler des contenus en lien avec la pédopornographie, et cela depuis 2019.
Les e-mails sous surveillance depuis 2019
Comme le précise 9To5Mac, Apple analyse déjà les e-mails iCloud de ses utilisateurs pour identifier des contenus pédopornographiques. Les pièces jointes sont ainsi scrutées de près en passant par les serveurs d’Apple, ainsi que « d’autres données » dont le constructeur ne précise pas le teneur, suggérant néanmoins que cela se fait à petite échelle.
Apple indique que le système utilisé pour déceler les contenus pédopornographique sur les e-mails iCloud est le même que celui que la firme envisage d’utiliser pour analyser les photos sur iOS 15. 9To5Mac précise néanmoins que ce système déjà à l’oeuvre ne scanne pas « les photos iCloud ou les sauvegardes iCloud ».
Un nouveau système un peu trop intrusif ?
Avant de crier à l’espionnage, il convient de préciser que la nouvelle mesure d’Apple n’est pas une surprise en soi, étant donné que la plupart des constructeurs analysent déjà les photos pour détecter ce type de contenu. Si Apple avait fait polémique, c’est notamment parce que l’analyse en question se fera directement sur l’iPhone avec iOS 15… une sorte de backdoor légale que la firme pourrait très bien mettre à profit plus tard pour analyser d’autres contenus (même si ce n’est clairement pas à l’ordre du jour).
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.