Passer au contenu

[CES] Apple et Microsoft scannent les photos ou les conversations pour lutter contre la pédopornographie

Souvent accusés de ne pas lutter suffisamment contre la pédocriminalité, Apple et Microsoft ont dévoilé leurs cartes. Microsoft a ainsi présenté pendant le CES un outil qui scanne vos conversations pour repérer d’éventuels prédateurs sexuels et une responsable d’Apple a révélé que la Pomme scannait déjà les photos qui transitent sur leurs serveurs.

Le CES de Las Vegas, c’est des annonces de produits dans tous les sens, mais aussi des discussions concernant des sujets plus sensibles de la tech. La lutte contre la pédopornographie était notamment l’une des préoccupations majeures de cette édition, si bien que certains des plus gros acteurs du numérique ont dévoilé leurs armes pour lutter contre ce fléau, dont Apple et Microsoft.

Artemis : chez Microsoft, un dispositif qui analyse vos conversations

Microsoft a ainsi présenté Artemis, son outil pour traquer les prédateurs sexuels. Celui-ci se présente sous la forme d’une extension qui va analyser tous les services de messagerie afin de repérer des schémas types de communication des pédophiles. Ces « schémas types » sont établis via une base de données du National Center for Missing & Exploited Children (NCMEC), un organisme de lutte contre la pédophilie. Par la suite, Microsoft explique que le système attribuera de lui-même une « note » à chaque conversation, laquelle est censée refléter son niveau de dangerosité. Si cette note est trop élevée, le système pourra de lui-même alerter les autorités. Microsoft a annoncé avoir testé Artemis sur les canaux de communication de son service de jeux vidéo en ligne Xbox Live, et devrait prochainement faire des essais pour l’intégrer nativement à Skype. Si l’outil est encore en cours de développement, Artemis est d’ores et déjà accessible librement pour les « sociétés qualifiées offrant une fonctionnalité de chat », annonce Microsoft.

Apple scanne vos photos pour repérer des images pédopornographiques

Dans le cas d’Apple, ce n’est pas un outil ni même un produit qui a été révélé. Au cours d’une table ronde, Jane Horvath, la responsable des questions relatives à la vie privée chez la Pomme a abordé le sujet de la pédocriminalité et a révélé qu’Apple utilise déjà « certaines technologies pour aider à dépister les contenus pédopornographiques ». Elle explique que la firme « scanne » les images qui sont envoyées sur ses serveurs afin de dénicher les éventuels prédateurs sexuels. C’est désormais officiel : Apple accède bel et bien aux photos que vous déposez sur iCloud. Si la responsable de la vie privée d’Apple n’a pas détaillé la façon dont la firme s’y prend pour dénicher les contenus sensibles, The Telegraph suppose qu’Apple pourrait bien utiliser le système PhotoDNA. Il s’agit d’un outil qui permet de comparer instantanément une image avec une base de données afin d’établir des correspondances. Ce système est par ailleurs déjà utilisé par Google, Twitter, ou encore Facebook.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Mode