Passer au contenu

Cybersécurité : les aspirateurs robots sont-ils dangereux pour nos données ?

Une fuite de données a mené au partage d’informations confidentielles collectées par des aspirateurs iRobot.

Vos aspirateurs robots sont-ils des espions ? Une enquête menée MIT Review révèle les dérives de la collecte de données par des outils et entreprises tiers. À notre époque, de plus en plus d’objets du quotidien sont surconnectés. Télévisions, enceintes et mêmes aspirateurs proposent désormais des fonctionnalités technologiques toujours plus poussées. D’une seule commande vocale, il est alors possible de demander à Alexa de lancer le ménage avec un Roomba. Même si tout cela s’avère être extrêmement utile au quotidien, il ne faut pas oublier que ce n’est pas sans dangers.

En utilisant ces appareils, les utilisateurs doivent accepter de nombreuses clauses de confidentialités. Malheureusement, ces longs pavés complexes ne sont pas le genre de lectures agréables que l’on se réserve pour un moment cocooning. Rares sont les personnes qui lisent ces tirades, laissant alors la plupart des consommateurs dans un flou ambiant concernant l’utilisation qui est faite de leurs données. Des informations personnelles peuvent être partagées au plus grand nombre quand des fuites surviennent. C’est le cas d’utilisateurs d’aspirateurs iRobot qui ont découvert des photos de leur intérieur postées sur internet.

C’est pas ma faute à moi, moi Lolit-IA

La collecte de données est importante pour l’apprentissage des intelligences artificielles qui nous facilitent le quotidien. Ainsi, iRobot s’est occupé de générer des images d’intérieur en proposant à des utilisateurs volontaires de partager certaines informations. Ce sont donc des modèles Roomba J7 de développement conçus spécialement à cet effet qui ont emmagasiné de grandes quantités d’images à des fins d’amélioration. Tout a été réalisé dans le consentement, ce qui n’aurait dû poser aucun problème.

Malheureusement, le lien de confiance a été brisé par un prestataire du constructeur, Scale IA. Ces équipes chargées de l’étiquetage des données pour nourrir l’intelligence artificielle sont à l’origine d’une fuite conséquente. De nombreuses images ont alors été postées dans des groupes privés gérés par ces mêmes employés. Le fabricant rejette naturellement la faute de cet incident. Le problème a déjà été coupé à sa source par iRobot qui a pris les mesures nécessaires pour mettre fin à ce partenariat. Seulement, le mal est fait et révèle un véritable souci quant au traitement de nos données.

En acceptant les termes de ces sessions de tests, les utilisateurs étaient certainement loin d’imaginer leurs informations être traitées par d’autres humains. Même si la plupart des clichés sont inoffensifs, l’image d’une jeune femme sur les toilettes a elle aussi été partagée. Même si cet incident est très limité, la publication du MIT cherche à alerter sur les potentielles “chaines d’approvisionnement de données et les nouvelles sources dont les informations personnelles pourraient fuiter.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode