Après Facebook, Instagram ou encore Amazon, c’est au tour d’une nouvelle fuite de données massive et tout aussi inquiétante d’être pointée du doigt. Une récente étude de vulnérabilité repérée par 01net a en effet détecté, il y a peu, plus de 500 serveurs médicaux accessibles sans aucune protection, et donnant accès à des centaines de millions d’images médicales. Qu’il s’agisse de radiographies, d’échographies ou encore d’IRM, ce type de documents est évidemment confidentiel et soumis au secret médical. Il semblerait pourtant que ces derniers soient excessivement mal (voir pas du tout) protégés, du moins sur certains serveurs. En tout, révèle l’analyse de Greenbone Networks, plus de 389 millions de clichés seraient concernés dans le monde, accessibles depuis près de 24 millions de dossiers parents. Des contenus d’autant plus sensibles, qu’ils s’accompagnent généralement de nombreuses informations personnelles, comme l’identité complète et les coordonnées du patient, ainsi que le nom de la clinique ou de l’hôpital, la date de soin, ou encore le nom du médecin ayant effectué l’examen.
Un problème d’ampleur mondiale révèle l’étude, qui touche particulièrement les États-Unis, l’Inde et la Turquie, avec respectivement 187, 96 et 36 serveurs non sécurisés. De son côté, la France est loin de faire office d’exemple, avec 7 serveurs pointés du doigt, et plus de 2,6 millions d’images accessibles (quasiment) librement sur Internet. Si le bilan de l’étude fait froid dans le dos, il reste à espérer que la situation pousse les acteurs de santé concernés à rapidement revoir à la hausse le système de chiffrement de leurs protocoles de sécurité.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Bon, petite anecdote perso : je bosse avec des données médicales. La première fois que j’en ai reçu c’était uploadé sur Mega, pas crypté et pas anonymisé. La fois d’après c’était par email (non crypté évidemment).
Et les données contiennent les informations de plusieurs milliers de patients (tous ceux des hopitaux de la région), avec plusieurs centaines d’informations sur chaque patient. Et ils ont “oublie” de les anonymiser, donc si vous êtes de ma région j’avais probablement vos informations précises et nominatives alors que je fais de l’IA donc les infos genre nom, prénom, adresse, etc… ne m’aident absolument pas dans ma tâche.
Pitoyable mais pas étonnant. Mega quoi, sérieusement, je veux dire le RSSI, il l’a eu où son diplôme ? Ce type doit aller en prison.
c’est quand même moin interessant que les leaks de nudes 😂🤣
Je ne peux que partager ton constat…