Un projet d’Intelligence artificielle visant à prédire les crimes à la manière du film Minority Report est en cours de développement au Royaume-Uni. D’après le média New Scientist, la police anglaise pense qu’il est possible de mettre au point un algorithme capable de prédire les crimes graves, et en particulier les meurtres. L’Intelligence artificielle qui en est actuellement au stade de projet pilote pourrait identifier à l’avance aussi bien les coupables que les victimes.
Mieux vaut prévenir et guérir
Ce système baptisé National Data Analytics Solution (NDAS) utilise les données stockées par la police qui dénombre pas moins de 5 millions d’individus identifiables. À partir de là, l’IA évalue la potentialité d’un crime à partir de 1400 paramètres et attribue à chaque personne évaluée comme dangereuse un “score de risque” de commettre un crime. Le projet pilote est en test au service de police du West Midlands (dans lequel se trouve la ville de Birmingham) jusqu’en mars 2019, date à laquelle le système devrait être plus largement adopté dans le pays, à commencer par les villes de Londres et Manchester.
En revanche, là où NDAS diffère (pour le moment) de Minority Report, c’est que la police ne compte pas arrêter des personnes avant qu’elles ne commettent un crime. L’idée serait plutôt d’aider ces personnes avant qu’elles ne sévissent en les orientant vers les services sociaux adéquats. L’intention est louable, mais un tel système implique une analyse massive de données personnelles et s’avère particulièrement intrusif.
Second problème, il est difficile de s’assurer de la fiabilité du programme. Les chercheurs en sont conscients et savent que l’utilisation de la base de données de 5 millions d’individus déjà connus des services de police n’est pas représentative de la totalité de la population, et qu’à fortiori, l’IA ciblera davantage les personnes des quartiers.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
En France on attend qui y est des mort pour agir, si la victime se defend la sanction du criminel est réduite voire supprimer.
À vrai dire, dans Minority Report, ce n’est pas une intelligence artificielle qui prédisait des crimes.. C’est une espèce de logiciel/interface qui projette des images des 3 femmes “Medium” qui en étaient la source. Je verrai plutôt une forte ressemblance à la série “Personne d’intérêt” ou “Person of interest” en anglais… là, c’est vraiment une intelligence artificielle qui pouvait prédire si une personne pourrait être une victime ou un criminel sur le point de commettre un crime. Excellente série soit dit en passant 🙂