Passer au contenu

Apple et Google suppriment des applications de création de « nudes » par IA

Face à l’utilisation franchement problématique de l’intelligence artificielle pour générer des images de nus non consensuelles, Apple et Google ont récemment supprimé plusieurs applications de leurs plateformes.

Les boutiques d’applications d’Apple et Google ont supprimé plusieurs applications promettant de créer des images de nus non consensuelles avec des technologies de deepfake. Ce développement fait suite à une enquête accablante de 404 Media, révélant que des applications de ce type étaient non seulement disponibles, mais également promues par le biais de publicités sur Instagram. Ces applications permettaient des manipulations d’images comme les échanges de visages sur des photos adultes ou prétendaient « déshabiller » des personnes à partir de photos ordinaires.

Une responsabilité accrue des plateformes

Bien que la suppression des applications soit un pas dans la bonne direction, il faut noter qu’Apple n’avait pas initialement détecté ces applications lors de son processus de révision. C’est seulement après avoir été alerté par des tiers que la société a agi. Par ailleurs, il est très préoccupant que certaines de ces applications aient continué à être promues sur des sites pour adultes, malgré les avertissements précédents envoyés aux développeurs.

La suppression des applications controversées s’inscrit dans un contexte plus large où la capacité de l’IA à générer des images à partir de simples instructions textuelles est devenue un outil précieux, mais aussi potentiellement dangereux. Les « deepfakes », qui permettent de créer de fausses vidéos ou images de personnes sans leur consentement, posent des problèmes éthiques et légaux significatifs.

Le problème des images générées par IA atteint une telle ampleur qu’aux États-Unis, plusieurs États ont commencé à légiférer contre le contenu sexuellement explicite généré par l’IA. En outre, la législation proposée par les sénateurs américains en début d’année souligne les dommages réels infligés aux victimes de ces images : perte d’emploi ou troubles psychologiques sont des conséquences possibles.

Cette affaire met en lumière la responsabilité des plateformes dans la gestion du contenu généré par l’IA. Apple, en particulier, tente de se positionner comme un acteur responsable en évitant l’utilisation illégale d’œuvres protégées par le droit d’auteur dans les entraînements de ses modèles d’IA, contrairement à d’autres entreprises qui font face à des poursuites judiciaires pour des raisons similaires.

La décision d’Apple et de Google de retirer ces applications peut être vue comme un effort pour aligner leurs pratiques commerciales sur des normes éthiques plus strictes. Elle montre aussi que même les grandes plateformes comme l’App Store et le Play Store ont un train de retard sur les technologies. La suppression de ces applications des boutiques est un pas nécessaire, mais il reste encore beaucoup à faire pour garantir que les avancées en matière d’IA ne soient pas détournées à des fins préjudiciables.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode