Engagée depuis déjà plusieurs années sur l’encadrement de l’IA en France, la CNIL poursuit son plan d’action. Cette année, elle prévoyait déjà de légiférer autour des caméras augmentées et de leurs risques pour la vie privée. Depuis quelques mois, l’année 2023 est aussi synonyme d’IA générative. L’explosion de certains modèles de langage comme GPT-4 ou LaMDA posent régulièrement question en matière d’éthique, il convient donc de rapidement légiférer dans ce domaine.
Suivre l’exemple de l’Italie ?
Qu’il s’agisse de textes, d’images ou même de voix, les IA génératives sont de plus en plus populaires chez les internautes. À partir d’une commande textuelle ou d’un matériau de base, ces derniers vont puiser dans les tréfonds de leur immense base d’informations, pour générer un nouveau contenu “original”. Entraînées sur des milliards de données existantes, elles prévoient de révolutionner nos usages d’Internet. Plusieurs métiers craignent déjà d’être remplacés, et même les géants du web voient l’arrivée de l’Intelligence artificielle comme un profond bouleversement de leurs algorithmes.
En Italie, la réponse à l’émergence de ChatGPT a été immédiate : le pays a ordonné son blocage temporaire (levé quelques semaines plus tard) en attendant d’être certain de sa conformité avec le RGPD. La France n’a pas été aussi abrupte, mais la CNIL a confirmé qu’elle se penchait sérieusement sur le sujet.
La CNIL se met à l’heure de l’IA
Dans un communiqué officiel paru cette semaine, la Commission nationale de l’informatique et des libertés a annoncé la mise en place d’un dispositif entièrement dédié à l’IA. Un nouveau service dédié aux questionnements technologiques, mais surtout éthiques. qui entourent cet épineux sujet. Concrètement, la mission de la CNIL devrait s’articuler autour de 3 points :
- Comprendre le fonctionnement des systèmes d’IA et leur impact sur les internautes
- Encadrer le développement de système d’IA respectueux de la vie privée et des données personnelles
- Accompagner des acteurs innovants en France et en Europe dans le secteur de l’IA
En plus de veiller au respect du RGPD, la CNIL devrait ainsi garantir la “loyauté et la transparence” des modèles de langages, notamment sur la question du traitement des données personnelles, du moissonnage d’informations, ou de la lutte contre les discriminations. Un encadrement d’autant plus nécessaire que les chatbots comme ChatGPT manquent cruellement de transparence aujourd’hui. L’utilisation des historiques de conversations est opaque, surtout lorsqu’Open AI avoue entraîner sa technologie sur les échanges qu’entretient cette dernière avec les internautes.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.