Passer au contenu

La CNIL pourrait bientôt réguler l’IA en France, et ce n’est pas forcément une bonne nouvelle

En France, la question de l’IA et de sa régulation se font de plus en plus pressante.

En France comme ailleurs, l’IA cultive l’ambiguïté. L’Hexagone se fascine pour les prouesses techniques rendues possible par les modèles de langage, et Open AI est en passe de changer (encore) la face du monde avec la présentation hier de son outil de génération vidéo Sora. Côté gouvernement, Valérie Pécresse (présidente de la région Île-de-France), Catherine Vautrin (Ministre du Travail) et Bruno Le Maire (Ministre de l’Économie) ont rencontré cette semaine le PDG de Google et de sa maison mère Alphabet Sunar Pichai, pour inaugurer un nouveau centre de recherche en intelligence artificielle au cœur de la capitale.

À l’opposé du spectre, les régulateurs français s’inquiètent déjà des dérives que pourrait avoir une intelligence artificielle non maitrisée. L’affaire des deepfakes pornographiques de Taylor Swift est encore palpable, et l’arrivée de la vidéo générée par IA continue cristalliser les tensions. C’est justement dans cette optique que les deux députés Stéphane Rambaud (RN) et Philippe Pradal (Horizons) ont livré cette semaine un texte de loi proposant à “transformer la Cnil en une Haute Autorité en charge de la protection des données et du contrôle de l’intelligence artificielle“.

La CNIL travaille déjà sur l’IA

https://twitter.com/p_pradal/status/1757470778432377027

L’idée n’est pas nouvelle. La CNIL a déjà livré bon nombre de rapports sur l’intelligence artificielle et sa nécessaire régulation. Elle avait d’ailleurs annoncé en janvier dernier la création d’un service dédié à l’IA. Officialiser les choses au moyen d’un véritable département de travail “doté d’un grand nombre d’experts et techniciens en mesure de contrôler des algorithmes complexes” permettrait ainsi de sécuriser le terrain. Aujourd’hui, la Commission nationale de l’informatique et des libertés compte parmi l’un des seuls acteurs gouvernementaux qualifiés pour occuper le poste. “L’IA générative offre des opportunités immenses, mais nécessite une régulation vigilante pour éviter les abus et les biais“, réclame Philippe Pradal.

L’idée serait de répartir le travail entre l’Arcom (fusion du CSA et de la Hadopi), en charge des de la régulation des plateformes numériques, et la CNIL, responsable du respect de la vie privée et de l’éthique en ligne. Si les deux autorités seraient conjointement en charge de la régulation de l’IA, une seule serait ainsi désignée pour piloter les opérations.

Pourquoi ce n’est pas forcément une bonne nouvelle ?

Réguler l’IA à l’échelle nationale et européenne n’est pas négociable : il s’agit même d’une condition sine qua none pour limiter les risques face au développement d’un outil à la puissance de calcul exponentielle, dont personne n’a encore les clés. Reste que si la France veut rester compétitive en matière d’IA, elle va devoir faire mieux qu’une simple censure. Interdire ou restreindre de manière préventive ne règlera pas le problème : pire encore, cela ne fera que creuser l’écart entre les pays qui acceptent tout et n’importe quoi de l’IA (quitte à flirter avec l’éthique), et ceux qui y sont réfractaires. Pour devenir l’un des centres névralgiques de la recherche IA, la France va devoir accepter de prendre des risques. Lors de sa rencontre avec Sundar Pichai, Bruno Le Maire avait ainsi déclaré : “Quand on régule une innovation, c’est qu’on ne la maîtrise pas“. À méditer…

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
  1. “outil à la puissance de calcul exponentielle, dont personne n’a encore les clés”

    Si si, certains ont les clés. La régulation, c’est justement pour protéger ceux qui n’ont pas les clés de ceux qui les exploitent.
    Et ceux qui pense que savoir utiliser ChatGPT c’est avoir les clés se trompent complètement : utiliser ChatGPT c’est être exploité par OpenAI.

    L’IA c’est pas juste de l’innovation. C’est aussi et surtout des enjeux politiques et sécuritaires. L’IA régule déjà notre quotidien et notre pensée aux travers d’outils qui nous paraissent anodin (Tiktok, Messenger, Instagram, TripAdvisor, Amazon…) Il est important que nos gouvernements prennent au sérieux l’importance des données personnelles exploitées par les IA. Si on prend juste TikTok, n’importe quel institut de sondage rêverai du tas de données exploitée par TikTok. A partir du moment où on a profilé les utilisateurs de son application, il est très facile d’utiliser un algorithme IA pour infléchir la pensée de millions de personnes, tout en mesurant sa performance.

    Il FAUT réguler.

Les commentaires sont fermés.

Mode