Il était attendu de longue date. Ce 1ᵉʳ août 2024, l’IA Act européen est entré en vigueur. Fruit de trois ans de délibérations politiques, le texte entend réguler et contrôler les usages de l’intelligence dans l’Union, mais aussi jouer le rôle de précurseur à l’international. Concrètement, le texte se découpe en plusieurs parties distinctes. On fait le point.
Évaluer le niveau de risque
L’objectif premier de l’IA Act est de classer les usages de l’intelligence artificielle en fonction du niveau de risques qu’ils présentent. Ainsi, l’Europe a formellement interdit les technologies à “risque inacceptable“, comme les systèmes de notation sociale par exemple, déjà utilisés dans certains pays comme la Chine. À l’autre bout du spectre, les usages à “risque minimal” quant à eux, ne seront pas règlementés.
Le texte se concentre ainsi principalement sur deux catégories d’usage : les IA à “haut risque“, qui feront l’objet de restrictions strictes pour garantir la vie privée et la protection des utilisateurs, et les IA à “risques limités“, pour lesquels la réglementation sera légèrement plus souples, mais exigera tout de même de faire preuve de transparence.
Ainsi, les utilisateurs finaux (les internautes) devront obligatoirement être informés qu’ils interagissent avec un robot, et non un être humain. Ils devront aussi accepter explicitement la finalité précise de l’utilisation de leurs données, par exemple si ces dernières sont utilisées à des fins d’entraînement pour un chatbot, ou un générateur d’images.
- Risque minimal : pas de réglementation
- Risque limité : réglementation souple
- Haut risque : réglementation stricte
- Risque inacceptable : interdit
Responsabiliser les fournisseurs et les déployeurs
Autre point important de l’IA Act : l’Europe a identifié les acteurs entrant en jeu dans la mise sur le marché d’un outil IA. Il convient donc désormais de distinguer le “fournisseur” qui fournit le modèle de langage, du “déployeur” (aussi nommé utilisateur), qui va intégrer le modèle de langage sur son outil. Au bout de la chaîne, on retrouve l’internaute, ou utilisateur final.
Fournisseurs comme déployeurs sont soumis à diverses obligations, avec toutefois une règlementation accrue du côté des premiers. Ainsi, tous les fournisseurs de modèles de langage d’IA à usage générale devront fournir aux autorités une documentation technique, des instructions d’utilisation claires, et se conformer strictement à la directive sur les droits d’auteurs en vigueur. Sur ce point en particulier, cela signifie que les auteurs et autrices européens auront l’assurance que leurs textes ne seront pas utilisés (même si on ignore encore comment la législation pourra se montrer ferme sur le sujet) à des fins d’entraînenent d’IA. Les fournisseurs dont l’usage représente un risque systémique seront également tenus d’effectuer des évaluations de modèles, des tests contradictoires, mais aussi de suivre et signaler les incidents graves. La cybersécurité des utilisateurs finaux devra aussi être garantie.
Pour s’assurer de la bonne application du texte, la Commission européenne a créé l’Office AI, un organe de contrôle chargé de surveiller la conformité des développeurs de modèles. Ce dernier pourra évaluer et enquêter indépendamment sur les risques liés au développement de l’IA, en commandant notamment des rapports d’experts.
Un calendrier précis
Le texte a été publié ce jeudi 1ᵉʳ août au Journal officiel. Pour y voir plus clair, le site officiel de l’IA Act intègre désormais un outil de “vérificateur de conformité”, permettant de déterminer si un système d’IA doit être soumis aux obligations de la nouvelle législation. Par la suite, plusieurs échéances sont prévues.
- 1ᵉʳ février 2025 : interdiction définitive des systèmes d’IA “à risque inacceptable” (une période de tolérance est actuellement en vigueur)
- 1ᵉʳ août 2025 : entrée en vigueur des réglementations liées aux modèles d’IA à usage général
- Été 2026 : application de l’ensemble des textes et réglementations prévus dans la loi
Notez que l’IA Act est amenée à évoluer en fonction des avancées technologiques. L’arrivée massive de l’IA générative, notamment dans le secteur du jeu vidéo pourrait bien changer la donne, et rebattre les cartes des niveaux de risques détaillés par l’IA Act.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.