Passer au contenu

Des employés d’OpenAI et de Google DeepMind veulent un droit d’alerte sur l’IA

Un groupe d’employés actuels et anciens de Google DeepMind et d’OpenAI ont publié une lettre ouverte demandant une meilleure surveillance de la sécurité dans le secteur, et des protections accrues pour les lanceurs d’alerte.

Un collectif composé de onze employés (actuels comme anciens) d’OpenAI, ainsi que de deux salariés de Google DeepMind (dont l’un a également travaillé chez Anthropic), a publié une lettre ouverte cette semaine dans laquelle ils expriment de très sérieuses craintes concernant le manque de supervision de la sécurité au sein de l’industrie de l’IA. La lettre appelle à un « droit d’alerter sur l’intelligence artificielle » et souligne la nécessité de protéger les lanceurs d’alerte.

Le danger des entreprises IA laissées sans surveillance

Les auteurs de la lettre affirment que les entreprises d’IA détiennent des informations « substantielles » et non publiques sur les capacités et les limites de leurs systèmes, ainsi que sur l’efficacité de leurs mesures de protection et les niveaux de risque associés à différents types de dommages. Ces entreprises n’ont quasiment aucune obligation de partager ces informations avec les gouvernements ni avec la société civile. Les signataires estiment très problématique que ces entreprises ne soient pas forcées de partager volontairement ces informations.

OpenAI a défendu ses pratiques en affirmant disposer de moyens pour signaler les problèmes au sein de l’entreprise. Par ailleurs, le créateur de ChatGPT assure ne pas mettre à disposition de nouvelles technologies sans avoir mis en place les mesures de sécurité appropriées.

La lettre souligne que même si les entreprises d’IA ont publiquement déclaré leur engagement à développer la technologie en toute sécurité, les chercheurs et les employés ont mis en garde contre le manque de surveillance qui pourrait exacerber les problèmes actuels de la société, ou en créer de nouveaux. Ces employés estiment que des protections accrues pour ceux qui choisissent de signaler des préoccupations de sécurité sont nécessaires.

Les signataires de la lettre proposent un engagement sur quatre principes autour de la transparence et de la responsabilité, y compris une disposition selon laquelle les entreprises ne forceront pas les employés à signer des accords de non-dénigrement qui interdisent de soulever des questions liées aux risques de l’IA. Ils demandent également un mécanisme permettant aux employés de partager anonymement leurs préoccupations avec les membres du conseil d’administration.

« Tant qu’il n’y aura pas de surveillance publique efficace de ces entreprises, les employés actuels et anciens seront parmi les rares à pouvoir les tenir responsables devant le public », affirme la lettre. « Pourtant, de vastes accords de confidentialité nous empêchent d’exprimer nos préoccupations, sauf à ces mêmes entreprises qui peuvent ne pas résoudre ces problèmes. »

Cette lettre ouverte survient après la démission de deux employés essentiels d’OpenAI, le cofondateur Ilya Sutskever et le chercheur en sécurité Jan Leike, le mois dernier. Après son départ, Leike avait déploré qu’OpenAI avait abandonné une « culture de sécurité » au profit de produits attractifs pour le grand public et pour les entreprises. Cette lettre fait d’ailleurs écho à certaines des déclarations du chercheur en sécurité.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode