Passer au contenu

Microsoft propose DALL-E au Pentagone, et les idéaux d’OpenAI s’écroulent

Des documents de la Défense américaine montrent que Microsoft a suggéré au Pentagone d’utiliser le travail d’OpenAI pour améliorer ses logiciels militaires – une pente glissante qui montrent que les idéaux originaux de Sam Altman ont souffert depuis le rapprochement avec le titan du software.

Selon The Intercept, Microsoft aurait fait la promotion de DALL-E, l’outil de génération d’images d’OpenAI, au Département de la Défense américain. Le géant du software aurait vanté les mérites du modèle d’IA générative lors d’une présentation au Pentagone en octobre 2023, le présentant comme une superbe ressource pour améliorer des systèmes de planification militaire.

Cette partie de la présentation portait apparemment sur les Battle Management Systems, ou BMS. Il s’agit d’ensembles de logiciels qui fournissent une vue d’ensemble du théâtre d’une opération militaire à l’état-major d’une armée, afin d’aider les décideurs à planifier des mouvements de troupes ou des frappes stratégiques. D’après les documents consultés par The Intercept, l’Air Force développe un système BMS avancé appelé JADC2, qui compile des données stratégiques issues de nombreuses sources (drones de reconnaissance, radars maritimes…) pour créer des cartes stratégiques exploitables par l’ensemble des forces armées américaines.

Les générateurs d’images pour entraîner des outils militaires

Or, ces BMS reposent en partie sur des algorithmes de vision par ordinateur, qui permettent à un programme d’extraire des informations d’une image. Ces systèmes sont par exemple utilisés dans les systèmes de pilotage automatique des voitures Tesla pour identifier les autres véhicules, les piétons ou la signalisation. Microsoft considère apparemment qu’un générateur d’images comme DALL-E pourrait être une ressource précieuse dans ce contexte, car il pourrait permettre de produire de grandes quantités d’images artificielles pour entraîner ces BMS à identifier des cibles potentielles.

Un argument assez étonnant. Car malgré les immenses progrès de l’IA générative, ces modèles souffrent encore de limites considérables en termes de précision. Par exemple, il y a quelques mois à peine, la plupart d’entre eux avaient encore tendance à commettre des erreurs flagrantes sur le nombre de doigts d’une main, ou même le nombre de membres d’un humain. On peut donc légitimement s’interroger sur la capacité de ces outils à produire du matériel suffisamment précis et cohérent pour alimenter des systèmes militaires à l’importance stratégique considérable.

Mais au-delà des considérations techniques, il y a un autre point qui pose problème dans cette affaire. Si l’idée de Microsoft se concrétise, cela sonnera définitivement le glas des idéaux originaux d’OpenAI.

La philosophie d’OpenAI tombe en ruines

Pour rappel, lors de sa création en 2015, l’entreprise s’était positionnée comme une structure à but non lucratif et même quasiment philanthropique. Son objectif revendiqué : agir uniquement pour le bénéfice de l’humanité. Sa politique interne stipulait même explicitement que ses produits ne pourraient en aucun cas être utilisés pour développer des armes, de systèmes de surveillance, et ainsi de suite.

Mais la donne a complètement changé lorsque Microsoft est entré dans la danse en injectant 10 milliards dans la startup. Un investissement qui en a fait le principal mécène de Sam Altman et de ses troupes, lui offrant ainsi un contrôle important sur la politique de l’entreprise. Or, Microsoft a déjà collaboré activement avec la Défense américaine par le passé. Par exemple, en 2021, le titan de la tech a signé un mégacontrat de 22 milliards de dollars avec le gouvernement pour équiper les soldats d’une variante plus sophistiquée de ses lunettes AR HoloLens, afin de leur offrir un avantage déterminant sur le champ de bataille.

Microsoft a déjà collaboré avec le Pentagone, notamment avec un énorme contrat autour de lunettes de réalité augmentée. © Microsoft / US Army

Et depuis qu’OpenAI s’est rapproché de Microsoft, l’entreprise a significativement modifié sa politique interne. Terminée, l’interdiction formelle de travailler avec le secteur militaire ; la nouvelle version est beaucoup plus souple, et interdit seulement quelques usages spécifiques comme le « développement d’armes ». Des termes qui peuvent être interprétés de façon bien plus libérale.

OpenAI, de son côté, a nié avoir participé à cette présentation. Mais l’entreprise a quand même indiqué que tout accord avec le Département de la défense au sujet de ses produits serait uniquement soumis à la politique interne de l’entreprise de Satya Nadella. En d’autres termes, la firme n’aura pas son mot à dire si son mécène souhaite utiliser son programme de cette façon. Un point qui va certainement donner du grain à moudre aux critiques comme Elon Musk. Pour rappel, ce dernier estiment que le bébé de Sam Altman n’est désormais plus qu’un vassal condamné à servir les intérêts de Microsoft. Récemment, le patron de SpaceX et Tesla a même récemment lancé une action en justice contre OpenAI à cause de ce changement de trajectoire radical.

Malheureusement, il est peu probable que le grand public soit tenu au courant d’éventuelles négociations concrètes entre Microsoft et l’armée, puisqu’elles porteraient fatalement sur des thèmes classés secret-défense. Mais quoi qu’il en soit, cette affaire montre que les idéaux originaux d’OpenAI ont vraiment pris du plomb dans l’aile. Reste à voir si l’entreprise finira par être entièrement phagocytée par l’entreprise la plus riche du monde, ou si elle réussira à conserver un tant soit peu d’indépendance.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

3 commentaires
  1. Bein si
    Surveiller les ennemis d’une démocratie c’est philanthropique
    Ne vous en déplaise

  2. Quand les Bisounours découvrent le monde réel…

    Heureusement, il y a encore des jeunes patriotes en occident.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode