Passer au contenu

Une image générée par l’IA remporte un prestigieux concours photo

Pour défendre son art, un photographe allemand a entourloupé le jury du Sony World Photography Award avec une image générée grâce à des outils basés sur l’intelligence artificielle.

Depuis sa création il y a 16 ans déjà, le Sony World Photography Awards est devenu un événement incontournable pour les amoureux de la photo. Ce concours, qui s’adresse aussi bien aux professionnels chevronnés qu’aux photophiles du dimanche, rassemble des milliers de participants originaires des quatre coins du globe. Mais cette année, la publication des résultats a généré un imbroglio retentissant, et très représentatif des grands changements qui sont en train de s’opérer dans le monde de l’art visuel.

L’histoire commence avec le photographe allemand Boris Eldagsen, lauréat dans la catégorie Créative de cette édition 2023. Cette division récompense généralement des œuvres assez expérimentales qui prennent un certain nombre de libertés vis-à-vis des codes traditionnels de la photo.

Le jury a récompensé sa photo nommée Pseudomnesia : The Electrician, un portrait à l’ancienne de deux femmes d’âges différents. La remise des prix s’est déroulée sans encombre. D’après la BBC, Eldgasen, apparemment comblé, a remercié les juges d’avoir « sélectionné son image et d’en avoir fait un moment historique ».

Mais intérieurement, le photographe était probablement hilare, et pour cause : il venait de boucler un canular retentissant. En effet, Eldagsen avait soigneusement omis de transmettre une information capitale : l’image en question a été générée à l’aide d’outils basés sur l’intelligence artificielle !

Une supercherie en guise de signal d’alarme

Lorsqu’il a révélé sa manigance sur son site web, l’information a fait l’effet d’une petite bombe dans le monde de la photo. Une sacrée humiliation pour le jury et les personnes chargées d’authentifier les contributions des participants.

Et c’était précisément son objectif. Car Eldgasen ne voulait pas que la supercherie passe inaperçue. Il a d’ailleurs renoncé à la récompense dans la foulée. Son véritable objectif, c’était d’attirer l’attention de toute la communauté sur ce qu’il considère comme une menace existentielle pour l’art de la photographie. Il affirme être admiratif du potentiel créatif de l’intelligence artificielle. Mais il considère aussi que cette dernière n’a rien à faire dans un concours de photo traditionnelle.

un portrait généré grâce à Midjourney
Une petite minute et quelques tours de passe-passe sémantiques nous ont suffi pour générer une image dans un style comparable grâce à MidjourneyAI. © Journal du Geek

Chez les observateurs, les réactions étaient partagées. Certains ont salué une initiative courageuse et pleine d’audace, tandis que d’autres ont dénoncé une tromperie qu’ils estiment contre-productive. Les organisateurs, de leur côté, se sont défendus en suggérant à demi-mot qu’ils étaient au courant, et qu’ils souhaitaient encourager cette démarche provocatrice.

« Suite à notre correspondance avec Boris, et avec les garanties qu’il nous a apportées, nous avons eu le sentiment que sa proposition remplissait tous les critères de la catégorie Créative, et nous avons encouragé sa participation. De plus, nous étions enthousiastes à l’idée de nous engager dans une grande discussion sur cette thématique et nous avons accueilli à bras ouvert l’initiative de Boris », explique un porte-parole du concours dans The Art Newspaper.

Eldagsen, de son côté, a complètement rejeté cette interprétation. Pour lui, les organisateurs ont simplement fait « semblant » d’avoir été au courant. Il interprète cette réaction comme une tentative des apparences une fois que l’affaire a explosé au grand jour sur les réseaux sociaux, avant d’être reprise par plusieurs grands médias comme le Times et la BBC.

« Les images d’IA et la photographie ne devraient pas se concurrencer dans un prix comme celui-ci. Ce sont des entités différentes », a-t-il martelé selon la BBC. « L’IA n’est pas de la photographie. Par conséquent, je n’accepterai pas le prix. »

L’ Affaire Sokal de la photo ?

Ce qui est très intéressant, c’est qu’il existe un parallèle évident avec un autre feuilleton extrêmement mémorable : l’affaire Alan Sokal. Pour la petite histoire, en 1996, ce physicien et épistémologue s’est livré à une expérience facétieuse. Son objectif :  dénoncer un problème de traçabilité dans la recherche scientifique.

alan Sokal
L’histoire d’Eldagsen ressemble à celle du professeur Alan Sokal, dont la petite manigance a conduit à de grands remaniements dans le monde académique. © Jaime Villanueva

À cette époque, les comités de relecture qui vérifient la validité des études avant leur publication étaient peu communs et pas toujours très rigoureux. Pour mettre cette lacune en évidence, Sokal a choisi d’agir. Il a publié un article nommé « Transgresser les limites : vers une herméneutique transformative de la gravité quantique ».

Vous n’avez rien compris ? C’est bien normal : l’article entier, à l’image de son titre, était une énorme farce. Un fourbi sans nom, un empilement de jargon aléatoire sans aucun fondement scientifique destiné à flatter les convictions de son lectorat… que le journal a pourtant publié sans sourciller.

Quand le scientifique a révélé la supercherie, l’affaire — depuis passée à la postérité sous le nom d’Affaire Sokal — a fait l’effet d’une bombe nucléaire dans le monde de l’édition scientifique. Cela a grandement participé à la mise en place des comités de relecture tels qu’on les connaît aujourd’hui.

Il sera donc très intéressant de voir si le coup de gueule du photographe aura le même genre d’impact. Eldagsen va-t-il devenir le « Sokal de la photo » ? L’avenir nous le dira. Mais en attendant, son coup d’éclat met un nouveau coup de projecteur sur cette thématique ô combien importante.

Les générateurs d’image basés sur l’IA sont des outils formidables, certes. Mais pour le moment, ils affichent encore des lacunes béantes en termes de traçabilité. Avec tout ce que cela implique pour la désinformation quand des individus peu scrupuleux l’utilisent à mauvais escient. On sait par exemple que l’humain lambda n’est même plus capable de faire la différence entre une vraie photo et un deepfake généré par un réseau de neurones (voir notre article).

L’humanité va donc devoir apprendre à dompter cet animal sauvage, et connaissant les enjeux, le plus tôt sera le mieux. Espérons que ce genre d’initiative permettra d’accélérer le processus.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Mode