L’intelligence artificielle n’a pas que des avantages. Avec le déploiement des algorithmes génératifs — notamment utilisés dans le cadre de projets de reconnaissance faciale — France Télévision craint désormais pour la sécurité de ses témoins sensibles. Jusqu’à présent, les chaînes du service public se contentaient de flouter le visage de la personne et de modifier artificiellement sa voix. Des précautions qui ne suffisent plus, rapporte une enquête de Challenges.
La reconnaissance faciale est trop forte
Le floutage des témoins ne fait plus le poids face aux progrès de l’intelligence artificielle et à l’avènement de la reconnaissance faciale. Pour le moment, les algorithmes accessibles au grand public ne permettent pas d’identifier parfaitement un visage masqué, mais peut déjà révéler partiellement un floutage léger. Face aux progrès de l’IA, France TV a préféré prendre les devants, en abandonnant le floutage des témoins et le trucage de leurs voix. Mais alors, quelles solutions pour protéger l’anonymat d’un témoin sensible ?
Depuis l’été dernier, la direction de France TV a pris de nouvelles directives. Dans une “charte de l’anonymat” distribuée aux journalistes du groupe, de nouvelles règles sont entrées en vigueur. Les témoins anonymes ne peuvent ainsi plus être filmés dans des environnements qui leur sont familiers, à leur domicile ou à leur travail par exemple. Pour éviter tout risque de reconnaissance faciale, il est aussi conseiller de ne plus flouter les témoins, mais de les filmer de dos, ou encore de laisser leur visage hors champs. Dès que cela est possible, les journalistes sont aussi invités à faire appel à “une autre personne de dos“, et à faire rejouer le témoignage par un journaliste, en informant au préalable les téléspectateurs de la démarche. Autant de précautions nouvelles confirmées par une source proche du groupe, et qui rendent à priori l’identification impossible.
Et quand ce n’est pas possible ?
Certaines situations exceptionnelles compliquent l’anonymisation des témoins, reconnaît France TV. Dans le cas d’une caméra cachée par exemple, ou lorsqu’un témoin a été filmé à visage découvert, puis qu’il a changé d’avis avant la diffusion, des solutions de repli existent. Il sera par exemple possible d’apposer un cache opaque sur le visage, ou encore de rajouter un avatar artificiel, qui sera ensuite flouté. Dans tous les cas, le floutage seul est proscrit. “Ces techniques vont rendre certaines de nos séquences beaucoup moins regardables qu’auparavant, mais la sécurité de nos sources est à ce prix“, conclut la charte.
Reste que l’IA occupe une place de plus en plus importante dans le paysage médiatique. Les outils de reconnaissance faciale et les algorithmes génératifs permettent de véritables prouesses technologiques. En marge des considérations légales, l’explosion de l’IA pose aussi bon nombre de questionnements éthiques et sécuritaires.
Éviter le procès
Si France TV est aussi scrupuleux à protéger ses témoins, le groupe entend aussi se protéger lui-même. En 2014, l’entreprise avait été condamnée à verser 7 000€ de dommages et intérêts à une femme victime de violences conjugales après la diffusion d’un reportage sur France 2. Malgré le floutage, la témointe avait estimé que son anonymat n’était pas respecté. Depuis la publication de sa nouvelle charte, France TV a indiqué que les replays contenant des visages floutés ne répondant plus aux normes de sécurité du groupe ne seraient plus accessibles en ligne.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.