Simplifiez-vous l'innovation

#astuce
catégories

#astuce
partage

#astuce
liens internes

obama-facetracking

Comment lutter contre les deepfakes ?

Philothée
Philothée
9 juillet 2019

Après les fake news, les deepfakes promettent de perturber les prochaines élections, aux États-Unis comme en Europe. Comment lutter contre une technologie qui nous empêche de distinguer ce qui est faux de ce qui est vrai ?

Les élections présidentielles américaines de 2016 (et, dans une moindre mesure, les françaises de 2017) ont été marquées par les fake news, ces faux articles de presse et rumeurs conçus expressément pour manipuler l’opinion. Celles de 2020 et 2022 le seront probablement par les deepfakes, des vidéos ou enregistrements audio qui, grâce au pouvoir de l’intelligence artificielle, permettent de faire dire absolument n’importe quoi à n’importe qui.

Aux États-Unis, la bataille des fakes est déjà bien lancée : Obama insulte Trump, Nancy Pelosi a l’air ivre ou malade durant une réunion publique. Alors que l’on sait à quel point les fake news peuvent être difficiles à démentir, ce nouveau type de manipulation politique pourrait menacer les systèmes démocratiques de manière fondamentale. Comment lutter, alors ? La réponse n’est pas simple, et elle devra combiner technologie et éducation. On vous explique.

Une brève histoire des deepfakes

D’abord, un petit récapitulatif historique. En 2014, le chercheur américain Ian Goodfellow invente les GAN (generative adversarial networks) : ce sont des logiciels IA qui peuvent, à partir d’une banque d’images, générer de fausses photos plus vraies que nature. Parce qu’il faut avoir accès à une large base de données pour créer ces contenus, les premières cibles des deepfakes sont des politiques et des célébrités. En novembre 2017, des vidéos de “fake porn” commencent ainsi à circuler sur Internet. On y voit les visages de stars féminines (Daisy Ridley, Emma Watson ou Gal Gadot) “associés” aux corps d’actrices du X, pour un résultat saisissant de réalisme. L’auteur du coup est un utilisateur de Reddit dont le pseudo est… Deepfakes. En 2018, BuzzFeed entreprend d’alerter le grand public sur les dangers des deepfakes en publiant une fausse vidéo de Barack Obama, dans laquelle l’acteur Jordan Peele le fait traiter Donald Trump de “dipshit”.

Depuis, les exemples se multiplient. En mai 2019, la Démocrate Nancy Pelosi, présidente de la Chambre des représentants, a fait l’objet d’une manipulation similaire de son image (même s’il ne s’agissait pas techniquement d’un deepfake, mais d’une altération d’une vidéo existante) : la version trafiquée la fait apparaître incohérente lors d’une réunion publique, laissant douter de sa capacité à être un leader d’opposition. Le segment a d’abord été pris au sérieux par les commentateurs politiques — Trump y est bien sûr allé de son tweet moqueur — avant d’être débunké. Un épisode qui rappelle les fausses vidéos de Hillary Clinton “malade” pendant la campagne de 2016, qui avaient déclenché des spéculations sur une maladie du cerveau dont aurait été atteinte la candidate.

Au royaume des deepfakes, les menteurs sont rois

Cette nouvelle étape dans le développement des fake news est très inquiétante, parce qu’elle signifie qu’on ne peut même plus croire nos propres yeux, ou nos propres oreilles, pour savoir si un contenu est vrai ou non. Les outils de capture du réel que sont la vidéo et l’enregistrement audio ne valent déjà plus rien, comme le montre très bien la série politique américaine The Good Fight. “Les deepfakes constituent une menace pour la démocratie, estime ainsi Francesco Paulo Marconi, responsable de la R&D au Wall Street Journal. Ils pourraient conduire à la fin de la confiance et de la vérité, et donner naissance à une société dans laquelle les gens ne croiront plus en aucune information.” Danielle Citron, professeure de droit à l’université du Maryland, va encore plus loin dans le Guardian : “Les deepfakes se contentent de simplifier ce qu’on appelle le ‘liar’s dividend’ (le profit du menteur). Quand plus rien n’est vrai, les malhonnêtes prospèrent en disant que ce qui est vrai est faux.”

Comment, alors, lutter contre l’avènement d’une société dans laquelle plus rien n’est vrai ? Ça se passe en deux grandes étapes : identifier les fakes et enrayer leur propagation. Plus facile à dire qu’à faire. La détection des deepfakes, si elle était relativement facile à leurs tout débuts, devient rapidement plus compliquée. “En juin dernier (2018), nous avions expliqué comment l’absence de clignement des yeux permettait de détecter les deepfakes”, explique dans Les Échos Siwei Lyu, directeur du laboratoire de vision par ordinateur et machine learning à l’université d’État de New York. Seul problème : “Trois semaines après, ce défaut avait été corrigé.” Un constat partagé par Hany Farid, professeur en sciences de l’informatique à l’université de Californie, Berkeley, et expert des contrefaçons numériques. “Auparavant, il y avait quelques années entre le moment où on mettait au point une nouvelle technique de détection et celui où les faussaires arrivaient à la contourner. Aujourd’hui, ça ne prend plus que deux à trois mois”, raconte-t-il au Guardian. Pour cette raison, le chercheur refuse de partager ses découvertes sur les deepfakes avec la presse. Ces progrès signifient aussi qu’il va devenir quasiment impossible de détecter des faux à l’œil nu et sans logiciels spécialisés : le public n’aura aucun moyen de savoir qu’une vidéo est fausse, à moins qu’une source fiable ne lui dise qu’elle l’est. Google et Facebook ont annoncé développer leurs propres moyens de détection, tandis que des start-ups, comme la néerlandaise 3D Universum, l’américaine Truepic, la britannique Serelya ou la canadienne Ooblex, se positionnent aussi sur le créneau.

Ne pas compter que sur les 1 et les 0

On se retrouve donc dans une situation où la technologie, aussi faillible soit-elle, est le seul recours pour identifier les contenus malveillants. Elle n’est toutefois pas la seule solution pour lutter contre leur propagation. En effet, comme l’explique aux Échos Walter Quattrociocchi, directeur du laboratoire Science de la donnée et de la complexité à l’Université Ca’Foscari de Venise, “les solutions purement techniques pourront toujours être déjouées par les pirates.” L’idée, c’est donc d’agir sur les comportements du public. “Nous voulons identifier les sujets à polémique sur le Net : ce sont souvent les plus populaires et ceux qui suscitent le plus d’engagement, mais aussi ceux qui attireront le plus de deepfakes.” Chaque fois qu’ils seront exposés à une image, les participants à ces conversations en ligne pourraient recevoir un avertissement. C’est le choix qu’a fait Facebook avec la vidéo trafiquée de Nancy Pelosi : désormais, quand un utilisateur clique dessus, s’affiche un message le prévenant qu’elle n’est pas authentique (la plateforme YouTube, elle, a fait le choix de supprimer la vidéo, et Twitter de ne rien faire du tout).

Ces mesures paraissent bien maigres, et illustrent la difficulté des réseaux sociaux, lieu privilégié de propagation des fake news, à lutter contre elles. En dernier recours, c’est toujours aux citoyens, aux journalistes et aux institutions démocratiques qu’il incombera de faire le tri entre le vrai et le faux. Dans un article publié par NextGov, le chercheur Justin Sherman écrit ainsi que la réponse aux deepfakes doit être globale et concertée : “Les écoles et universités devraient parler aux étudiants de la crédibilité des informations en ligne et leur montrer comment les éprouver. Les journalistes, tout comme les réseaux sociaux et les autorités gouvernementales, devraient utiliser des (…) logiciels de détection dans leur travail quotidien. Le gouvernement fédéral devrait lancer une campagne nationale d’information sur les fake news et les deepfakes.” En somme, la bataille contre le règne du mensonge doit être menée par tous, tout le temps, et ne pas compter aveuglément sur la technologie. “Si les décideurs politiques pensent que nous pouvons nous appuyer uniquement sur des 1 et des 0 pour lutter contre les effets des 1 et des 0, nous allons avoir de sérieux problèmes.”


Philothée
Ecrit par
Philothée Gaymard
Partager
Commentaires (0)

Merci de poster votre commentaires

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

S’inscrire
à la newsletter