Crédit : YouTube/UC Berkeley
Ce mot-valise, fusion de deep learning et fake , désigne un contenu truqué et sciemment trompeur. Un deepfake est un faux, quelle que soit la nature du contenu – vidéo, photo, audio ou texte –, conçu grâce à l’intelligence artificielle. Le réalisme des images recomposées artificiellement fait d’un deepfake un instrument potentiellement efficace pour manipuler l’opinion. Pour contrefaire ces vidéos avec le visage d’actrices célèbres, des logiciels, comme Deepfake et FakeApp, étaient disponibles gratuitement sur internet dès le début de l’année 2018. La plupart des sites concernés comme YouPorn ou Pornhub, les forums Reddit ou Discord, le site de partage de vidéo Gfycat et Twitter, n’ont pas tardé à réagir, entre la fin janvier et le début février 2018, en interdisant ces deepfakes pornographiques. Le degré de perfection atteint est tel en matière de fake, qu’il convient de distinguer les deepfakes, qui sont le fruit de l’intelligence artificielle, des autres fakes qui ne le sont pas. Baptisées cheapfakes ou shallow fakes, les vidéos qui relèvent de cette dernière caté­gorie sont peu retravaillées, le truquage consistant simplement à ralentir les images d’une séquence. Aux États-Unis, ils ont servi avec succès à attaquer un adversaire politique. En mai 2019, une vidéo a circulé sur internet, notamment relayée par le Parti républicain, l’Alt-right et même par le président Donald Trump, montrant Nancy Pelosi « comme ivre » lors d’un discours. Vu plus de deux millions de fois, ce cheapfake a été retiré sur Youtube mais maintenu accessible sur Twitter. Facebook l’a simplement déclassé, en y ajoutant un avertissement à l’attention de ses membres, répondant aux critiques que « nous n’avons pas de règles stipulant que l’information publiée sur Facebook doit forcément être vraie ». Quelques mois auparavant, en novembre 2018, un autre cheapfake, montrant une soi-disant dispute entre une collaboratrice du président Trump et un journaliste de CNN, a permis l’éviction de ce dernier des conférences de presse à la Maison Blanche.
via GIPHY

Nulle n'est épargné par cette technologie 


Selon cette technologie, deux algorithmes s’entraînent mutuellement, l’un œuvrant à fabriquer une image tandis que l’autre cherche, en parallèle, à déterminer si cette image est fausse, entraînant de cette façon le premier à faire mieux. Cette technologie a permis d’engendrer « le portrait d’Edmond de Belamy », tableau conçu par une intelligence artificielle et vendu aux enchères chez Christie’s en octobre 2018. Les images créées par les GAN ont atteint un niveau de crédibilité très satisfaisant, la frontière entre le réel et le virtuel n’étant plus toujours perceptible. En 2018, le spécialiste américain des processeurs graphiques Nvidia a présenté un programme, fondé sur la technologie des GAN, capable d’inventer des visages au réalisme sidérant. En juin 2019, c’est une démarche plus incisive qui guide les deux artistes britanniques Bill Posters et Daniel Howe, en collaboration avec l’agence de communication Canny AI, lorsqu’ils postent sur Instagram une vidéo deepfake faisant dire à Mark Zuckerberg que « quiconque contrôle les données contrôle l’avenir ». Avec leur vidéo clairement estampillée #deepfake, les artistes invitent à imaginer « la prochaine étape de notre évolution numérique où chacun pourrait éventuellement avoir une copie numérique, un humain universel éternel. » En toute logique, ce deepfake du patron n’a pas été supprimé sur le réseau social. Un faux pourrait également servir à mieux communiquer.

Le directeur fondateur de l’association Solidarité Sida, Luc Barruet, prête à cette vidéo truquée « des vertus pédagogiques, pour que les gens mesurent ce que l’on peut faire avec les deepfakes ». À ses yeux, les critiques émises sur le Net, quant au caractère « douteux » ou « dangereux » de cette fausse vidéo dont il faut attendre la fin pour en comprendre le sens, sont peu nombreuses en comparaison de son succès viral, précisant que « ceux qui réagissent sur les réseaux sociaux sont toujours ceux qui ne sont pas contents, pas ceux qui trouvent ça formidable ». Les outils de manipulation de l’audio et de la vidéo, pour faire dire n’importe quoi à n’importe qui, se perfec­tionnent et se multiplient. Des chercheurs de l’université de Washington ont mis au point un algorithme basé sur la technologie VDR , qui permet la synchronisation trompeuse d’une voix sur des images.

 Deepfake un outils d'extorsion de fonds


À Stanford, le programme Face2Face s’appuie sur la technique ''Facial Reenactment'' pour recomposer des expressions faciales en temps réel. En Europe, des chercheurs allemands travaillent à un logiciel de « marionnettisation » servant à calquer sur le visage d’une personne des expressions et des paroles factices, ce qui permet d’imaginer un jour une conférence de presse en direct mais fausse et totalement détournée. La propagation des outils permettant de fabriquer des deepfakes serait donc une menace pour tous. En août 2019, le Wall Street Journal relatait qu’une entreprise avait été victime d’une tentative d’extorsion de fonds par des escrocs ayant utilisé une voix artificielle, imitant celle du PDG. 
 Vraisemblables quoique fausses, ces vidéos de person­nes connues dans des situations fictives viennent grossir le flux quotidien de la désinformation, entendue comme la communication volontaire d’une information fausse dans le but de nuire, selon la définition proposée par l’OCDE . On sait déjà que le niveau de crédibilité de certains deepfakes est testé par leurs auteurs grâce à la technologie des GAN. L’agence de la recherche du ministère américain de la défense, la Darpa, finance depuis 2016 à travers un programme baptisé MediFlor, pour Media Forensics, plusieurs projets pour « vérifier l’authenticité et établir l’intégrité des médias visuels », associant des organismes américains à d’autres équipes de recherche à l’étranger, notamment en Europe. Pour combattre l’invasion des deepfakes, les pistes empruntées par les chercheurs sont diverses. Pour certains, la priorité serait de constituer une immense base de données d’images afin de pouvoir comparer les images originales avec celles qui sont truquées. 

Idenfication des deepfakes

Selon Walter Quattrociocchi, direc­teur du laboratoire de science de la donnée et de la complexité à l’université Ca’Foscari de Venise, la solution passerait par l’identification des sujets qui suscitent la polémique sur internet, car « ce sont souvent les plus populaires et ceux qui suscitent le plus d’engagement, mais aussi ceux qui attireront le plus de deepfakes », le but étant de pouvoir alerter les internautes engagés dans ces discussions. Souvent décriés pour ne pas lutter assez activement contre la désinformation, les géants internet ont annoncé mettre à la disposition des chercheurs une grande quantité de contenus contrefaits afin d’entraîner leurs algorithmes à les détecter. En septembre 2019, Google a rendu publiques plus de 3 000 vidéos vraies et fausses réalisées avec des acteurs issues de sa DeepFake Detection Dataset.

 Par ailleurs, les groupes américains de la tech et des institutions universitaires ont lancé un « deepfake challenge » en septembre 2019. Financée à hauteur de 10 millions de dollars par Facebook, cette initiative, qui vise à trouver des solutions anti-deepfakes, regroupe notamment les géants Apple, Amazon, Microsoft, IBM, ainsi que le MIT et l’université d’Oxford. Depuis 2018, le Wall Street Journal dispose d’un Media Forensics Committee composé de 21 journalistes et rédacteurs en chef de tous les services . « Chacun d’entre eux est de garde pour répondre aux questions des journalistes sur la manipulation d’un élément de contenu, explique Francesco Marconi. » En Europe, dans le cadre d’un projet de recherche soutenu par l’Union européenne, dix pays, dont la France à travers l’AFP, ont mis au point, entre 2016 et 2018, la plateforme InVID , afin d’aider les journalistes à détecter les vidéos truquées. Un autre projet de recherche en cours, baptisé WeVerify, comporte la création d’une base de données de faux connus. 

Les vidéos truquées sources de désinformations sur les réseaux sociaux


Les vidéos truquées sont une nouvelle menace qui viendrait amplifier les campagnes de désinformation sur les réseaux sociaux. Le procureur Robert Mueller, après deux années d’enquête sur une possible collusion entre Moscou et l’équipe de campagne de Donald Trump, a signalé un potentiel risque d’interférence en 2020. « La Russie a sans doute été enhardie à recommencer en 2020, étant donné le peu de réactions des États-Unis face aux révélations de 2016 », estime Alex Stamos, professeur à Stanford et ancien responsable de la sécurité chez Facebook. 
Selon Maurice Turner, spécialiste de la sécurité électorale, le problème reste complexe car une vidéo, même identifiée comme fausse, peut « renforcer une opinion chez ceux qui veulent y croire, et détourner l’attention des informations réelles ». À propos du cheapfake s’attaquant à Nancy Pelosi, large­ment répandu sur les réseaux sociaux alors qu’il était pourtant facile de ne pas se laisser duper, Francesco Marconi explique « qu’il n’en faut pas beaucoup pour tromper certains internautes. » En janvier 2019, la chaîne de télévision locale Q13 à Seattle a diffusé un deepfake imitant Donald Trump au cours d’un discours tenu par le président des États-Unis à peine quelques minutes auparavant.

 Source : https://la-rem.eu/2019/11/deepfake/