Crédit : YouTube/UC Berkeley |
via GIPHY
Nulle n'est épargné par cette technologie
Le directeur fondateur de l’association Solidarité Sida, Luc Barruet, prête à cette vidéo truquée « des vertus pédagogiques, pour que les gens mesurent ce que l’on peut faire avec les deepfakes ». À ses yeux, les critiques émises sur le Net, quant au caractère « douteux » ou « dangereux » de cette fausse vidéo dont il faut attendre la fin pour en comprendre le sens, sont peu nombreuses en comparaison de son succès viral, précisant que « ceux qui réagissent sur les réseaux sociaux sont toujours ceux qui ne sont pas contents, pas ceux qui trouvent ça formidable ». Les outils de manipulation de l’audio et de la vidéo, pour faire dire n’importe quoi à n’importe qui, se perfectionnent et se multiplient. Des chercheurs de l’université de Washington ont mis au point un algorithme basé sur la technologie VDR , qui permet la synchronisation trompeuse d’une voix sur des images.
Deepfake un outils d'extorsion de fonds
À Stanford, le programme Face2Face s’appuie sur la technique ''Facial Reenactment'' pour recomposer des expressions faciales en temps réel. En Europe, des chercheurs allemands travaillent à un logiciel de « marionnettisation » servant à calquer sur le visage d’une personne des expressions et des paroles factices, ce qui permet d’imaginer un jour une conférence de presse en direct mais fausse et totalement détournée. La propagation des outils permettant de fabriquer des deepfakes serait donc une menace pour tous. En août 2019, le Wall Street Journal relatait qu’une entreprise avait été victime d’une tentative d’extorsion de fonds par des escrocs ayant utilisé une voix artificielle, imitant celle du PDG.
Vraisemblables quoique fausses, ces vidéos de personnes connues dans des situations fictives viennent grossir le flux quotidien de la désinformation, entendue comme la communication volontaire d’une information fausse dans le but de nuire, selon la définition proposée par l’OCDE . On sait déjà que le niveau de crédibilité de certains deepfakes est testé par leurs auteurs grâce à la technologie des GAN. L’agence de la recherche du ministère américain de la défense, la Darpa, finance depuis 2016 à travers un programme baptisé MediFlor, pour Media Forensics, plusieurs projets pour « vérifier l’authenticité et établir l’intégrité des médias visuels », associant des organismes américains à d’autres équipes de recherche à l’étranger, notamment en Europe. Pour combattre l’invasion des deepfakes, les pistes empruntées par les chercheurs sont diverses.
Pour certains, la priorité serait de constituer une immense base de données d’images afin de pouvoir comparer les images originales avec celles qui sont truquées.
Idenfication des deepfakes
Selon Walter Quattrociocchi, directeur du laboratoire de science de la donnée et de la complexité à l’université Ca’Foscari de Venise, la solution passerait par l’identification des sujets qui suscitent la polémique sur internet, car « ce sont souvent les plus populaires et ceux qui suscitent le plus d’engagement, mais aussi ceux qui attireront le plus de deepfakes », le but étant de pouvoir alerter les internautes engagés dans ces discussions. Souvent décriés pour ne pas lutter assez activement contre la désinformation, les géants internet ont annoncé mettre à la disposition des chercheurs une grande quantité de contenus contrefaits afin d’entraîner leurs algorithmes à les détecter. En septembre 2019, Google a rendu publiques plus de 3 000 vidéos vraies et fausses réalisées avec des acteurs issues de sa DeepFake Detection Dataset.
Par ailleurs, les groupes américains de la tech et des institutions universitaires ont lancé un « deepfake challenge » en septembre 2019. Financée à hauteur de 10 millions de dollars par Facebook, cette initiative, qui vise à trouver des solutions anti-deepfakes, regroupe notamment les géants Apple, Amazon, Microsoft, IBM, ainsi que le MIT et l’université d’Oxford. Depuis 2018, le Wall Street Journal dispose d’un Media Forensics Committee composé de 21 journalistes et rédacteurs en chef de tous les services . « Chacun d’entre eux est de garde pour répondre aux questions des journalistes sur la manipulation d’un élément de contenu, explique Francesco Marconi. »
En Europe, dans le cadre d’un projet de recherche soutenu par l’Union européenne, dix pays, dont la France à travers l’AFP, ont mis au point, entre 2016 et 2018, la plateforme InVID , afin d’aider les journalistes à détecter les vidéos truquées. Un autre projet de recherche en cours, baptisé WeVerify, comporte la création d’une base de données de faux connus.
Les vidéos truquées sources de désinformations sur les réseaux sociaux
Les vidéos truquées sont une nouvelle menace qui viendrait amplifier les campagnes de désinformation sur les réseaux sociaux. Le procureur Robert Mueller, après deux années d’enquête sur une possible collusion entre Moscou et l’équipe de campagne de Donald Trump, a signalé un potentiel risque d’interférence en 2020.
« La Russie a sans doute été enhardie à recommencer en 2020, étant donné le peu de réactions des États-Unis face aux révélations de 2016 », estime Alex Stamos, professeur à Stanford et ancien responsable de la sécurité chez Facebook.
Selon Maurice Turner, spécialiste de la sécurité électorale, le problème reste complexe car une vidéo, même identifiée comme fausse, peut « renforcer une opinion chez ceux qui veulent y croire, et détourner l’attention des informations réelles ». À propos du cheapfake s’attaquant à Nancy Pelosi, largement répandu sur les réseaux sociaux alors qu’il était pourtant facile de ne pas se laisser duper, Francesco Marconi explique « qu’il n’en faut pas beaucoup pour tromper certains internautes. » En janvier 2019, la chaîne de télévision locale Q13 à Seattle a diffusé un deepfake imitant Donald Trump au cours d’un discours tenu par le président des États-Unis à peine quelques minutes auparavant.Source : https://la-rem.eu/2019/11/deepfake/
0 Commentaires
Veuillez laisser vos commentaires pour permettre l'amélioration de mon blog.