Les deepfakes sont des contenus synthétiques, créés à l’aide de l’intelligence artificielle, qui peuvent sembler montrer des gens disant et faisant des choses qu’ils n’ont jamais réellement dites ou faites. Initialement largement utilisés pour produire des farces et de la pornographie involontaire, les deepfakes sont de plus en plus utilisés comme outils politiques pour diffuser désinformation. Les développements technologiques signifient que les deepfakes seront probablement « déployés assez largement » lors de l’élection présidentielle de 2024, selon un expert. Génération d’IA. Un universitaire a déclaré à Newsweek que l’utilisation de deepfakes à des fins politiques devrait être interdite.
Le 20 mars, le journaliste britannique Eliot Higgins, fondateur du site d’investigation Bellingcat, a publié une extraordinaire série d’images. Ils montraient Donald Trump, ancien président et favori républicain pour 2024, plaqué au sol par des policiers. D’une manière ou d’une autre, Trump leur échappe et court dans la rue, avec les forces de l’ordre à sa poursuite. Il est à nouveau attrapé, alors que Melania semble crier sur les officiers, et est ensuite photographié à l’intérieur d’une cellule de prison.
La série se poursuit avec Trump au tribunal, puis en prison, d’où l’ancien président fait une évasion à la Shawshank Redemption et se retrouve dans un McDonald’s.
Si vous vous demandez si vous avez en quelque sorte manqué l’événement d’actualité de la décennie, vous pouvez être assuré que rien de tout cela ne s’est réellement produit, quelque chose sur lequel Higgins était tout à fait clair. Au lieu de cela, les images ont été créées à l’aide de Midjourney, l’un des nombreux créateurs d’images basés sur l’intelligence artificielle, en tant qu’expérience intellectuelle. Il s’agissait de deepfakes, des médias synthétiques créés à l’aide de l’intelligence artificielle.
Les deepfakes existent depuis un certain nombre d’années, mais ce qui change, et à une vitesse vertigineuse, c’est à la fois leur sophistication et le nombre de personnes qui peuvent les créer.
Ceci, combiné à une culture politique américaine de plus en plus chargée de complot, suscite des inquiétudes croissantes concernant la prochaine élection présidentielle, un expert déclarant à Newsweek qu’ils s’attendent à ce que les deepfakes soient « déployés assez largement » en 2024.
Pouvons-nous faire confiance à nos yeux et à nos oreilles ?
Le terme « deepfake » remonte à 2017, lorsqu’un compte Reddit utilisant ce nom a commencé à publier des vidéos éditées par IA qui inséraient les visages de célébrités féminines dans des scènes pornographiques au-dessus de l’interprète d’origine. Cette soi-disant «pornographie involontaire» était le principal type de deepfake au cours des deux premières années, mais elle est également de plus en plus utilisée par les acteurs politiques.
En mars 2022, quelques semaines seulement après le début de l’invasion russe de l’Ukraine, un deepfake semblant montrer Volodymyr Zelensky ordonnant à ses soldats de « déposer les armes et de retourner dans vos familles » a été diffusé en ligne. Et ce mois-ci, une vidéo deepfake du président Biden semblant introduire la conscription militaire, via la loi sur le service militaire, a été partagée par des comptes de médias sociaux de droite.
Une illustration photo de Newsweek montrant Ron DeSantis (L), Donald Trump (M) et Joe Biden (R), trois candidats possibles à l’élection présidentielle de 2024. Selon un expert, les deepfakes de personnalités politiques de premier plan seront probablement « déployés assez largement » lors du scrutin de 2024. Newsweek ; Source photo par CHENEY ORR /AFP)/Anna Moneymaker/Anna Moneymaker/Getty
Les efforts restent imparfaits – dans l’une des images de Higgins, par exemple, l’un des codétenus de Trump a six doigts d’une main—mais la direction du voyage est claire.
Ce n’est pas seulement la qualité qui s’améliore, mais la disponibilité. Pour illustrer mon propos, un luddite complet qui pensait que python était un serpent dangereux et java une île, a été capable de créer un deepfake audio très grossier en 30 minutes environ.
Dans le clip intégré en haut de cette histoire, j’ai fait annoncer à Trump qu’il se retirait de l’élection présidentielle de 2024 et qu’il approuvait à la place Ron DeSantis, « un gars formidable, un excellent gouverneur ». Il est peu probable que cela trompe qui que ce soit, mais ce n’est pas le but, si je peux faire dire tout ce que je veux à un Trump à consonance robotique, imaginez ce que des agences de renseignement étrangères hostiles peuvent faire.
La menace pour 2024
Dans une interview accordée à Newsweek, Henry Ajder, un expert des deepfakes qui présente un podcast sur le sujet pour la BBC, s’est dit particulièrement préoccupé par l’élection présidentielle de 2024 suite à « l’explosion que nous avons vue du contenu génératif » au cours de l’année écoulée.
Il a commenté: « Donc, pour moi, 2024 semble de plus en plus susceptible d’être une élection où les deepfakes sont déployés assez largement.
« La vraie question clé est de savoir s’il existe un deepfake d’une qualité incroyable, très difficile à authentifier ou à falsifier, et lié à une période critique du processus électoral. Disons la veille d’une élection, ou avant l’un des débats. , et fait partie du récit de l’opposition. »
Ajder a fait valoir que la menace est intensifiée par l’ignorance du public sur les développements de l’IA, déclarant: « Beaucoup de gens ne sont pas familiers ou habitués au fait que vous pouvez désormais cloner des voix de manière assez convaincante, ou que vous pouvez générer des images entièrement nouvelles de l’arrestation de Trump. comme nous l’avons vu ces derniers jours sur Twitter.
« Ainsi, lorsque les gens ne sont pas inoculés ou conscients de l’évolution du paysage de l’IA et de l’information, vous commencez à voir les gens prendre du retard dans la compréhension et devenir plus sensibles. »
Des inquiétudes concernant 2024 ont également été exprimées par Matthew F. Ferraro, un avocat de WilmerHale spécialisé dans les technologies émergentes comme les deepfakes. S’adressant à Newsweek, il a déclaré: « Je m’attends à ce que nous voyions beaucoup plus de vidéos deepfake de personnalités politiques et de candidats circuler en ligne d’ici l’élection présidentielle de 2024. Beaucoup de ces vidéos seront des parodies satiriques ou claires.
« Le type de deepfakes le plus inquiétant sera celui qui prétend montrer des personnalités politiques lors d’événements réels dans le but d’induire les électeurs en erreur sur ce qui est vrai et ce qui est faux. Ces deepfakes pourraient semer la confusion dans l’esprit des électeurs et contribuer à saper des élections équitables. »
Ferraro a ajouté que la forte scène de la théorie du complot aux États-Unis pourrait rendre le pays particulièrement vulnérable, déclarant: « Deepfakes prend les problèmes existants de la société en matière de désinformation et de complot et y verse du carburéacteur. »
Le dividende des menteurs
Sam Gregory, directeur exécutif du Witness Media Lab, qui étudie les deepfakes, a fait valoir que l’existence de deepfakes ne sera pas seulement utilisée par de mauvais acteurs pour générer de faux contenus, mais aussi pour affirmer que les médias authentiques sont générés par ordinateur quand cela leur convient.
Faisant référence à l’élection de 2024, il a déclaré à Newsweek : « Compte tenu des changements d’accessibilité pour les deepfakes et autres médias synthétiques, je m’attends à ce que nous voyions des individus partager des images trompeuses pour » lolz « ainsi que pour diffuser de fausses informations sur les candidats et le processus politique.
« Nous verrons également des gens prétendre que de vraies images sont des deepfakes, ainsi que prétendre qu’en raison de la prévalence croissante d’outils pour créer des deepfakes, nous ne pouvons plus faire confiance à aucune image.
« Nous verrons probablement quelques utilisations dans les publicités de campagnes organisées pour faire valoir des points politiques, et de nombreux exemples où une photo créée pour la satire ou la parodie est réutilisée, dépouillée de son contexte, pour tromper. »
Ajder a accepté, commentant: « Les deepfakes et l’IA générative ont vraiment ouvert les vannes au déni plausible et au doute autour de tous les médias, pas seulement des faux médias.
« Donc, tout comme les deepfakes peuvent maintenant donner l’impression que de fausses choses sont réelles, cela fournit également une très bonne excuse ou un point de pensée conspiratrice potentielle pour nier que de vraies choses sont fausses et nous l’avons vu de manière constante.
« Nous avons donc vu un candidat du Congrès républicain affirmer que la vidéo de George Floyd était un deepfake et n’était pas réelle, nous avons vu des partisans de Trump dire que sa vidéo condamnant l’insurrection au Capitole n’était pas réelle parce qu’il ne dirait jamais quelque chose comme ça. «
Que pouvons-nous faire?
Pour contrer la menace politique des deepfakes, Siwei Lyu, expert en la matière à l’Université de Buffalo, a proposé un plan en quatre points à Newsweek.
Il a déclaré: « L’utilisation des générateurs doit être plus réglementée, certains contenus (politiques, financiers ou explicites) n’étant pas autorisés.
« Le contenu généré doit être étiqueté pour rappeler aux utilisateurs sa nature synthétique. Cela peut être un filigrane visible ou une trace invisible qui peut être captée par un algorithme spécial. Cela garantira que le contenu deepfake ne deviendra pas viral sans que les gens ne s’en aperçoivent. .
« Les plateformes doivent mettre en œuvre des programmes de modération pour avertir les utilisateurs des deepfakes. Plus d’éducation des utilisateurs pour sensibiliser les utilisateurs à l’existence et à l’impact des deepfakes. »
Ajder a également fait valoir qu’une sorte d’étiquetage serait essentiel, et a averti que les logiciels de détection de deepfake existants sont d’une valeur discutable et auront du mal à suivre la technologie.