Le Parti démocrate a commencé à tester l’utilisation de l’intelligence artificielle pour rédiger les premières ébauches de certains messages de collecte de fonds, des appels qui fonctionnent souvent mieux que ceux entièrement rédigés par des êtres humains.
De fausses images d’IA de l’arrestation de Donald J. Trump à New York se sont répandues plus rapidement qu’elles n’ont pu être vérifiées la semaine dernière.
Et les outils de clonage vocal produisent un son extrêmement réaliste du président Biden – et de bien d’autres – disant des choses qu’ils n’ont pas réellement dites.
L’intelligence artificielle n’est pas seulement à l’honneur lors de la campagne électorale de 2024. C’est déjà là.
Les progrès rapides de l’IA promettent d’être aussi perturbateurs dans la sphère politique que dans la société dans son ensemble. Désormais, tout amateur disposant d’un ordinateur portable peut produire les types de sons et d’images convaincants qui étaient autrefois le domaine des lecteurs numériques les plus sophistiqués. Cette démocratisation de la désinformation brouille les frontières entre faits et faux à un moment où l’acceptation des vérités universelles – que M. Biden a battu M. Trump en 2020, par exemple – est déjà mise à rude épreuve.
Et à mesure que les médias synthétiques deviennent plus crédibles, la question se pose : que se passe-t-il lorsque les gens ne peuvent plus faire confiance à leurs propres yeux et oreilles ?
Au sein des campagnes, l’intelligence artificielle devrait bientôt permettre d’effectuer des tâches banales qui nécessitaient auparavant une flotte de stagiaires. Les ingénieurs républicains et démocrates s’efforcent de développer des outils permettant d’exploiter l’IA pour rendre la publicité plus efficace, de se lancer dans l’analyse prédictive du comportement public, de rédiger des textes de plus en plus personnalisés et de découvrir de nouvelles tendances dans les montagnes de données électorales. La technologie évolue si rapidement que la plupart prédisent un impact profond, même si la manière dont elle bouleversera le système politique relève davantage de la spéculation que de la science.
« C’est un moment iPhone – c’est le seul corollaire que tout le monde appréciera », a déclaré Dan Woods, directeur de la technologie de la campagne 2020 de M. Biden. « Il faudra des tests de pression pour déterminer si c’est bon ou mauvais – et c’est probablement les deux. »
OpenAI, dont le chatbot ChatGPT a inauguré la ruée vers l’or du texte génératif, a déjà publié un modèle plus avancé. Google a annoncé son intention d’étendre ses offres d’IA dans des applications populaires telles que Google Docs et Gmail, et déploie son propre chatbot. Microsoft a également lancé une version sur le marché. Une petite entreprise, ElevenLabs, a développé un outil de conversion texte-audio capable d’imiter la voix de n’importe qui en quelques minutes. Midjourney, un générateur d’art IA populaire, peut créer des images hyperréalistes avec quelques lignes de texte suffisamment convaincantes pour gagner des concours d’art.
« L’IA est sur le point d’apporter un changement significatif lors des élections de 2024 en raison de la capacité prédictive de l’apprentissage automatique », a déclaré Brad Parscale, le premier directeur de campagne de M. Trump pour 2020, qui a depuis fondé une entreprise numérique qui fait la promotion de certaines capacités de l’IA.
La désinformation et les « deepfakes » sont la peur dominante. Même si les contrefaçons ne sont pas nouvelles en politique – une image retouchée de John Kerry et Jane Fonda a été largement partagée en 2004 – la capacité de les produire et de les partager s’est accélérée, les images virales d’IA de M. Trump retenu par la police n’en étant que le dernier exemple. . Une fausse image du pape François vêtu d’une doudoune blanche est également devenue virale ces derniers jours.
Beaucoup s’inquiètent particulièrement des courses locales, qui font l’objet de beaucoup moins d’attention. Avant la récente primaire de la course à la mairie de Chicago, une fausse vidéo est brièvement apparue sur un compte Twitter appelé « Chicago Lakefront News » qui se faisait passer pour un candidat, Paul Vallas.
« Malheureusement, je pense que les gens vont comprendre comment utiliser cela pour le mal plus rapidement que pour améliorer la vie civique », a déclaré Joe Rospars, qui était stratège en chef de la campagne 2020 de la sénatrice Elizabeth Warren et est maintenant directeur général d’un cabinet de conseil numérique.
Ceux qui travaillent à l’intersection de la politique et de la technologie reviennent à plusieurs reprises à la même hypothèse historique : si la tristement célèbre cassette « Access Hollywood » était diffusée aujourd’hui – celle dans laquelle on entend M. Trump se vanter d’avoir agressé des femmes et de s’en tirer – est-ce que M. Trump a-t-il reconnu que c’était lui, comme il l’a fait en 2016 ?
La réponse presque universelle était non.
«Je pense tout le temps à cet exemple», a déclaré Matt Hodges, qui était directeur de l’ingénierie lors de la campagne 2020 de M. Biden et est maintenant directeur exécutif de Zinc Labs, qui investit dans la technologie démocrate. Les Républicains, a-t-il déclaré, « ne peuvent plus utiliser les « fausses nouvelles ». Il s’agit peut-être de « Woke AI » »
Pour l’instant, la fonction de première ligne de l’IA sur les campagnes devrait consister à rédiger les premières ébauches des interminables sollicitations en espèces par courrier électronique et par SMS.
« Étant donné la quantité de verbiage routinier et stupide qui est produit en politique, les gens vont le mettre à profit », a déclaré Luke Thompson, un stratège politique républicain.
À titre expérimental, le New York Times a demandé à ChatGPT de produire un e-mail de collecte de fonds pour M. Trump. L’application disait initialement : « Je ne peux pas prendre parti politique ni promouvoir un quelconque agenda politique. » Mais ensuite, il a immédiatement fourni un modèle d’e-mail potentiel de type Trump.
Le chatbot a refusé une demande visant à rendre le message « plus en colère », mais s’est conformé lorsqu’on lui a demandé de « lui donner plus d’avantage », pour mieux refléter le ton souvent apocalyptique des appels de M. Trump. « Nous avons besoin de votre aide pour envoyer un message à la gauche radicale : nous ne reculerons pas », indique le message révisé d’AI. « Faites un don maintenant et aidez-nous à rendre à l’Amérique sa grandeur. »
Parmi les groupes importants qui ont expérimenté cet outil figure le Comité national démocrate, selon trois personnes informées de ces efforts. Lors des tests, le contenu généré par l’IA utilisé par la DNC a, le plus souvent, été aussi performant, voire meilleur, que les textes entièrement rédigés par des humains, en termes de génération d’engagement et de dons.
Les responsables du parti apportent toujours des modifications aux projets d’IA, ont déclaré des personnes proches des efforts, et aucun message d’IA n’a encore été écrit sous le nom de M. Biden ou de toute autre personne, ont déclaré deux personnes. La DNC a refusé de commenter.
Higher Ground Labs, une petite société de capital-risque qui investit dans la technologie politique pour les progressistes, travaille actuellement sur un projet, appelé Quiller, visant à utiliser plus systématiquement l’IA pour rédiger, envoyer et tester l’efficacité des e-mails de collecte de fonds, en même temps.
« L’IA a surtout commercialisé du charabia au cours des trois derniers cycles », a déclaré Betsy Hoover, associée fondatrice de Higher Ground Labs et directrice de l’organisation numérique pour la campagne 2012 du président Barack Obama. «Nous sommes à un moment où il y a des choses que les gens peuvent faire et qui sont réellement utiles.»
Des agents politiques, dont plusieurs ont obtenu l’anonymat pour discuter des utilisations potentiellement peu recommandables de l’intelligence artificielle qui les préoccupent ou envisagent de les déployer, ont évoqué une série de possibilités.
Certains craignaient que de mauvais acteurs puissent exploiter les chatbots IA pour distraire ou faire perdre le temps précieux du personnel d’une campagne en se faisant passer pour des électeurs potentiels. D’autres ont lancé la production de deepfakes de leur propre candidat pour générer des vidéos personnalisées – remerciant par exemple leurs partisans pour leurs dons. En Inde, un candidat a réalisé en 2020 un deepfake pour diffuser une vidéo de lui-même parlant dans différentes langues ; la technologie est désormais bien supérieure.
M. Trump lui-même a partagé ces derniers jours une image d’IA qui semblait le montrer agenouillé en prière. Il l’a publié sur Truth Social, son site de réseau social, sans explication.
Un stratège a prédit que la prochaine génération de sales tours pourrait être une désinformation directe aux électeurs qui ignorerait complètement les sites de médias sociaux. Et si, disait ce stratège, un enregistrement audio IA d’un candidat était envoyé directement sur la messagerie vocale des électeurs à la veille d’une élection ?
L’audio et la vidéo synthétiques circulent déjà en ligne, en grande partie à titre de parodie.
Sur TikTok, il existe tout un genre de vidéos mettant en vedette M. Biden, M. Obama et M. Trump plaisantant de manière grossière, avec l’audio généré par l’IA superposé comme commentaire lors de sessions de jeux vidéo en ligne imaginaires.
Dans « The Late Show », Stephen Colbert a récemment utilisé l’audio de l’IA pour que l’animateur de Fox News, Tucker Carlson, « lise » à haute voix ses messages texte critiquant M. Trump. M. Colbert a qualifié l’audio d’IA et l’image à l’écran montrait un mélange du visage de M. Carlson et d’un cyborg Terminator pour mettre l’accent.
Le provocateur de droite Jack Posobiec a publié le mois dernier une vidéo « deepfake » de M. Biden annonçant un projet national en raison du conflit en Ukraine. Ce fut rapidement vu par des millions.
« Les vidéos que nous avons vues ces dernières semaines sont vraiment le canari dans la mine de charbon », a déclaré Hany Farid, professeur d’informatique à l’Université de Californie à Berkeley, spécialisé dans la criminalistique numérique. « Nous mesurons désormais les progrès non pas en années mais en mois, et il reste plusieurs mois avant les élections. »
Certains outils d’IA ont été déployés en 2020. La campagne Biden a créé un programme, nommé Couch Potato, qui relie la reconnaissance faciale, la voix au texte et d’autres outils pour automatiser la transcription d’événements en direct, y compris les débats. Il a remplacé le travail d’une multitude de stagiaires et d’assistants et était immédiatement consultable via un portail interne.
La technologie s’est améliorée si rapidement, a déclaré M. Woods, que les outils disponibles dans le commerce sont « 1 000 fois meilleurs » que ceux qui ont dû être construits à partir de zéro il y a quatre ans.
Une question qui se pose est de savoir ce que les campagnes peuvent et ne peuvent pas faire avec les puissants outils d’OpenAI. L’automne dernier, une liste d’utilisations interdites regroupait « les campagnes politiques, le contenu pour adultes, le spam, le contenu haineux ».
Kim Malfacini, qui a contribué à créer les règles d’OpenAI et fait partie de l’équipe de confiance et de sécurité de l’entreprise, a déclaré dans une interview que « les campagnes politiques peuvent utiliser nos outils à des fins de campagne. Mais c’est l’utilisation à grande échelle que nous essayons d’interdire ici. » OpenAI a révisé ses règles d’utilisation après avoir été contacté par le Times, précisant désormais qu’il est interdit de « générer de gros volumes de matériel de campagne ».
Tommy Vietor, un ancien porte-parole de M. Obama, a essayé l’outil d’IA d’ElevenLabs pour créer un faux enregistrement de M. Biden appelant le populaire podcast « Pod Save America » que M. Vietor co-anime. Il a payé quelques dollars et a téléchargé un véritable audio de M. Biden, et il en est ressorti une ressemblance audio.
« La précision était tout simplement étrange », a déclaré M. Vietor lors d’une interview.
L’émission l’a clairement qualifié d’IA. Mais M. Vietor n’a pas pu s’empêcher de remarquer que certains commentateurs en ligne semblaient néanmoins confus. « J’ai commencé à jouer avec le logiciel en pensant que c’était tellement amusant, que ce serait un excellent moyen de plaisanter », a-t-il déclaré, « et j’ai fini par penser : ‘Oh mon Dieu, cela va être un gros problème.' »