En désinformation, le grand changement, c’est l’émergence de l’IA

Mis en ligne le 15 Fév 2024

En désinformation, le grand changement, c’est l’émergence de l’IA

Le recours à la désinformation à des fins stratégiques s’accroit et s’accélère. Le présent papier éclaire ce phénomène, sur fond de chocs géopolitiques ouverts comme de conflictualité hybride sous-jacente généralisée. L’autrice souligne notamment l’impact de la technologie, et singulièrement de l’IA, tant pour l’utilisation agressive de la désinformation que pour mieux en contrer les effets délétères.

Les opinions exprimées dans cet article n'engagent pas le CNAM.

Les références originales de cet article sous forme d’entretien sont : Chine Labbé, « En désinformation, le grand changement, c’est l’émergence de l’IA », Institut des Hautes Etudes de la Défense Nationale (IHEDN). Ce texte, ainsi que d’autres publications, peuvent être consultés sur le site de l’Institut des Hautes Etudes de la Défense Nationale (IHEDN).

QUELLES SONT LES ÉVOLUTIONS RÉCENTES DANS LE DOMAINE DE LA DÉSINFORMATION ? CONSTATEZ-VOUS UNE AUGMENTATION DU PHÉNOMÈNE ?

Les campagnes de désinformation s’intensifient et s’accélèrent depuis plusieurs années, en particulier depuis 2020 et la pandémie de COVID-19. Les conflits récents – invasion de l’Ukraine, guerre Israël-Hamas – ont donc inévitablement été marqués par cette accélération.

Sur le fond, rien de nouveau : les campagnes sont parfois étatiques, parfois le fait de colporteurs d’infox isolés, et savoir qui est à l’origine de celles-ci reste très délicat. Elles se déploient sur des sites internet de piètre qualité (souvent connus comme des multirécidivistes de la désinformation), mais aussi sur les réseaux sociaux où un mélange d’utilisateurs convaincus et de bots inauthentiques vont donner corps et viralité aux récits. Sur l’Ukraine, et le conflit Israël-Hamas, une véritable guerre de l’information est en cours.

Côté russe, les médias d’État et des comptes pro-Kremlin continuent de déployer diverses stratégies visant à discréditer le président ukrainien et à saper le soutien occidental à l’Ukraine, tout en exploitant des récits qui peuvent parfois sembler ne présenter aucun intérêt géopolitique pour Moscou, mais qui nourrissent des tensions au sein des démocraties occidentales.

Depuis le début de la guerre, les variations autour du mythe “l’Ukraine est un État nazi” se multiplient, et sont toujours populaires. Le dernier exemple en date est l’allégation – fausse – selon laquelle Volodymyr Zelensky aurait acheté une villa en Allemagne ayant appartenu à Joseph Goebbels, le ministre de la propagande du régime nazi. En réalité, cette villa appartient toujours au Land de Berlin.

Au Proche-Orient, on observe divers intérêts géostratégiques s’entrechoquer dans les campagnes de désinformation en ligne. Sans forcément être à l’origine de ces récits, les médias d’État iraniens ont par exemple exploité de nombreux récits faux sur le conflit ces derniers mois, pour servir leurs propres intérêts. Un aspect très marquant de ce conflit est par ailleurs la multiplication des accusations de mise en scène (faux blessés, acteurs prétendant être des victimes), des deux côtés du conflit, et des faux rapports de médias connus, fabriqués pour donner de la crédibilité à une infox.

Sur la forme, le grand changement, c’est l’émergence de l’IA, et notamment des sites d’actualité générés par IA : ces fermes de contenu nouvelle génération qui se font passer pour des sites d’actualité traditionnels, mais dont les contenus sont produits grâce à l’IA générative, sans supervision humaine, ou presque.

En plus des sites d’information diffusant de multiples infox, et des comptes que nous suivons sur les réseaux sociaux, nous devons ainsi, depuis début 2023, surveiller ces sites générés par IA, qui publient des centaines, voire des milliers d’articles chaque jour grâce à une main-d’œuvre inexistante et gratuite. En mai 2023, mes collègues chez NewsGuard en avaient dénombré 49. Ils en ont à ce jour recensé 634. Et si la plupart de ces sites semblent pour le moment avoir été créés pour diffuser des contenus légers et “faire du clic” – la majorité étant assez inoffensifs – certains sont déjà à l’origine d’infox virales.

C’est le cas de Global Village Voice, cette ferme de contenu qui se présente comme un site d’actualité pakistanais, et a publié en novembre dernier un article affirmant que le psychiatre de Benjamin Netanyahou se serait suicidé. Pour cet article, ce site, spécialisé dans la reprise et la réécriture par IA d’articles publiés par d’autres sites, semble en fait avoir repris un article satirique datant de 2010. En effet, ledit psychiatre n’existe pas, et ne s’est donc a fortiori pas suicidé. Mais le blanchiment de cette fausse information par un site semblant crédible a permis à cette infox de se retrouver propulsée jusque sur la télévision d’État iranienne, servant à point nommé une campagne en cours visant à présenter le Premier ministre israélien comme psychologiquement instable.

LES RÉACTIONS DES ENTITÉS VISÉES, GOUVERNEMENTS OU ENTREPRISES, SONT-ELLES À LA HAUTEUR ?

Divers gouvernements se sont doté ces dernières années d’entités spécialisées dans la détection des campagnes de désinformation venant de l’étranger, comme la France avec Viginum. Viginum a notamment identifié l’amplification inauthentique par un réseau russe appelé “Recent Reliable News” des images des étoiles de David peintes dans le 10e arrondissement de Paris, en octobre dernier. La France a estimé que cette campagne avait pour objectif de “créer des tensions dans le débat public en France et en Europe”. Ce travail de détection, et de qualification, est important.

Quant aux marques visées par des campagnes spécifiques de désinformation, elles tentent en général de répondre aux infox les visant en communiquant sur le sujet. On l’a vu à l’occasion d’appels aux boycotts de marques présentées comme soutenant Israël ces dernières semaines, et s’appuyant parfois sur de fausses informations devenues virales… C’est important de répondre aux infox, et de tenter de rétablir les faits.

Malheureusement, rétablir les faits une fois qu’une information a circulé partout sur la toile, générant des millions de vues, n’est pas toujours efficace. En effet, il est prouvé que l’exposition répétée à une information fait qu’une personne est plus susceptible d’y croire, quelle que soit sa véracité, et ce même après avoir lu son démenti (on appelle cela l’effet de vérité illusoire).

La question la plus importante aujourd’hui reste donc celle de l’engagement avec les contenus de désinformation sur les réseaux sociaux, et donc de la régulation. Le rôle des plateformes constitue le nerf de la guerre.  Mais l’autre grand chantier à mener collectivement en parallèle est celui du soutien au journalisme de qualité qui, sur le long terme, reste le meilleur rempart contre la désinformation.

L’INTELLIGENCE ARTIFICIELLE AMPLIFIE-T-ELLE LA DÉSINFORMATION ? EST-ELLE UN OUTIL POUR LA COMBATTRE ?

Jusqu’à récemment, l’IA, dont on percevait bien les risques, semblait encore une menace virtuelle. Oui, des images, des vidéos ou encore des extraits audio générés par IA circulaient, mais ils n’étaient pas au cœur de la plupart des campagnes de désinformation. En ligne, les méthodes artisanales de désinformation (des documents officiels truqués, des images et vidéos bien réelles sorties de leur contexte ou utilisées pour parler d’un conflit actuel quand elles émanent en fait d’un autre conflit, etc.), continuaient (et continuent) de très bien fonctionner. Toutefois, ces derniers mois ont été marqués par une explosion des contenus générés par IA, et de leur viralité, rendant la désinformation plus efficace, et plus difficile à détecter.

L’exemple le plus flagrant est sans doute celui des élections législatives slovaques, en septembre 2023, quand un extrait audio fabriqué de toutes pièces a servi le récit (sans fondement) selon lequel les élections risquaient d’être truquées. L’explosion des “deepfakes” s’explique en partie par l’amélioration rapide, ces dernières semaines, des technologies associées, notamment en ce qui concerne le mouvement des lèvres, qui est de plus en plus réaliste.

Phénomène très intéressant aussi, l’explosion des images générées par IA a permis, en miroir, à certains désinformateurs d’utiliser le spectre de l’IA – sans utiliser l’IA elle-même – pour faire douter de la véracité d’images bien réelles, en faisant croire à leur inauthenticité. Crier au “deepfake” est ainsi devenu une technique répandue, suffisant parfois à discréditer des supports authentiques.

Et au-delà des images, vidéos et extraits audio, l’utilisation de chatbots d’IA générative pour générer, à moindre coût et à large échelle, des récits de désinformation, est une menace bien réelle. En août dernier, mes collègues de NewsGuard ont réalisé des audits des principaux chatbots d’IA (Bard de Google et ChatGPT d’OpenAI) et les résultats sont inquiétants : dans 80% (pour Bard) à 98% (pour ChatGPT) des cas, ces outils répètent avec éloquence des récits connus de désinformation, sous forme d’essais, d’articles de presse, de scripts pour la télévision, etc. Parfois, ces outils s’exécutent, et comme seul garde-fou, ajoutent quelques paragraphes de démenti en fin de production. Il est alors facile d’imaginer comment dans les mains d’acteurs malveillants, ils pourraient se révéler de parfaits assistants en désinformation.

Des médias d’État russe et chinois ont d’ores et déjà utilisé ChatGPT comme une source faisant autorité pour asseoir certains de leurs récits de propagande anti-États-Unis (avec l’idée que si ChatGPT, un outil américain, le reconnaît, c’est que c’est bien vrai !). Si ces médias utilisaient demain ces outils dans toutes leurs potentialités, pour créer à bas coût, et en quelques secondes, des milliers d’articles de propagande, alors oui, aucun doute que l’IA amplifierait encore davantage la désinformation.

Pour autant, et c’est aussi certain : l’IA peut, si elle est guidée par l’intelligence humaine, se révéler un puissant outil de lutte contre la désinformation. Chez NewsGuard, nous avons créé un catalogue des principales infox qui circulent en ligne, telles que repérées par nos journalistes spécialisés. Seule, cette base de données peut servir à des modérateurs de contenu sur des plateformes par exemple, dans leur suivi de la désinformation. Mais couplée à de l’intelligence artificielle, elle peut permettre, en quelques secondes, de faire bien plus encore, et de repérer toutes les instances de chaque fausse information (telle que décrite par des journalistes en chair et en os, sachant distinguer les récits faux des opinions).

Face à un flux croissant d’infox, nul doute que nous devons utiliser l’IA pour démultiplier l’impact de nos efforts dans la lutte contre la désinformation. Et si demain, les chatbots d’IA générative étaient entraînés à efficacement résister aux infox, à trier leurs sources pour sélectionner les informations les plus crédibles (et s’ils arrêtaient d’« halluciner », terme désignant ces moments où l’IA invente des réponses), alors ces outils pourraient eux aussi se révéler de fidèles alliés dans la lutte contre la désinformation.


Du même partenaire

Dénucléarisation de l’Ukraine dans les années 1990 : « Une crise passée totalement...

Dénucléarisation de l’Ukraine dans les années 1990 : « Une crise passée totalement inaperçue »

Défense et Sécurité

Par Hugues PERNET

Source : IHEDN

Mis en ligne le 26 Juin 2024

Les Partenaires non étatiques de l’Iran au Moyen-Orient : des proxys, vraiment ?

Les Partenaires non étatiques de l’Iran au Moyen-Orient : des proxys, vraiment ?

Défense et Sécurité

Par Arthur STEIN

Source : IHEDN

Mis en ligne le 26 Avr 2024

Stocks stratégiques : mobiliser et immobiliser ?

Stocks stratégiques : mobiliser et immobiliser ?

Défense et Sécurité

Par Guillaume LASCONJARIAS

Source : IHEDN

Mis en ligne le 06 Juin 2023


Articles de la catégorie Défense et Sécurité

De l'Ukraine à Gaza : l'Intelligence artificielle en guerre

De l'Ukraine à Gaza : l'Intelligence artificielle en guerre

Défense et Sécurité

Par Amélie FÉREY, Laure de ROUCY-ROCHEGONDE

Source : IFRI

Mis en ligne le 16 Oct 2024

La France face aux guerres de l’information : origines, mécanisme et...

La France face aux guerres de l’information : origines, mécanisme et instrumentalisation du sentiment « anti-France

Défense et Sécurité

Par Dian BAH

Source : Les Jeunes IHEDN

Mis en ligne le 16 Oct 2024

Tu ne tueras point : Un voyage dans les profondeurs de...

Tu ne tueras point : Un voyage dans les profondeurs de l'inhumanité

Défense et Sécurité

Par Alain BAUER

Source : IJOC

Mis en ligne le 24 Sep 2024

Nos partenaires

Académie du renseignement
Bibliothèque de l’Ecole militaire
Centre d'études stratégiques de la Marine
Centre d’études stratégiques aérospatiales (CESA)
Centre de Recherche de l'Ecole des Officiers de la Gendarmerie Nationale
Centre des Hautes Etudes Militaires
Chaire Défense & Aérospatial
Chaire Raoul-Dandurand de l'UQAM/Centre FrancoPaix
Conflits
Ecole de Guerre
Encyclopédie de l’énergie
ESD-CNAM
European Council on Foreign Relations
Fondation Jean Jaurès
Fondation maison des sciences de l'homme
Fondation pour la recherche stratégique
Fondation Robert Schuman
Institut de Relations Internationales et Stratégiques
Institut des Hautes Etudes de Défense Nationale
Institut des hautes études du ministère de l'Intérieur
Institut Français des Relations Internationales
International Journal on Criminology
IRSEM
L’Association des Auditeurs et cadres des sessions nationales "Armement & Economie de Défense" (3AED-IHEDN)
Les Jeunes IHEDN
Revue Défense Nationale
Revue Géostratégiques / Académie de Géopolitique de Paris
Sécurité Globale
Synopia
Union-IHEDN/Revue Défense
Université Technologique de Troyes
Académie du renseignement
Bibliothèque de l’Ecole militaire
Centre d'études stratégiques de la Marine
Centre d’études stratégiques aérospatiales (CESA)
Centre de Recherche de l'Ecole des Officiers de la Gendarmerie Nationale
Centre des Hautes Etudes Militaires
Chaire Défense & Aérospatial
Chaire Raoul-Dandurand de l'UQAM/Centre FrancoPaix
Conflits
Ecole de Guerre
Encyclopédie de l’énergie
ESD-CNAM
European Council on Foreign Relations
Fondation Jean Jaurès
Fondation maison des sciences de l'homme
Fondation pour la recherche stratégique
Fondation Robert Schuman
Institut de Relations Internationales et Stratégiques
Institut des Hautes Etudes de Défense Nationale
Institut des hautes études du ministère de l'Intérieur
Institut Français des Relations Internationales
International Journal on Criminology
IRSEM
L’Association des Auditeurs et cadres des sessions nationales "Armement & Economie de Défense" (3AED-IHEDN)
Les Jeunes IHEDN
Revue Défense Nationale
Revue Géostratégiques / Académie de Géopolitique de Paris
Sécurité Globale
Synopia
Union-IHEDN/Revue Défense
Université Technologique de Troyes

 

afficher nos partenaires