La deepfake reality : vers la fin de la vérité dans le cyberespace ?

Mis en ligne le 20 Juil 2021

Les innovations numériques telles que la deepfake reality instaurent une ère de “post-vérité intégrale”. Dans cet entretien, Franck DeCloquement identifie comment le business-modèle attractif des GAFAM se fonde sur un “encerclement cognitif” qui expose les internautes à la désinformation, la division et la manipulation psychologique. De plus, le manque à la fois de volonté politique et de capacités techniques adaptées pour contrer la diffusion de trolls et fausses nouvelles rendent les démocraties occidentales vulnérables aux interférences d’acteurs hostiles.

Les opinions exprimées dans cet article n'engagent pas le CNAM.

Les opinions exprimées dans cet article n’engagent pas le CNAM. Les références originales de ce texte sont : “La deepfake reality : vers la fin de la vérité dans le cyberespace ?”, Questions à CREOGN. Ce texte, ainsi que d’autres publications de la Revue de la gendarmerie nationale, peuvent être consultés sur le site du CREOGN.

Dans cette nouvelle fabrique du sens qu’est devenu l’internet, une vigilance accrue des pouvoirs publics se fait jour face aux nouvelles « menaces à la vérité ». La question fondamentale est la crédibilité des informations que nous percevrons demain à travers le cyberespace. Franck DeCloquement s’entretient avec nous de cette problématique qui intéresse, outre notre entendement et les libertés associées, le fondement de nos sociétés médiatisées.

La Revue : « Actions sur les perceptions », « guerre du sens », « faits alternatifs » et « menaces à la vérité » ? Quoi de neuf dans le champ des opérations de propagande, à l’ère des réseaux sociaux et du web 2.0 ?

Franck DeCloquement : Dans nos démocraties occidentales en proie au doute, au séparatisme communautaire et à la tentation illibérale, la liberté d’expression qui circule sur les réseaux dits « sociaux », est à la fois un formidable mécanisme de contre-pouvoir mais aussi une promesse de déstabilisation massive pour nos démocraties représentatives, avec l’émergence de ces « vérités alternatives » qui y font florès. L’affaire des gilets jaunes en a été le démonstrateur évident. Parce qu’elle est cette nouvelle « forge » de l’opinion publique et de ses revendications tues, la vie des réseaux sociaux suscite la convoitise des influenceurs politiques et des législateurs qui cherchent naturellement à la mettre au pas ou à l’endiguer. Cependant, la vie trouve toujours son chemin ! Ce quadrillage de l’opinion publique, qu’il vienne des grandes plateformes elles-mêmes ou des pouvoirs publics, ne doit pas oblitérer le fait qu’à l’individu seul incombe en définitive le soin et la responsabilité de choisir ses informations, afin de juger au mieux de la compétence de ses édiles.

Sur le plan international et intérieur, les pays occidentaux sont impliqués depuis plus d’une trentaine d’années, dans des « guerres d’empoignes » où les communautés s’affrontent au nom de leurs valeurs propres et revendiquent une légitimité politique ou idéologique qui justifierait leur combat. Dans ce véritable malström pour la « guerre du sens », qui s’opère par médias interposés, rien de véritablement neuf sous le soleil en matière d’accaparement de la réalité si ce n’est la puissance accrue de ces opérations de falsification, augmentée cette fois par l’apport déterminant des nouvelles technologies digitales opérant au sein du Web 2.0. En conséquence, dans ces nouveaux espaces de conflictualités délétères et de luttes sémantiques, les fausses nouvelles à des fins de propagande ou les deepfakes à visée parodique s’y multiplient tout naturellement à un rythme exponentiel. Cela représente évidemment un risque accru de désinformation pour les populations.

Le courage, la haine, le jusqu’auboutisme, la tromperie, l’assujettissement des consciences et le brouillage des faits en constituent indubitablement le moteur. Des discours trafiqués aux images truquées, les fausses nouvelles se propagent à toute vitesse à travers les réseaux digitaux. Les fameuses deepfakes, par exemple, se basent pour l’essentiel sur les avancées de l’intelligence artificielle. Elles consistent, très schématiquement, à fusionner des vidéos, dans un but de substitution notamment de visages et de sons afin de réaliser des trucages impactant pour orienter le sens de la compréhension. Parfois pour une noble cause – la fausse vidéo de Donald Trump réalisée par « Solidarité sida » en est un exemple type – ou tout simplement pour faire sourire la multitude.

Efficace, cette vidéo a été critiquée. L’incrustation qui spécifiait qu’il s’agissait d’une fake news n’apparaissait que 50 secondes après son début. Le plus faible temps consacré par les internautes à l’examen de documents médias l’occultait et accréditait la véracité du document. Le directeur de campagne a spécifié avoir privilégié la densité de l’information. Image: Solidarité SIDA

Toutefois, dans la majeure partie des cas, il s’agira de diffuser des informations erronées afin de discréditer une personnalité pour manipuler l’opinion publique à des fins idéologiques. Cette tendance lourde ne devrait pas s’éroder dans les prochaines années, dans ces espaces d’affrontement virtuels qui sont plus que jamais devenus le reflet de nos turpitudes collectives, à l’approche d’élections présidentielles déterminantes, par exemple.

Au sein de l’écosystème attentionnel dans lequel nous sommes peu ou prou plongés, selon le chercheur Yves Citton [1], s’accumulent irrémédiablement dans nos cerveaux des informations parfaitement disparates qui finissent tôt ou tard par converger et se combiner entre elles pour faire sens. Or, l’art de faire adhérer, de faire croire ou de faire penser dans le champ psychologique, prend désormais le pas sur l’art de manœuvrer la force brute pour soumettre autrui à sa volonté dans le champ du réel. L’objectif fondamental vise, en définitive, à produire ces opérations d’influence offensives afin d’orienter la compréhension de l’adversaire, jusqu’à le faire œuvrer parfois contre ses propres intérêts.

La Revue : A quoi devons-nous faire face au juste, quand on parle de « deepfake reality » ou de « faits alternatifs » ?

Franck DeCloquement : Cette petite fabrique de l’opinion publique 2.0 ne cesse d’innover dans ses modalités d’actions subversives. La créativité sémantique et l’imagination des attaquants dans ce nouvel écosystème digital apparaissent sans limites. A titre d’exemple, les faits alternatifs ont fait irruption dans notre espace perceptif commun voilà quatre ans lorsque Kelly-Anne Conway, conseillère spéciale du président Trump, évoqua ce terme, courant 2017, pour justifier les dires du porte-parole de la Maison-Blanche, Sean Spicer. Au lendemain de la cérémonie d’investiture du 45ème président des Etats-Unis, celui-ci accusait en effet les médias d’opinion américains d’avoir volontairement sous-estimé les chiffres de la foule qui y assistait, autrement dit, de remettre en cause l’importance de la participation publique lors de l’investiture du président Trump. Or les données disponibles d’alors montraient bien qu’il n’y avait pas eu autant de participants que cela aux réjouissances, en tout cas, bien moins que pour celle de Barack Obama. Sean Spicer a depuis admis que certains des chiffres qu’il avait mobilisés pour son argumentaire étaient incorrects, même s’il les avait crus pourtant exacts sur le moment.

Très concrètement, les « faits alternatifs » sont des mensonges ou des « bullshit » (bobards, sottises, stupidités, balivernes, conneries, affabulations, mensonges, crâneries), ayant pour intention principale de plier la réalité à des objectifs prédéfinis, en la manipulant ou en la « façonnant » en fonction d’un « état final recherché » (EFR), selon une terminologie bien connue dans le champ de l’action psychologique à visées militaires. Ce qui change et interpelle dans l’exemple américain évoqué précédemment, c’est cette capacité indubitable pour les parties prenantes à assumer le mensonge et à faire mine de le considérer comme un élément quasi factuel. Nous sommes ici dans le registre du bobard pur et simple, utilisé sciemment comme matériau de construction d’une argumentation indubitablement falsificatrice soit une « construction de la réalité ». Cela diffère grandement, avouons-le, d’une manipulation de masse classique à la sauce Orwellienne, usant d’une novlangue limitant le langage, pour mystifier le discernement d’une population. On était habitués à ce que l’histoire soit réécrite par les vainqueurs dans les périodes post-conflictuelles mais, dorénavant, c’est le passé immédiat et les évènements de la veille qui sont susceptibles d’être instantanément réécrits et revus en quasi-temps réel alors que tout le monde a pourtant encore les faits de la veille en mémoire.

Concernant les deepfakes, les avancées vertigineuses en matière d’intelligence artificielle (IA) et de deep learning permettent aujourd’hui de façonner ou de contrefaire le réel pour lui faire dire à peu près ce que l’on veut, ou presque ! Grâce à la puissance croissante des algorithmes « apprenants », les deepfakes gagnent constamment en sophistication, obligeant les chercheurs en génie logiciel à perfectionner leurs outils de détection. Mais de quoi s’agit-il au fond ? Le terme récent de « deepfakes » est une expression forgée en ajoutant au terme « fake » le terme « deep », pour « deep learning » ou apprentissage profond. Ce néologisme anglophone désigne en somme un ensemble de procédés techniques permettant aux intelligences artificielles d’apprendre à reconnaître des formes, des structures, des motifs, des objets ou des personnes. Les anglophones parlent ici de « Patterns » : un terme polysémique ayant moult traductions en langue française. La « deepfake reality », quant à elle, découle en droite ligne de cet usage délétère et intensif par certains Etats ou groupes d’acteurs des outils du faux, pour convaincre un auditoire-cible. Ce sont des actions d’intelligence menées dans le but d’orienter la réalité perçue par autrui, en jouant sur le filtre de ses perceptions ou de ses biais cognitifs. Une forme de « guerre sans la faire » en somme, mais qui se livre dans le champ psychologique de l’adversaire.

La Revue : Quand la prolifération de ces « armes du faux », selon l’expression consacrée du chercheur François-Bernard Huygues, augure dangereusement d’une possible désintégration du ciment de nos sociétés démocratiques, pourrons-nous encore croire demain tout ce que nous verrons sur la toile, et ses plateformes sociales ?

Franck DeCloquement : Rien n’est moins sûr en effet, compte tenu de l’arsenal digital et d’outils de falsification aux mains des prédateurs. Du fait de la promesse tenue d’une « réalité augmentée », il se pourrait bien que nous nous dirigions à grands pas – compte tenu des avatars de la « Deepfake reality » – vers une « réalité diminuée » ou une version très « rabougrie » de celle-ci ! Dans l’analyse classique qui est faite du cyberspace en trois couches, la composante sémantique ou informationnelle du cyber, recèle l’ensemble des informations qui transitent sur la toile. Les enjeux stratégiques actuels se portent indéniablement vers la maîtrise de cette 3ème dimension informationnelle où s’opère justement la conflictualité, la contrefaction des faits n’y étant pas le moindre mal à gérer par les Etats occidentaux. Pour preuve, les constats du document produit en 2018 par l’IRSEM et le CAPS[2], sur les manipulations de l’information envisagées sans ambages comme « un défi absolu pour nos démocraties ».

A titre d’illustration, le grand classique de la littérature de George Orwell, « 1984 » que nous évoquions plus haut ne disait pas autre chose. Il figure toujours parmi les meilleures ventes de livres à travers le monde ! L’auteur y préfigurait déjà en 1949, comment le pouvoir politique fictif qu’il dépeignait à travers son œuvre, contrôlait drastiquement les esprits et les cœurs de ses citoyens en manipulant sans vergogne la vérité des faits. Dans son chapitre IX, Orwell y avait rédigé cette injonction parfaitement annonciatrice des périls qui nous guettent : « Pour diriger et continuer à diriger, il faut être capable de modifier le sens de la réalité ». C’est en somme ce que sont en capacité de produire aujourd’hui tous ces moyens digitaux sur nos psychés. C’est entre autres le jeu auquel s’adonnent les régimes autoritaire et populistes à travers la planète, à l’ère du Web 2.0. Mais aussi, des grandes plateformes sociales américaines, en croissance constante partout dans le monde. Cette année « 1984 » fictive promise par Orwell au siècle dernier, n’est-elle pas définitivement devenue notre réalité, avec ce présent aux relents de guerre froide que nous sert quotidiennement l’Amérique de Donald Trump à travers ses « faits alternatifs » et sa « post-vérité » ? Mais aussi la Russie de Vladimir Poutine, en pointe sur la désinformation comme au bon vieux temps recouvré de l’Union Soviétique ? L’avenir glorieux que nous réserve la Chine de Xi Jinping n’est pas en reste, empreint de cette propagande communiste d’antan, mais aujourd’hui mâtinée de technologies intelligentes dernier cri… Ne sommes-nous pas en train de basculer subrepticement dans une ère de « post-vérité intégrale », au risque de briser irrémédiablement sur ces récifs le socle de nos sociétés occidentales ? La question se pose indubitablement, un peu plus chaque jour.

La Revue : Le modèle économique des GAFAM est-il vraiment compatible avec ce rôle de « gendarme » que l’Etat français voudrait pourtant les voir endosser à leur corps défendant ?

Franck DeCloquement : Le paradoxe n’est pas mince. Si Mark Zuckerberg, le fondateur emblématique de la multinationale Facebook, accepte aujourd’hui l’augure d’un meilleur contrôle d’internet par les Etats occidentaux, sa posture affable peine à cacher la réalité de son emprise croissante sur nos vies et notre modèle de démocratie. Ravir nos attentions collectives, les monétiser sans relâche et maintenir nos cognitions individuelles captives de leurs dédales digitaux, via l’usage de Dark Patterns, est bien in fine le grand jeu des plateformes dites « sociales » dans leur ensemble. Le principe de ces Dark Patterns repose sur un précepte assez simple en définitive : inciter l’utilisateur lambda à faire une action qu’il n’aurait pas eu l’intention d’effectuer de lui-même sans être influencé, si possible sans qu’il s’en rende compte… Le but recherché est, par exemple, de collecter ses données personnelles plus aisément, de lui faire ajouter des produits dans son panier utilisateur ou encore de lui faire passer plus de temps sur une interface spécifique afin d’améliorer le trafic du site. L’une des plus célèbres formes de Dark Pattern connues est le « Privacy Zuckering », en référence à Mark Zuckerberg justement ! Celle-ci s’opère principalement en coulisses, quand vous êtes très progressivement invité par la plateforme de réseautage social à partager publiquement beaucoup plus d’informations sur vous-même, que vous ne le souhaitiez initialement… Le sobriquet « Privacy Zuckering » a d’ailleurs fini par s’imposer aux Etats-Unis pour qualifier ce type de procédé qui repose pour l’essentiel sur un « élément de design douteux » qui vise à orienter ou manipuler le choix de l’utilisateur en ligne. Il s’oppose en cela à « l’UX éthique » (ou design éthique), qui consiste à penser et à concevoir un site web de manière à ce que l’expérience utilisateur soit privilégiée, et demeure la meilleure possible.

La commercialisation de nos données personnelles assure de gigantesques profits aux firmes géantes de la Tech, essentiellement américaines et toutes sous contrat avec le Pentagone. En réclamant en mars 2019 une intervention plus musclée des États dans la régulation du web, récidivant le 10 mai 2019 à l’Élysée aux côtés d’Emmanuel Macron, et prônant pour la France et l’Europe « un nouveau modèle de régulation d’internet », Mark Zuckerberg approuvait dans la foulée l’appel de Christchurch contre les contenus terroristes, extrémistes et haineux, à l’initiative concertée de plusieurs dirigeants occidentaux, outre celle de la Première ministre néo-zélandaise Jacinda Ardern et celle du président français. Trompe l’œil que tout cela ! Derrière les bonnes intentions affichées, l’essayiste Bruno Patio résume impeccablement cette affaire « d’encerclement cognitif » mis en œuvre par les plateformes sociales dans son ouvrage à succès, « la civilisation du poisson rouge » : « Les empires économiques ont créé une nouvelle servitude avec une détermination implacable. Au cœur du système, et au cœur de notre vie quotidienne, un projet caché : l’économie de l’attention. Augmenter la productivité du temps pour en extraire encore plus de valeur… ». Sur la durée, on évalue encore mal les conséquences exactes de ces technologies de rupture sur la fragile trame du tissu social de nos systèmes démocratiques, la bonne tenue de leur cohésion générale face à la production de contenus hautement déstabilisants mais aussi leur impact général sur le développement de l’esprit critique des populations. L’accroissement de la crédulité générale étant bien entendu en ligne de mire des falsificateurs de tous poils, et autres promoteurs de « faux ». Ne nous voilons évidemment pas la face : la diffusion des deepfakes n’est pas seulement un problème technologique qui pourra être résolu par un surcroît de technologie pour mieux les combattre. A contrario, les explications technophiles très orientées « business » d’un Mark Zuckerberg, qui promettait déjà l’an dernier – et pour cause – de résoudre ce problème grâce à l’usage intensif d’une « IA plus performante », occultent en réalité un problème structurel crucial bien plus prosaïque. La croisade de Zuckerberg cache l’emprise indéniable des GAFAM sur nos vies. Le modèle économique initialement adopté par les plateformes sociales comme Facebook, exploite en réalité ardemment ce type de contenus contrefaits pour mieux prospérer. En la matière, le bon sens commanderait évidemment de ne pas confier les clefs du poulailler à « Maître Renard en espérant qu’il assurera loyalement et en toute quiétude la surveillance des gallinacées ! Gageons que Jean de La Fontaine aurait aussi trouvé à y redire…

Le classement des plateformes révèle immédiatement l’enjeu économique, sociétal et géostratégique qu’elles génèrent par leur business-modèle ou leur contrôle par certains états.

La nouvelle puissance des réseaux sociaux assume indéniablement une sorte de cinquième pouvoir, à côté de celui des médias audiovisuels et de la presse écrite traditionnelle. Elle oblige aussi à la responsabilité accrue et à la vigilance extrême de nos élus. Sans filtrage éditorial apparent, les faits et les opinions se bousculent dans les groupes Facebook, les threads de Twitter, les vidéos YouTube ou TikTok. Et cette révolution silencieuse qui imprègne désormais nos perceptions, oblige lourdement nos élites politiques à de nombreux examens de conscience.

La Revue : En n’envisageant la lutte contre les effets de la Deepfake Reality qu’à l’aune d’une remédiation technique, les géants de la Silicon Valley ne s’exonèrent-ils pas de leurs relations symbiotiques avec ces contenus profitables et consubstantiels de leur business-modèle ?

Franck DeCloquement : C’est indéniable. Cette posture ambiguë leur est en effet consubstantielle et incluse, pourrait-on dire, au cœur même de leur ADN industriel, compte tenu du choix de leur business-modèle. La conflictualité, les propos haineux, rageurs et complotistes génèrent du trafic en très grande quantité et alimentent la machine. Le volume des audiences-cibles s’en trouve naturellement augmenté et les recettes publicitaires nécessairement boostées. Pour résumer à grands traits nos propos précédents et enfoncer le clou, les médias sociaux et les grandes plateformes du web sont cyniques par nature. La relation très ambiguë qu’entretiennent ces multinationales géantes de la Silicon Valley avec la diffusion d’informations alternativement « factices » ou « factuelles », s’explique en grande partie par la poursuite implacable de leurs intérêts commerciaux bien compris. Lorsque le business-modèle d’une plate-forme consiste à maximiser le temps d’engagement de ses audiences (certains parleraient ici de « temps de cerveaux disponible »), afin de s’octroyer des revenus publicitaires astronomiques, des contenus controversés, choquants, complotistes ou parfaitement complaisants sont tout naturellement poussés jusqu’au sommet de la « chaîne alimentaire » pourrait-on dire.

C’est bien là que réside la véritable ambiguïté de fond car en le formulant indubitablement sous le seul prisme des errements de la technologique, ces puissantes plates-formes technologiques américaines distraient en réalité opportunément leur public – ainsi que certains pouvoirs publics – de l’idée qu’il pourrait y avoir des liens de connivences et d’intérêts croisés bien plus fondamentaux, en deçà de notre appréhension des véritables enjeux géopolitiques et financiers pour l’essentiel. Ainsi peut-on résumer très schématiquement la chaîne de valeur qui les meut.

Pour les spécialistes avertis de l’association militante « la quadrature du Net », la régulation des contenus haineux ou contrefaits par les seuls géants du Web est clairement vouée à l’échec. Cette petite équipe d’experts et de juristes, d’inspiration libertaire, mène d’ailleurs une campagne de lobbying musclées contre les GAFAM depuis quelques années, accusés de beaucoup trop s’immiscer dans nos vies privées. En lutte contre les faux dilemmes et les fausses évidences nourries par les cabinets de lobbying inféodés aux GAFAM, ils préconisent en outre deux autres options possibles, mais non suivies jusqu’alors par les gouvernements : renforcer le rôle de la justice sur le plan numérique, en musclant ses effectifs dédiés mais aussi développer des formations d’aguerrissement, ayant toutes une vocation à édifier les « esprits et les cœurs ». En somme, il s’agirait de vacciner individuellement les internautes contre les méfaits cognitifs d’un usage irréfléchi et intensif des plateformes sociales, mais aussi des réalités frelatées qu’elles véhiculent, conformément en cela aux impératifs de leur business-modèle. Pour l’heure, leurs nombreuses recommandations n’emportent pas la conviction des décideurs politiques successifs, plus adeptes d’imposer un filtrage et une centralisation accrue du Web, mais opérés par ces plateformes elles-mêmes… Une alliance impossible par nature, tel le mariage de la carpe et du lapin, confinant véritablement à un syndrome de Stockholm vis-à-vis des GAFAM, de l’avis général des plus fins spécialistes de la toile.

References[+]


Du même partenaire

La victime face aux cyberprédateurs : comment mieux la prendre en compte dans...

La victime face aux cyberprédateurs : comment mieux la prendre en compte dans le procès pénal ?

Sociétés, Cultures, Savoirs

Par Xavier LEONETTI

Source : CREOGN

Mis en ligne le 16 Fév 2023

L'Union européenne en quête d'une cyberdéfense

L'Union européenne en quête d'une cyberdéfense

Défense et Sécurité

Par Marc WATIN-AUGOUARD

Source : CREOGN

Mis en ligne le 17 Oct 2022

« L’engagement libère »

L'engagement libère

Sociétés, Cultures, Savoirs

Par François SUREAU

Source : CREOGN

Mis en ligne le 15 Fév 2022


Articles de la catégorie Sociétés, Cultures, Savoirs

Les droites au Parlement européen : Le pari réussi de Viktor...

Les droites au Parlement européen : Le pari réussi de Viktor Orban

Sociétés, Cultures, Savoirs

Par Joséphine STARON

Source : Synopia

Mis en ligne le 25 Jul 2024

Diffuser les images du 07 octobre à l’ère de Tiktok :...

Diffuser les images du 07 octobre à l’ère de Tiktok : entre témoignage et déni

Sociétés, Cultures, Savoirs

Par Stéphanie COUROUBLE-SHARE

Source : Fondation Jean Jaurès

Mis en ligne le 15 Feb 2024

Chacun sa crise : La politique du traumatisme dans l’année électorale...

Chacun sa crise : La politique du traumatisme dans l’année électorale européenne

Sociétés, Cultures, Savoirs

Par Mark LEONARD, Ivan KRASTEV

Source : ECFR

Mis en ligne le 15 Feb 2024

Nos partenaires

Académie du renseignement
Bibliothèque de l’Ecole militaire
Centre d'études stratégiques de la Marine
Centre d’études stratégiques aérospatiales (CESA)
Centre de Recherche de l'Ecole des Officiers de la Gendarmerie Nationale
Centre des Hautes Etudes Militaires
Chaire Défense & Aérospatial
Chaire Raoul-Dandurand de l'UQAM/Centre FrancoPaix
Conflits
Ecole de Guerre
Encyclopédie de l’énergie
ESD-CNAM
European Council on Foreign Relations
Fondation Jean Jaurès
Fondation maison des sciences de l'homme
Fondation pour la recherche stratégique
Fondation Robert Schuman
Institut de Relations Internationales et Stratégiques
Institut des Hautes Etudes de Défense Nationale
Institut des hautes études du ministère de l'Intérieur
Institut Français des Relations Internationales
International Journal on Criminology
IRSEM
L’Association des Auditeurs et cadres des sessions nationales "Armement & Economie de Défense" (3AED-IHEDN)
Les Jeunes IHEDN
Revue Défense Nationale
Revue Géostratégiques / Académie de Géopolitique de Paris
Sécurité Globale
Synopia
Union-IHEDN/Revue Défense
Université Technologique de Troyes
Académie du renseignement
Bibliothèque de l’Ecole militaire
Centre d'études stratégiques de la Marine
Centre d’études stratégiques aérospatiales (CESA)
Centre de Recherche de l'Ecole des Officiers de la Gendarmerie Nationale
Centre des Hautes Etudes Militaires
Chaire Défense & Aérospatial
Chaire Raoul-Dandurand de l'UQAM/Centre FrancoPaix
Conflits
Ecole de Guerre
Encyclopédie de l’énergie
ESD-CNAM
European Council on Foreign Relations
Fondation Jean Jaurès
Fondation maison des sciences de l'homme
Fondation pour la recherche stratégique
Fondation Robert Schuman
Institut de Relations Internationales et Stratégiques
Institut des Hautes Etudes de Défense Nationale
Institut des hautes études du ministère de l'Intérieur
Institut Français des Relations Internationales
International Journal on Criminology
IRSEM
L’Association des Auditeurs et cadres des sessions nationales "Armement & Economie de Défense" (3AED-IHEDN)
Les Jeunes IHEDN
Revue Défense Nationale
Revue Géostratégiques / Académie de Géopolitique de Paris
Sécurité Globale
Synopia
Union-IHEDN/Revue Défense
Université Technologique de Troyes

 

afficher nos partenaires