La «guerre cognitive», le nouveau domaine d'intérêt de l'OTAN

« Dans la guerre cognitive, l'esprit humain est le champ de bataille. Le but est d'agir non seulement sur la pensée des personnes, mais également sur leurs actes. Lorsqu'elle est menée de main de maître, la guerre cognitive façonne et influence les croyances et les comportements des individus et des groupes au profit des objectifs tactiques ou stratégiques d'un agresseur. Dans sa forme la plus extrême, elle peut diviser, voire morceler une société tout entière, à un point où celle-ci n'aurait alors plus la volonté collective de résister aux intentions de l'adversaire. Un opposant pourrait en théorie subjuguer une société sans recourir à la force brute ou à la coercition. »

C'est ainsi que l'université Johns Hopkins et l'Imperial College de Londres décrivent le nouveau domaine appelé « guerre cognitive ». Leur article, publié dans la Revue de l'OTAN du 20 mai, dit vouloir promouvoir le débat sur les questions de sécurité. La Revue de l'OTAN souligne que les opinions exprimées par les auteurs sont les leurs et ne prétendent pas constituer la position ou la politique officielle de l'OTAN ou des gouvernements membres. Elles replacent le nouveau domaine de la « guerre cognitive » dans le contexte de toute une série de défis dans des espaces de confrontation nouveaux, espaces qui naissent parfois des innovations ou des ruptures technologiques. Les domaines de l'espace et du cyberespace, par exemple, sont nés de l'évolution des technologies des missiles, des satellites, de l'informatique, des télécommunications et de l'interconnexion des réseaux. Le nouveau domaine appelé guerre cognitive est quant à lui rendu possible par l'utilisation de plus en plus répandue des médias et des réseaux sociaux et de leurs messageries et des technologies liées aux appareils mobiles.

Objectifs de la guerre cognitive

Voici un extrait de l'article en question :

Les buts de la guerre cognitive peuvent être limités et s'inscrire dans des horizons à court terme. Ils peuvent aussi être d'ordre stratégique, avec des campagnes menées sur plusieurs décennies. Une seule et même campagne pourrait porter sur un but limité, par exemple empêcher qu'une manoeuvre militaire se déroule comme prévu, ou imposer la modification d'une politique publique donnée. À l'inverse, plusieurs campagnes successives pourraient être lancées dans l'objectif à long terme de déstabiliser des sociétés ou des alliances dans leur ensemble, en instillant le doute au sujet de la gouvernance, en subvertissant les processus démocratiques, en déclenchant des troubles publics ou en provoquant des mouvements séparatistes. »

Combiner les effets des armes

Au cours du siècle dernier, l'intégration novatrice de l'infanterie portée, des blindés et de l'armée de l'air a débouché sur une nouvelle forme de guerre de manoeuvre, qui brisa alors toute résistance. Aujourd'hui, la guerre cognitive intègre des capacités faisant appel au cyber, à l'information, à la psychologie et à l'ingénierie sociale pour parvenir à ses fins. Elle tire parti d'internet et des médias sociaux pour cibler des personnalités influentes, des groupes spécifiques ou de très nombreux individus que ce soit de manière sélective ou en série dans une société donnée (au sens de communauté).

Elle tente d'instiller le doute, d'introduire des messages contradictoires, de polariser l'opinion, de radicaliser certains groupes et d'inciter ces derniers à adopter des comportements susceptibles d'ébranler ou de diviser une société par ailleurs solidaire. De plus, l'utilisation généralisée des médias sociaux et des technologies intelligentes dans les pays de l'Alliance peut rendre ces derniers particulièrement vulnérables à ce type d'attaques.

Les infox deviennent superflues

Il est bon de savoir que la guerre cognitive n'a pas besoin de recourir à des informations fallacieuses, ou infox, pour parvenir à ses fins. Il suffit en effet d'un document officiel embarrassant, piraté à partir de la messagerie d'un responsable public et partagé anonymement sur un média social ou diffusé de manière ciblée à des groupes d'opposition sur un réseau social, pour créer de la dissension.

Une campagne menée sur les réseaux sociaux, qui déchaîne les passions d'influenceurs, peut très rapidement donner une dimension virale à des controverses. Des groupes actifs sur les médias sociaux pourraient alors être incités à organiser des manifestations et à descendre dans la rue. Dans ces circonstances, un démenti officiel ou une réponse ambiguë des pouvoirs publics viendrait ajouter à la confusion ou au doute ou faire émerger des discours divergents chez certaines catégories de population.

Si les faux comptes sur les médias sociaux ou les bots, avec leurs messages automatisés, peuvent renforcer cette dynamique, ils ne sont pas indispensables (une étude récente du MIT a montré que les seules émotions de la surprise et du dégoût suffisaient pour que les messages se répandent comme une traînée de poudre, repartagés en une fraction de seconde par des utilisateurs ordinaires et non par des bots).

L'intelligence de nos appareils

Un exemplaire papier de votre journal favori ne sait pas quels articles vous préférez lire. Votre tablette, elle, le sait. La publicité que vous avez vue dans le journal ne sait pas que vous êtes allé en magasin acheter le produit mis en avant; votre smartphone, si. L'éditorial que vous lisez ne sait pas que vous l'avez partagé volontiers avec certains de vos plus proches amis. Votre plateforme de réseau social, si.

Nos applications de médias sociaux conservent la trace de nos intérêts et de nos opinions; nos smartphones enregistrent où nous allons et avec qui nous passons du temps; nos réseaux sociaux surveillent qui nous fréquentons et qui nous évitons. Et nos moteurs de recherche et plateformes de commerce électronique utilisent ces traces pour convertir nos préférences et nos opinions en actions, en nous encourageant, par des stimuli, à acquérir des produits ou des services que nous n'aurions pas achetés autrement.

Jusqu'ici, les sociétés de consommation en ont constaté et accepté les avantages. La tablette nous suggère des articles de presse qu'elle sait conformes à nos centres d'intérêt, car elle veut en permanence entretenir notre attention. Les publicités qui s'affichent correspondent à nos goûts, eux-mêmes définis à partir de nos achats précédents. Des codes de réduction s'affichent sur notre smartphone pour nous encourager à nous arrêter dans un magasin qui, par une étrange coïncidence, se trouve justement sur notre chemin. Les réseaux sociaux présentent des opinions auxquelles nous souscrivons pleinement. Nos cercles d'amis sur les réseaux sociaux partagent également ces opinions, les autres étant discrètement supprimés des listes d'amis ou laissés de côté.

En somme, nous vivons de plus en plus dans une bulle de confort où les nouvelles, les opinions, les offres ou les personnes désagréables ou dérangeantes sont rapidement exclues — si tant est qu'elles apparaissent. Le danger réside dans la possible fragmentation de la société en une myriade de petites bulles séparées les unes des autres et heureuses de l'être. À mesure que cette séparation grandit, chacune des bulles est davantage susceptible d'être déstabilisée ou perturbée au moindre contact.

L'animation et les transactions caractéristiques de la place publique, le débat libre au sein d'un forum public, l'idée d'une res publica (chose publique) commune dans une société pluraliste : toutes ces influences modératrices pourraient se voir amoindries et atténuées, et nos sensibilités s'en trouver plus facilement perturbées. Ce qui était autrefois une société ouverte et dynamique se transforme aujourd'hui en une multitude de microsociétés fermées qui cohabitent sur le même territoire, sujet aux fractures et à la confusion.

Nos esprits « ramollis »

Les médias sociaux et les appareils intelligents peuvent également contribuer à amoindrir nos capacités cognitives. L'utilisation des médias sociaux peut en effet renforcer les biais cognitifs et la propension à l'erreur dans la prise de décision décrits par le comportementaliste Daniel Kahneman, lauréat du prix Nobel, dans son livre Thinking, Fast and Slow, traduit en français sous le titre Système 1/Système 2 : les deux vitesses de la pensée.

Les fils d'actualité et les moteurs de recherche qui présentent des résultats conformes à nos préférences renforcent notre biais de confirmation, qui nous fait interpréter les informations nouvelles comme venant confirmer nos idées préconçues. Les applications de messagerie des réseaux sociaux communiquent rapidement à leurs utilisateurs de nouvelles informations, engendrant ainsi un biais de récence, qui nous fait surestimer l'importance des évènements récents par rapport au passé plus lointain. Les réseaux sociaux jouent le rôle d'élément de preuve sociale, phénomène expliquant que nous copiions ce que font les autres et souscrivions à leurs actions et croyances pour nous fondre dans nos groupes sociaux, lesquels deviennent alors des chambres de réverbération du conformisme et de la pensée de groupe.

Le rythme effréné auquel messages et actualités sont diffusés et la nécessité perçue d'y réagir rapidement encouragent la pensée rapide (le « système 1 », intuitif et émotionnel) par opposition à la pensée lente (le « système 2 », siège de la raison et du jugement). Même les groupes de presse sérieux et reconnus publient désormais des gros titres accrocheurs pour encourager la diffusion virale de leurs articles.

Le temps consacré à la lecture des contenus est réduit, alors même que la fréquence des partages augmente. Les systèmes de messagerie des réseaux sociaux sont optimisés pour la diffusion de brèves qui font souvent abstraction d'éléments de contexte ou de nuance importants. Cela peut favoriser la propagation d'informations mal interprétées, volontairement ou non, ou encore de récits biaisés. La faible durée de vie des contenus publiés sur les médias sociaux, associée au choc des images, peut en outre empêcher le lecteur d'appréhender les motivations et les valeurs d'autrui.

La sensibilisation, une nécessité

Dans la guerre cognitive, l'avantage revient à celui qui prend l'initiative et qui choisit l'heure, le lieu et le mode de l'offensive. La guerre cognitive peut être livrée au moyen de nombreux vecteurs et médias. L'accessibilité des médias sociaux permet à l'adversaire de facilement cibler les individus, les groupes sélectionnés et le public grâce aux messageries des réseaux sociaux, à l'empreinte qu'il aura marquée sur les médias sociaux, à la publication sélective de documents, au partage de vidéos, etc. Les capacités cyber rendent possible le recours au harponnage, au piratage et au suivi des personnes et des réseaux sociaux.

Pour mettre en place une défense adéquate, il faut au minimum avoir conscience qu'une campagne de guerre cognitive est en cours. Cela suppose une capacité d'observation et d'orientation, qui permettra aux décideurs de prendre une décision puis de passer à l'action. Il existe ici des solutions technologiques permettant de répondre à certaines questions clés : est-ce qu'une campagne est en cours ? D'où émane-t-elle ? Qui tire les ficelles ? Quels pourraient être ses buts ? Nos recherches montrent que, dans ces campagnes, certaines caractéristiques se répètent et qu'elles peuvent être rangées en différentes catégories. Elles peuvent parfois même jouer le rôle de « signatures » propres à certains auteurs et, ainsi, faciliter l'identification de ces derniers.

Il pourrait se révéler particulièrement utile de disposer d'un système de suivi et d'alerte pour la guerre cognitive. Une telle solution technologique pourrait en effet simplifier le repérage d'une campagne de guerre cognitive dès son lancement, et en suivre la progression. Ce système pourrait comporter un tableau de bord rassemblant des données issues d'un large éventail de médias sociaux, de médias audiovisuels, de messageries et de réseaux sociaux. Ce tableau de bord afficherait des cartes géographiques et dresserait une cartographie sociale montrant l'évolution dans le temps des campagnes présumées.

On pourrait ainsi dégager des liens et des récurrences caractéristiques à partir de l'origine — graphique et virtuelle — des publications sur les médias sociaux, des messages et des articles de presse, et à partir des sujets traités, des marqueurs émotionnels et linguistiques, du rythme de publication et d'autres facteurs. Il serait également possible d'établir des liens entre les activités de certains comptes sur les médias sociaux (par exemple, des partages, des commentaires ou des interactions) et les heures auxquelles ces activités ont lieu. Enfin, le recours à l'apprentissage automatique et à des algorithmes de reconnaissance des formes pourrait aider à repérer et à classer rapidement les nouvelles campagnes, sans qu'une intervention humaine soit nécessaire.

Un tel système permettrait un suivi en temps réel et l'envoi d'alertes rapides aux décideurs de l'OTAN et de l'Alliance, ce qui les aiderait à concevoir des réponses adéquates à ces campagnes aux différents stades de leur évolution.

De la résilience

Depuis les débuts de l'Alliance, l'OTAN joue un rôle essentiel lorsqu'il s'agit de promouvoir et d'améliorer la préparation du secteur civil de ses pays membres. L'article 3 du traité fondateur de l'OTAN consacre le principe de résilience, selon lequel les pays membres de l'Alliance « maintiendront et accroîtront leur capacité individuelle et collective de résistance à une attaque armée ». Cela suppose notamment d'assurer la continuité de l'État et la fourniture de services essentiels, notamment de systèmes de communication civils résilients.

Aujourd'hui, l'OTAN pourrait se pencher sur les moyens de prendre l'initiative dans les travaux de définition des attaques cognitives, d'aider les membres de l'Alliance à ne pas baisser la garde, et d'encourager la mise au point d'infrastructures de communications civiles et de cadres publics d'enseignement plus solides, afin de renforcer la capacité de résistance et de réponse.


Cet article est paru dans

Volume 51 Numéro 13 - 7 novembre 2021

Lien de l'article:
https://cpcml.ca/francais/Lml2021/Articles/L510137.HTM


    

Site Web:  www.pccml.ca   Courriel:  redaction@cpcml.ca