La «guerre cognitive», le nouveau domaine d'intérêt de l'OTAN
«
Dans la guerre cognitive, l'esprit humain est le champ de bataille. Le
but est d'agir non seulement sur la pensée des personnes, mais également
sur leurs actes. Lorsqu'elle est menée de main de maître, la guerre
cognitive façonne et influence les croyances et les comportements des
individus et
des groupes au profit des objectifs tactiques ou stratégiques d'un
agresseur. Dans sa forme la plus extrême, elle peut diviser, voire
morceler une société tout entière, à un point où celle-ci n'aurait alors
plus la volonté collective de résister aux intentions de l'adversaire.
Un opposant pourrait
en théorie subjuguer une société sans recourir à la force brute ou à la
coercition. »
C'est ainsi que l'université Johns Hopkins et l'Imperial College de
Londres décrivent le nouveau domaine appelé « guerre cognitive ». Leur
article, publié dans la Revue de l'OTAN du 20 mai, dit vouloir promouvoir le débat sur les questions de sécurité. La Revue de l'OTAN
souligne que les opinions exprimées par les auteurs sont les leurs et ne
prétendent pas constituer la position ou la politique officielle de
l'OTAN ou des gouvernements membres. Elles replacent le nouveau domaine
de la « guerre cognitive » dans le contexte de toute une série de défis
dans des
espaces de confrontation nouveaux, espaces qui naissent parfois des
innovations ou des ruptures technologiques. Les domaines de l'espace et
du cyberespace, par exemple, sont nés de l'évolution des technologies
des missiles, des satellites, de l'informatique, des télécommunications
et de
l'interconnexion des réseaux. Le nouveau domaine appelé guerre cognitive
est quant à lui rendu possible par l'utilisation de plus en plus
répandue des médias et des réseaux sociaux et de leurs messageries et
des technologies liées aux appareils mobiles.
Objectifs de la guerre cognitive
Voici un extrait de l'article en question :
Les buts de la guerre cognitive peuvent être limités et s'inscrire dans
des horizons à court terme. Ils peuvent aussi être d'ordre stratégique,
avec des campagnes menées sur plusieurs décennies. Une seule et même
campagne pourrait porter sur un but limité, par exemple empêcher qu'une
manoeuvre
militaire se déroule comme prévu, ou imposer la modification d'une
politique publique donnée. À l'inverse, plusieurs campagnes successives
pourraient être lancées dans l'objectif à long terme de déstabiliser des
sociétés ou des alliances dans leur ensemble, en instillant le doute au
sujet de la
gouvernance, en subvertissant les processus démocratiques, en
déclenchant des troubles publics ou en provoquant des mouvements
séparatistes. »
Combiner les effets des armes
Au cours du siècle dernier, l'intégration novatrice de
l'infanterie portée, des blindés et de l'armée de l'air a débouché sur
une nouvelle forme de guerre de manoeuvre, qui brisa alors toute
résistance. Aujourd'hui, la guerre cognitive intègre des capacités
faisant appel au cyber, à
l'information, à la psychologie et à l'ingénierie sociale pour parvenir à
ses fins. Elle tire parti d'internet et des médias sociaux pour cibler
des personnalités influentes, des groupes spécifiques ou de très
nombreux individus – que ce soit de manière sélective ou en série – dans
une société
donnée (au sens de communauté).
Elle tente d'instiller le doute, d'introduire des messages
contradictoires, de polariser l'opinion, de radicaliser certains groupes
et d'inciter ces derniers à adopter des comportements susceptibles
d'ébranler ou de diviser une société par ailleurs solidaire. De plus,
l'utilisation généralisée
des médias sociaux et des technologies intelligentes dans les pays de
l'Alliance peut rendre ces derniers particulièrement vulnérables à ce
type d'attaques.
Les infox deviennent superflues
Il est bon de savoir que la guerre cognitive n'a pas besoin de
recourir à des informations fallacieuses, ou infox, pour parvenir à ses
fins. Il suffit en effet d'un document officiel embarrassant, piraté à
partir de la messagerie d'un responsable public et partagé anonymement
sur un média social
ou diffusé de manière ciblée à des groupes d'opposition sur un réseau
social, pour créer de la dissension.
Une campagne menée sur les réseaux sociaux, qui déchaîne les passions
d'influenceurs, peut très rapidement donner une dimension virale à des
controverses. Des groupes actifs sur les médias sociaux pourraient alors
être incités à organiser des manifestations et à descendre dans la rue.
Dans ces
circonstances, un démenti officiel ou une réponse ambiguë des pouvoirs
publics viendrait ajouter à la confusion ou au doute ou faire émerger
des discours divergents chez certaines catégories de population.
Si les faux comptes sur les médias sociaux ou les bots, avec leurs
messages automatisés, peuvent renforcer cette dynamique, ils ne sont pas
indispensables (une étude récente du MIT a montré que les seules
émotions de la surprise et du dégoût suffisaient pour que les messages
se répandent comme
une traînée de poudre, repartagés en une fraction de seconde par des
utilisateurs ordinaires – et non par des bots).
L'intelligence de nos appareils
Un exemplaire papier de votre journal favori ne sait pas quels
articles vous préférez lire. Votre tablette, elle, le sait. La publicité
que vous avez vue dans le journal ne sait pas que vous êtes allé en
magasin acheter le produit mis en avant; votre smartphone, si.
L'éditorial que vous lisez ne
sait pas que vous l'avez partagé volontiers avec certains de vos plus
proches amis. Votre plateforme de réseau social, si.
Nos applications de médias sociaux conservent la trace de nos
intérêts et de nos opinions; nos smartphones enregistrent où nous
allons et avec qui nous passons du temps; nos réseaux sociaux
surveillent qui nous fréquentons et qui nous évitons. Et nos moteurs de
recherche et plateformes de
commerce électronique utilisent ces traces pour convertir nos
préférences et nos opinions en actions, en nous encourageant, par des
stimuli, à acquérir des produits ou des services que nous n'aurions pas
achetés autrement.
Jusqu'ici, les sociétés de consommation en ont constaté et accepté
les avantages. La tablette nous suggère des articles de presse qu'elle
sait conformes à nos centres d'intérêt, car elle veut en permanence
entretenir notre attention. Les publicités qui s'affichent correspondent
à nos goûts,
eux-mêmes définis à partir de nos achats précédents. Des codes de
réduction s'affichent sur notre smartphone pour nous encourager à nous
arrêter dans un magasin qui, par une étrange coïncidence, se trouve
justement sur notre chemin. Les réseaux sociaux présentent des opinions
auxquelles nous
souscrivons pleinement. Nos cercles d'amis sur les réseaux sociaux
partagent également ces opinions, les autres étant discrètement
supprimés des listes d'amis ou laissés de côté.
En somme, nous vivons de plus en plus dans une bulle de confort où
les nouvelles, les opinions, les offres ou les personnes désagréables ou
dérangeantes sont rapidement exclues — si tant est qu'elles
apparaissent. Le danger réside dans la possible fragmentation de la
société en une myriade de
petites bulles séparées les unes des autres et heureuses de l'être. À
mesure que cette séparation grandit, chacune des bulles est davantage
susceptible d'être déstabilisée ou perturbée au moindre contact.
L'animation et les transactions caractéristiques de la place publique, le débat libre au sein d'un forum public, l'idée d'une res publica
(chose publique) commune dans une société pluraliste : toutes ces
influences modératrices pourraient se voir amoindries et atténuées, et
nos
sensibilités s'en trouver plus facilement perturbées. Ce qui était
autrefois une société ouverte et dynamique se transforme aujourd'hui en
une multitude de microsociétés fermées qui cohabitent sur le même
territoire, sujet aux fractures et à la confusion.
Nos esprits « ramollis »
Les médias sociaux et les appareils intelligents peuvent également
contribuer à amoindrir nos capacités cognitives. L'utilisation des
médias sociaux peut en effet renforcer les biais cognitifs et la
propension à l'erreur dans la prise de décision décrits par le
comportementaliste Daniel Kahneman,
lauréat du prix Nobel, dans son livre Thinking, Fast and Slow, traduit en français sous le titre Système 1/Système 2 : les deux vitesses de la pensée.
Les fils d'actualité et les moteurs de recherche qui présentent des
résultats conformes à nos préférences renforcent notre biais de
confirmation, qui nous fait interpréter les informations nouvelles comme
venant confirmer nos idées préconçues. Les applications de messagerie
des réseaux sociaux
communiquent rapidement à leurs utilisateurs de nouvelles informations,
engendrant ainsi un biais de récence, qui nous fait surestimer
l'importance des évènements récents par rapport au passé plus lointain.
Les réseaux sociaux jouent le rôle d'élément de preuve sociale,
phénomène expliquant que nous
copiions ce que font les autres et souscrivions à leurs actions et
croyances pour nous fondre dans nos groupes sociaux, lesquels deviennent
alors des chambres de réverbération du conformisme et de la pensée de
groupe.
Le rythme effréné auquel messages et actualités sont diffusés et la
nécessité perçue d'y réagir rapidement encouragent la pensée rapide (le «
système 1 », intuitif et émotionnel) par opposition à la pensée lente
(le « système 2 », siège de la raison et du jugement). Même les groupes
de presse
sérieux et reconnus publient désormais des gros titres accrocheurs pour
encourager la diffusion virale de leurs articles.
Le temps consacré à la lecture des contenus est réduit, alors même
que la fréquence des partages augmente. Les systèmes de messagerie des
réseaux sociaux sont optimisés pour la diffusion de brèves qui font
souvent abstraction d'éléments de contexte ou de nuance importants. Cela
peut favoriser la
propagation d'informations mal interprétées, volontairement ou non, ou
encore de récits biaisés. La faible durée de vie des contenus publiés
sur les médias sociaux, associée au choc des images, peut en outre
empêcher le lecteur d'appréhender les motivations et les valeurs
d'autrui.
La sensibilisation, une nécessité
Dans la guerre cognitive, l'avantage revient à celui qui prend
l'initiative et qui choisit l'heure, le lieu et le mode de l'offensive.
La guerre cognitive peut être livrée au moyen de nombreux vecteurs et
médias. L'accessibilité des médias sociaux permet à l'adversaire de
facilement cibler les
individus, les groupes sélectionnés et le public grâce aux messageries
des réseaux sociaux, à l'empreinte qu'il aura marquée sur les médias
sociaux, à la publication sélective de documents, au partage de vidéos,
etc. Les capacités cyber rendent possible le recours au harponnage, au
piratage et au
suivi des personnes et des réseaux sociaux.
Pour mettre en place une défense adéquate, il faut au minimum avoir
conscience qu'une campagne de guerre cognitive est en cours. Cela
suppose une capacité d'observation et d'orientation, qui permettra aux
décideurs de prendre une décision puis de passer à l'action. Il existe
ici des solutions
technologiques permettant de répondre à certaines questions clés :
est-ce qu'une campagne est en cours ? D'où émane-t-elle ? Qui tire les
ficelles ? Quels pourraient être ses buts ? Nos recherches montrent que,
dans ces campagnes, certaines caractéristiques se répètent et qu'elles
peuvent être
rangées en différentes catégories. Elles peuvent parfois même jouer le
rôle de « signatures » propres à certains auteurs et, ainsi, faciliter
l'identification de ces derniers.
Il pourrait se révéler particulièrement utile de disposer d'un
système de suivi et d'alerte pour la guerre cognitive. Une telle
solution technologique pourrait en effet simplifier le repérage d'une
campagne de guerre cognitive dès son lancement, et en suivre la
progression. Ce système pourrait
comporter un tableau de bord rassemblant des données issues d'un large
éventail de médias sociaux, de médias audiovisuels, de messageries et de
réseaux sociaux. Ce tableau de bord afficherait des cartes
géographiques et dresserait une cartographie sociale montrant
l'évolution dans le temps des
campagnes présumées.
On pourrait ainsi dégager des liens et des récurrences
caractéristiques à partir de l'origine — graphique et virtuelle — des
publications sur les médias sociaux, des messages et des articles de
presse, et à partir des sujets traités, des marqueurs émotionnels et
linguistiques, du rythme de
publication et d'autres facteurs. Il serait également possible d'établir
des liens entre les activités de certains comptes sur les médias
sociaux (par exemple, des partages, des commentaires ou des
interactions) et les heures auxquelles ces activités ont lieu. Enfin, le
recours à l'apprentissage
automatique et à des algorithmes de reconnaissance des formes pourrait
aider à repérer et à classer rapidement les nouvelles campagnes, sans
qu'une intervention humaine soit nécessaire.
Un tel système permettrait un suivi en temps réel et l'envoi
d'alertes rapides aux décideurs de l'OTAN et de l'Alliance, ce qui les
aiderait à concevoir des réponses adéquates à ces campagnes aux
différents stades de leur évolution.
De la résilience
Depuis les débuts de l'Alliance, l'OTAN joue un rôle essentiel
lorsqu'il s'agit de promouvoir et d'améliorer la préparation du secteur
civil de ses pays membres. L'article 3 du traité fondateur de l'OTAN
consacre le principe de résilience, selon lequel les pays membres de
l'Alliance «
maintiendront et accroîtront leur capacité individuelle et collective de
résistance à une attaque armée ». Cela suppose notamment d'assurer la
continuité de l'État et la fourniture de services essentiels, notamment
de systèmes de communication civils résilients.
Aujourd'hui, l'OTAN pourrait se pencher sur les moyens de prendre
l'initiative dans les travaux de définition des attaques cognitives,
d'aider les membres de l'Alliance à ne pas baisser la garde, et
d'encourager la mise au point d'infrastructures de communications
civiles et de cadres publics
d'enseignement plus solides, afin de renforcer la capacité de résistance
et de réponse.
Cet article est paru dans
Volume 51 Numéro 13 - 7 novembre 2021
Lien de l'article:
https://cpcml.ca/francais/Lml2021/Articles/L510137.HTM
Site Web: www.pccml.ca
Courriel: redaction@cpcml.ca
|