Ne comptez pas sur les signaux faibles pour anticiper l’avenir

Nous continuons de penser qu’on peut anticiper des événements importants en regardant les signaux faibles, c’est-à-dire avant-coureurs. C’est faux et voici pourquoi.

L’idée des signaux faibles est qu’un événement est toujours annoncé par des informations qui nous permettent de l’anticiper. Si nous repérons ces signaux et si nous sommes capables de les interpréter correctement, nous pouvons anticiper l’événement. C’est ainsi que la police surveille les achats d’engrais car ceux-ci contiennent du nitrate, utilisé pour faire des bombes. Dans un autre domaine, certaines marques de cosmétique envoient des chefs de produits dans les lieux branchés pour y déceler les futures tendances de la mode.

Limite des signaux faibles

L’exercice est utile mais a ses limites. D’abord, les signaux faibles peuvent être utilisés pour tromper l’adversaire. Ben Laden était ainsi connu pour faire circuler de nombreuses rumeurs d’attentats pour épuiser les services occidentaux. À trop être sensible aux signaux faibles, on sur-réagit. Ensuite, leur utilité décroît rapidement. Si les terroristes savent que la police surveille les achats d’engrais, ce qui finit forcément par arriver, ils trouveront d’autres moyens pour commettre leurs attentats (un massacre avec de simples Kalachnikov par exemple). S’en suit un jeu du chat et de la souris où les terroristes ont toujours l’initiative et où les signaux intéressants d’hier sont, au mieux, inutiles, au pire, trompeurs (une absence d’achat d’engrais peut faire croire à la fin des attentats).

Mais la limite principale des signaux faibles n’est pas là. Elle réside dans leur interprétation. Deux mois avant les attentats du 11 septembre 2001, un agent du FBI, la police fédérale américaine, basé en Arizona, alertait son siège que plusieurs individus originaires du Moyen-Orient s’entrainaient dans une école d’aviation et recommandait une enquête nationale. En effet, ceux-ci ne souhaitaient ni apprendre à décoller, ni à atterrir, ce qui est étrange convenons-en ! Voilà un exemple typique de signal faible. Et pourtant personne ne s’en est inquiété, et après l’attentat, cela a suscité une polémique importante sur l’incompétence supposée des services de police et de renseignement. Et pourtant l’inaction s’explique. D’une part, le propriétaire de l’école de pilotage a déclaré plus tard qu’il avait de nombreux clients fortunés qui souhaitaient juste pouvoir s’amuser en prenant les commandes de leur jet privé quelques minutes pendant le vol sans pour autant faire l’effort d’apprendre à atterrir ou décoller. D’autre part, le travail d’un officier du FBI consiste précisément à être témoin de choses bizarres toute la journée ; il doit donc choisir celles qu’il poursuit et celles qu’il doit laisser tomber faute de temps car il ne peut pas tout traiter. Une chose bizarre en chasse une autre. L’officier a donc rempli son rapport et l’a passé à son supérieur qui a estimé qu’il y avait plus urgent et plus important à traiter (trafic de drogue, attaque de banque, violences) que des élèves pilotes ne souhaitant pas apprendre à décoller ou atterrir.

Que de signaux! Que de signaux! (Source: Wikipedia)
Le rôle des hypothèses

Évidemment après coup, il est assez facile de critiquer cette décision, mais avant, dans le « brouillard de l’action », lorsqu’il est face à des dizaines d’affaires potentielles, impliquant des meurtres, des trafics, des violences etc., on peut comprendre que l’officier doive faire un choix. La question qui se pose est celle de savoir sur quelle base ces choix sont faits. Sur cette question, la chercheuse américaine Roberta Wohlstetter apporte un éclairage intéressant. Dans ses travaux pionniers sur l’attaque surprise de Pearl Harbor par les japonais le 7 décembre 1941, elle a montré que cet échec ne pouvait pas être mis sur le compte d’un manque d’attention aux signaux faibles. En effet, la marine américaine avait déchiffré les codes de la marine japonaise. Elle disposait donc de signaux massifs sous la forme de conversations des amiraux japonais. Mais elle trouvait l’hypothèse d’une attaque de Pearl Harbor tellement absurde qu’elle a refusé de l’envisager. Un exercice sur ce thème au printemps 1941 a même été refusé. Même si cela a alimenté les théories conspirationnistes depuis, lorsqu’on regarde une carte, on voit combien l’entreprise japonaise était folle : Pearl Harbour se trouve en effet à plus de 6.300 kilomètres du Japon et lancer une armada aussi loin de ses bases amenait à l’extrême limite du faisable les technologies dont disposait à l’époque les japonais. Objectivement c’était une folie. La marine américaine a donc basé son refus d’envisager une telle attaque sur deux hypothèses fortes qui semblaient tout à fait raisonnables à l’époque : d’une part sur l’impossibilité technique, et d’autre part sur le fait qu’il semblait suicidaire qu’un petit pays comme le Japon se sente capable d’attaquer un pays aussi puissant que les États-Unis. Les signaux faibles sont donc triés et interprétés sur la base d’hypothèses (ou des modèles mentaux, c’est-à-dire de croyances) que l’on développe quant au système étudié. Les américains projettent leur rationalité sur les japonais alors qu’en fait ces derniers ne se rendent pas du tout compte qu’ils sont en train de réveiller un géant. La surprise n’est donc pas un problème de signaux faibles, mais d’hypothèses. C’est parce que leurs hypothèses étaient fausses que les américains ont été surpris.

Il en va de même pour l’école de pilotage du 11 septembre. Si le FBI avait communiqué à ses agents qu’il soupçonnait une attaque impliquant des avions de ligne, modifiant ainsi son hypothèse de travail, l’officier rapportant un comportement étrange dans une école de pilotage aurait sûrement été écouté avec attention. Mais sans hypothèse, impossible d’extraire les signaux faibles pertinents de la masse d’information sous laquelle cet officier est noyé tous les jours. Et avec le big data qui vomit continuellement ses montagnes de données, ça ne s’améliore pas avec le temps.

Nous interprétons donc le monde à partir d’hypothèses (mais aussi de croyances et de valeurs) et ce sont elles qui guident notre travail de compréhension du monde. Le spécialiste de la connaissance Haridimos Tsoukas écrit ainsi : « Comprendre présuppose l’existence d’un point d’Archimède, un point de vue à partir duquel le monde peut être considéré, pris en compte, et interprété. » Les hypothèses fournissent précisément ce point d’Archimède. Peter Drucker, l’un des plus grands auteurs en management, écrivait ainsi : « Les dirigeants qui prennent des décisions efficaces savent qu’on ne commence pas par les faits. On commence par des hypothèses … Commencer avec les faits est impossible. Il n’y a pas de fait à moins que l’on ait un critère de pertinence. »

On ne peut donc distinguer les signaux utiles du bruit qu’au moyen d’hypothèses, et celles-ci doivent être explicitées et rediscutées régulièrement à la lumière de faits nouveaux. Sans hypothèse pour faire le tri, nous n’avons qu’un immense tas de données dont nous ne savons que faire ou pire, dont nous pouvons faire ce que nous voulons. Au final, et malgré l’intérêt théorique de la notion de signal faible, sa portée pratique reste limitée et son utilisation risquée tant la quantité d’information avant l’événement est grande de nos jours.

Cet article est un extrait adapté de mon ouvrage “Bienvenue en incertitude!“. Si vous lisez l’anglais, le rôle des hypothèses dans les surprises stratégiques est l’objet de mon ouvrage Constructing Cassandra.

Voir mon article précédent “Face à l’incertitude: intérêt et limites de l’approche par les scénarios“.

🇬🇧 Version de l’article en anglais ici.

📭 Si vous avez aimé cet article, n’hésitez pas à vous abonner pour être averti des prochains (Bouton «Je m’abonne» en haut à droite sur la page d’accueil).

14 réflexions au sujet de « Ne comptez pas sur les signaux faibles pour anticiper l’avenir »

  1. Merci pour vos articles toujours aussi intéressants et propices à la réflexion.
    Il me semblerait intéressant de prendre en compte la chaine de traitement de l’information et de décisions associées aux signaux faibles, dans vos exemples, pour juger de la relative utilité de ceux-ci à des fins projectives .
    Comme vous l’indiquer, le signal faible (fait entrainant une hypothèse) nécessite de construire une expérience pour valider ou réfuter celle-ci. La problématique ne tient pas tant, à mon sens, du fait de sa multiplicité ou de sa complexité que du fait “la personne” ayant émis l’hypothèse n’est pas en mesure d’en valider/réfuter directement la véracité par elle même ou à moindre “coût”. Selon moi, c’est cette notion même de chaine de report de l’information ou de chaine de commandement qui induit, par effet entonnoir, l’impossibilité de traiter à sa juste valeur le signal faible. En sens inverse, une montée en autonomie des acteurs du système permettrait d’augmenter la capacité d’expérimentation locale. Dans l’exemple de Pearl Harbor, c’est le commandement qui projette sa suprématie et pas forcément l’analyste qui à surpris les transcriptions et les reporte à la chaine de commandement. On peut alors se demander quel était sont niveau d’autonomie réel pour valider son hypothèse, pouvait-il de son propre chef envoyer un avion en reconnaissance ou toute autre action jugée nécessaire par lui ? Surement pas. A mon sens, la question de l’utilité des signaux faibles pour prévoir devient donc secondaire par rapport à la question du comment mettre en place un système qui exploite mieux ceux-ci.

  2. Vu la distance, les pilotes japonais n’avaient aucun espoir de revenir au Japon après l’attaque; celle-ci n’était donc possible que par des kamikazes, et c’est justement l’hypothèse que les Américains n’ont pas su imaginer, non? L’ignorance du signal faible des pilotes n’apprenant pas à atterrir a un petit goût de déjà-vu…

  3. Effectivement.
    Une forme de signal faible que j’observe est le bruit assourdissant d’une bombe atomique que l’on ignore parce qu’elle n’entre pas dans le cadre théorique acceptable.

    Un signal faible ne peut pas être utile, parce qu’il n’est faible que par les hypothèse qui en interdisent l’interprétation. il est le symptôme d’un aveuglement, et un aveuglement s’il persiste est défendu (comme une niche fiscale) par une foule de bonnes raisons contre lequel le plus bruyant des signal ne peut s’opposer.

    J’ai une technique perso pour analyser les signaux faibles : l’analyse des silences, des trous informationnels, des répressions.

    Si vous avez un sujet pour lequel il n’y a pas de controverse, malgré de quoi en faire une bonne si on n’a pas d’éthique, pas de journaliste qui dénonce sans la moindre honnêteté, même s’il y a du papier à vendre, pas de politicien qui se positionne, pas de labo ou de grande surface qui cherche à exploiter le filon, pas d’ONG qui essaye d’en profiter pour l’exploiter, c’est qu’il y a une force incroyablement forte qui s’y oppose.

    on ne peut pas détecter les signaux faibles, mais ont peut détecter les zones de silence anormal…
    les zone où on de trouve ni journaliste malhonnêtes, ni ONG rapace, ni grande distribution fashion, ni politicien rusé, ni labo désespéré…

    si dans une jungle vous trouvez une clairière sans âme qui vive, vous savez que la zone est sous l’effet d’une aggression intense et permanente, qui le rend impropre à la vie la plus résistante .

    Quand on observe une de ces zone de silence, Il y a donc à la fois des signaux qui sont cachés, mais plus encore que les signaux, une aggression contre la libre circulation des idées, symptôme d’une force, d’une puissance, et donc d’un budget, d’une masse de profiteurs et de puissants lobbies soutenus par des minions et autre fanclubs.

    Maintenant identifiez les zone de silence.
    Vous ne pouvez probablement même pas les voir, sauf à vous connecter à des praticiens que personne n’écoute, des Cassandres marginalisés, interdit de TV.

    je connais une dizaine des ces zones de silence…
    Il y en a même une que je n’ose même plus attaquer tellement elle est défendue.
    et mes proches me font comprendre qu’a tenter de renverses les totems de la TV et de la politique, je risque des embrouilles, au moins familiales, et leur causer des embrouilles.

    Il y a des vérités qu’il ne faut pas dire, et ce sont les signaux faibles.

  4. Merci pour votre article.
    Vous écrivez :
    “Nous interprétons donc le monde à partir d’hypothèses (mais aussi de croyances et de valeurs) et ce sont elles qui guident notre travail de compréhension du monde.”
    J’imagine dans ce contexte que les hypothèses se doivent d’être rationnelles, “raisonnables”, pour être crédibles pour les autorités bureaucratiques.
    Et pourtant :
    . Virtual reality companies look to science fiction
    https://www.nytimes.com/2016/02/17/technology/virtual-reality-companies-look-to-science-fiction-for-their-next-play.html
    .  10 auteurs de science fiction prédisent les changements des 10 prochaines années
    http://www.huffingtonpost.fr/2015/12/31/auteurs-sf-preidctions-10-prochaines-annees_n_7525768.html

    Cordialement
    Gilles TIXIER

    1. Vous avez entièrement raison: je consacre plusieurs page de mon livre à souligner l’intérêt qu’il y a à lire de la SF plutôt qu’à lire des rapports de futurologues. Si nos hypothèses sont “raisonnables” nous sommes encore dans l’ancien monde.

  5. C’est exactement le même problème que pour le big-data. Des tonnes de tonnes de données et le plus important ce sont les hypothèses, les critères de sélection, d’agrégation, etc.. Sans compter les “méthodes” de calcul.
    Bref beaucoup d’illusions, de délires, de croyances et de faux positifs.

  6. L’exemple de la surveillance de l’achat (ou le vol !) d’engrais est pas mal, mais j’aime bien aussi celui, datant des années 60, où les RG surveillaient comme le lait sur le feu … le cours du caleçon militaire d’occasion dans les ventes des Domaines : toute hausse sans explication précise était l’indice certain d’un coup d’état ou d’une guerre civile en Afrique…

Les commentaires sont fermés.