Résoudre l’incertitude grâce à l’IA, ou l’illusion scientiste du management

« Avec l’IA, il est désormais plus facile de résoudre l’incertitude » me déclarait récemment avec assurance un dirigeant d’entreprise, arguant qu’avec la masse de données désormais disponible et la capacité presque infinie de l’analyser, le sujet était plus ou moins clos. C’est une croyance très répandue, très ancienne… et très fausse, une illusion scientiste du management qui refuse de mourir. Le lien entre les données et l’incertitude est beaucoup plus complexe. Sans une fine compréhension de ce lien, la prise de décision en incertitude repose sur des modèles erronés, avec des conséquences catastrophiques.

« Les Israéliens ont l’habitude de savoir exactement ce que font les Palestiniens, dans les moindres détails, grâce à leurs moyens d’espionnage sophistiqués. » Ainsi écrivait le diplomate américain Martin Indyk, dans son analyse de l’attaque du 7 octobre 2023 qui venait de prendre les services israéliens totalement par surprise. Ce n’était pas la première fois, et certainement pas la dernière, que l’accumulation de données tactiques au moyen de technologies sophistiquées n’avait pas empêché un aveuglement stratégique catastrophique, quand elle ne l’avait pas causé en premier lieu.

Oui, l’IA peut aider à mieux gérer l’incertitude, mais elle ne la supprime pas ; elle modifie surtout la manière dont on la perçoit et dont on agit face à elle. Voici quelques idées de base sur ce sujet complexe. Première idée: l’IA permet de remplacer des prédictions uniques par des estimations probabilistes et des ensembles de scénarios. Elle n’annonce pas ce qui va se produire; elle indique ce qui est plus ou moins probable, ce qui aide à préparer plusieurs réponses possibles plutôt qu’un seul plan rigide. Cela rend l’incertitude plus explicite et plus « gérable », sans pour autant la faire disparaître.

Deuxième idée : l’IA est capable de repérer des régularités et des signaux faibles dans de très grands volumes de données, ce qui permet parfois de détecter des changements de tendance, des anomalies ou des risques émergents. En ce sens, elle peut réduire l’incertitude à court terme, sur des questions opérationnelles, par exemple en anticipant une rupture de stock, une fraude, ou une dégradation de performance, là où l’humain serait submergé par la quantité d’informations. La clé ici est la continuité: elle permet de définir des modèles stables qui reflètent les causes intrinsèques du phénomène à partir desquels on peut identifier des variations suspectes. Sans continuité, cela ne fonctionne pas.

Troisième idée : l’IA peut soutenir la prise de décision en incertitude en simulant des futurs possibles et en testant virtuellement des choix alternatifs. On ne cherche plus la décision optimale dans un monde prévisible, mais la décision la plus robuste dans plusieurs scénarios plausibles. Cela déplace la rationalité vers la gestion de la variabilité plutôt que vers la recherche d’une certitude illusoire.

Quatrième idée, souvent oubliée : l’IA ne travaille que sur des données formalisées sous forme digitale, alors qu’une grande partie de l’information pertinente, celle qui compte vraiment, n’existe pas sous cette forme. Les intentions, les motivations, les conflits latents, les sentiments, la confiance, la peur, la culture locale, les rapports de pouvoir informels ou les signaux politiques faibles sont rarement bien captés par des données quantitatives. Dans une entreprise, par exemple, les tensions entre équipes, la perte de motivation ou la créativité naissante ne sont que très imparfaitement visibles dans des indicateurs chiffrés. En géopolitique, les décisions peuvent dépendre d’éléments psychologiques, symboliques ou idéologiques qui échappent largement aux modèles. En médecine, le vécu subjectif du patient, sa manière de décrire sa douleur ou ses contraintes sociales ne se réduit pas à des constantes biologiques. Cela signifie que l’IA peut donner une impression de maîtrise alors qu’elle ignore des facteurs décisifs, non digitalisés, pour comprendre ce qui va réellement se passer.

Cinquième idée : même lorsque l’information est digitale, les données sont souvent ambiguës, incomplètes, biaisées, voire fausses. Elles reflètent des instruments de mesure imparfaits, des choix de catégorisation subjectifs, des comportements stratégiques ou des erreurs humaines. Sur les réseaux sociaux, par exemple, une partie du contenu est performatif, exagéré ou manipulé, ce qui peut fausser l’analyse des opinions. En économie, certains indicateurs masquent des réalités très hétérogènes derrière des moyennes trompeuses. En santé, les bases de données peuvent sous-représenter certains groupes de population. En outre, les données peuvent être délibérément faussées, et ce de façon massive (fake news). Si l’IA peut apprendre très efficacement à partir des données, elle apprend aussi leurs distorsions, ce qui peut produire des prédictions précises mathématiquement mais fragiles, voire erronées, sur le plan du sens. Comme disent les informaticiens, « Garbage in, garbage out ».

Sixième idée : l’IA est fondamentalement tournée vers le passé, puisqu’elle infère le futur à partir de régularités observées. C’est la limite de l’induction. Lorsque le contexte change brutalement — crises, ruptures technologiques, changements politiques, pandémies, attaques surprise — les modèles peuvent être pris en défaut. Dans ces situations, l’incertitude n’est pas seulement statistique, elle est structurelle : les règles du jeu elles-mêmes changent. L’IA gère mal ce type d’inconnu radical, car il ne ressemble à rien de déjà observé. Ces changements brutaux sont sans doute rares, mais leur impact est très important, ce qui rend l’échec de leur anticipation catastrophique. Ce sont les fameux cygnes noirs identifiés par Nicholas Taleb.

Par ailleurs, le traitement sophistiqué d’une grande masse de données ne sert à rien si les hypothèses de base, et les modèles mentaux plus généralement, sont erronés. En octobre 1962, les services américains étaient alertés par une activité très importante des Russes à Cuba. Ces derniers étaient en train de construire des bases de missiles balistiques, mais presque jusqu’à la dernière minute, malgré de très nombreuses données d’observation, les services américains se sont refusés à envisager cette possibilité, persuadés qu’ils étaient que jamais les Russes ne feraient une chose pareille. Dans la décision, les croyances du décideur (ou de l’analyste) comptent plus que les données, et l’IA n’est d’aucun secours ici. C’est une question que j’ai longuement analysée dans mon ouvrage Constructing Cassandra consacré aux surprises stratégiques.

Dernière idée : l’IA peut déplacer la manière dont on assume la responsabilité face à l’incertitude. Lorsqu’une décision est appuyée par un modèle, il devient tentant de s’en remettre à la recommandation algorithmique, même lorsque le contexte réel ne correspond plus exactement aux hypothèses implicites des données. On peut alors réduire l’angoisse liée à l’incertitude, mais au prix d’un affaiblissement du jugement critique et de la délibération humaine. Le danger ici est de croire que l’outil est magique et qu’il nous affranchit de l’effort et du jugement.

En somme, l’IA aide à transformer une partie de l’incertitude en risque quantifiable, à élaborer des scénarios et à explorer des options plus systématiquement qu’un humain ne pourrait le faire seul. En ce sens, elle est un outil utile d’aide à la prise de décision. Mais elle reste limitée par la nature digitale et imparfaite des données, par l’ambiguïté du réel et par l’émergence de discontinuités.

Un problème de posture

Plus généralement se pose une question de posture. Souvent, par « résoudre l’incertitude », on entend être capable de mieux prédire. C’est ce qui explique l’espoir fou mis dans l’IA qui, à partir de sa montagne de données, nous fait croire cela possible. Or plus de données ne nous permet en rien de mieux prédire, et encore moins de mieux comprendre. C’est la posture de base qui est faussée. L’incertitude ne se « résout » pas par la prédiction car elle ne résulte pas de la difficulté à trouver des données, ou à les analyser, mais de l’absence de celles-ci due au caractère inédit de la situation considérée.

Il faut développer une autre posture qui est double. Premièrement, il faut un engagement avec la réalité: au lieu de voir le monde comme une abstraction du haut de sa montagne de données, il faut être sur le terrain et accepter ses ambiguïtés. Il faut mettre les mains dans le cambouis. Deuxièmement, il faut préférer la création à la prédiction. Il ne s’agit pas de prédire, ou d’essayer de prédire mieux, mais d’inventer une réponse nouvelle face à une situation nouvelle.

Culture de l’incertitude

L’IA est un outil formidable qui améliore considérablement la prise de décision. Mais comme pour tous les outils, il est important d’en comprendre le fonctionnement pour en connaître les limites. Aucun outil n’est jamais une solution ultime et unique. Croire que le monde se réduit à une équation mathématique et un paquet de données calculable est une illusion scientiste profondément néfaste pour la prise de décision. L’abandonner participerait au développement d’une culture de l’incertitude qui est indispensable dans le monde actuel.

✚ Sur le même sujet, lire mes articles précédents: 📄Comment nous sommes surpris: une analyse de l’attaque terroriste du 7 octobre 2023 en Israël; 📄Kim ou les leçons de management d’un roman pour des temps incertains; 📄Comment s’expliquent les surprises stratégiques ? Leçons des attentats du 11 septembre 2001.

📬 Abonnez-vous pour être averti des prochains articles par mail (cliquez sur “Abonnez-vous” plus bas).

▶️ Retrouvez-moi sur LinkedIn pour échanger sur cet article.

🎧 Vous pouvez également vous abonner au format podcast des articles via votre plateforme favorite: Apple Podcast – YouTube Music – Spotify – Amazon Music/Audible – Deezer


En savoir plus sur Philippe Silberzahn

Subscribe to get the latest posts sent to your email.

Laisser un commentaire