Le développement fulgurant de l’IA continue de susciter de nombreuses craintes qui sont autant d’appels à sa réglementation. Comme le montre celle de l’Union Européenne, cette réglementation se fait le plus souvent sur la base d’une crainte exagérée des risques. Ce faisant, elle met en danger l’innovation, entravant gravement le développement économique et social du continent. Si la nécessité de réglementer ne fait pas débat, cela doit néanmoins se faire de façon intelligente. On peut pour cela s’appuyer sur cinq principes simples.

Premier principe, l’arbitrage. Il faut peser les avantages et les inconvénients de la nouvelle technologie. Cela peut sembler évident, mais les adeptes de la réglementation ignorent souvent les avantages de la technologie par excès de prudence ou biais idéologique et préconisent plutôt de retarder une technologie jusqu’à ce qu’il soit prouvé qu’elle est absolument sûre (ce qui est évidemment impossible). L’arbitrage exige au contraire des régulateurs qu’ils réfléchissent non seulement aux risques d’utiliser l’IA (risque positif), mais aussi aux risques de ne pas l’utiliser ou de la ralentir (risque négatif). Par exemple, freiner l’IA en limitant le partage de données personnelles entraîne l’augmentation du nombre de décès dus à certaines maladies en raison du retard dans la mise au point de médicaments.
Cet arbitrage est difficile pour trois raisons. Premièrement, le risque positif est visible (une voiture autonome a un accident), tandis que le risque négatif est invisible, ou difficilement attribuable. Il est difficile de ‘prouver’ qu’une personne est morte parce que la mise au point d’un médicament qui aurait pu la sauver a été retardée par manque d’IA, et ça ne se verra pas. Pourtant cet effet est réel, et massif. Deuxièmement, parce que les avantages d’une nouvelle technologie peuvent n’émerger qu’avec le temps tandis que les risques, parce qu’ils sont une spéculation, sont opposables immédiatement. L’instruction de la nouvelle technologie, en quelque sorte, est toujours à charge. En outre, ces risques tendent facilement à être exagérés. Le biais que nous avons pour la protection joue à plein ici. Le risque concerne tout le monde, les avantages seulement certains d’entre nous (par exemple les malades) n’ayant pas forcément voix au chapitre. Troisièmement, la technologie est extrêmement complexe, et les régulateurs ne sont généralement pas suffisamment compétents pour l’évaluer de façon experte. Ceci est d’autant plus difficile que la technologie évolue au cours du temps, souvent très rapidement. Elle est un objet en devenir: ce qu’elle est aujourd’hui va changer profondément, et ce qu’on en fait, les usages, va également profondément évoluer. La réglementation se fait donc sur une matière changeante, et nul ne peut vraiment en être expert sauf ceux qui la pratiquent au quotidien, mais ils n’en ont souvent qu’une vue très partielle. Le manque de connaissance rend la réglementation très hasardeuse, et ses effets pervers très probables.
Deuxième principe: le pragmatisme. Il faut comparer l’IA à l’être humain, et non au Tout-Puissant ou à une situation idéale jamais rencontrée en pratique. Oui, les voitures autonomes ont des accidents, mais comment se comparent-elles aux conducteurs humains ? L’IA peut faire preuve de préjugés, mais qu’en est-il des préjugés humains ? Dans l’idée de ne pas comparer la technologie à un idéal, deux effets jouent en particulier: d’une part, la technologie peut être moins performante qu’un humain et pour autant avoir un impact général plus important: c’est le cas si, par exemple, on remplace mille médecins experts par trois millions de téléphones ayant accès à une intelligence artificielle à 90% aussi experte. La technologie gagne par la masse. Il faut raisonner en bénéfice agrégé, et non comparer une IA au meilleur expert qui ne sera jamais accessible à 99% de la population. D’autre part, comme évoqué plus haut, la technologie a un potentiel d’amélioration plus important au fil du temps qu’une alternative humaine. L’IA apprend beaucoup plus vite que l’homme et les gains futurs que cet apprentissage générera sont à mettre au compte des avantages. Retarder la mise en œuvre retarde cet apprentissage et retarde donc les effets bénéfiques possibles.
Troisième principe: la subsidiarité. Lorsqu’une nouvelle réglementation est justifiée, elle devrait être l’œuvre d’acteurs les plus spécifiques possibles et non celle d’un super-régulateur. Ce sont les acteurs spécialisés dans les domaines tels que l’automobile ou les appareils médicaux qui doivent réguler leur usage de l’IA. C’est l’aval qui doit primer sur l’amont et non l’inverse. Plus on réglemente en aval, plus les avantages de la technologie seront pris en compte. La réalité du terrain imposera un pragmatisme auquel ne sera pas nécessairement sensible un sociologue ou un bureaucrate éloigné de cette réalité.
Quatrième principe: l’ouverture. La réglementation doit veiller à ne pas protéger les acteurs en place, pour lesquels l’innovation représente un danger. L’histoire montre que c’est rarement le cas. Dans le domaine de l’IA, nous risquons de répéter ce schéma. Un organisme de réglementation centralisé est plus facilement contrôlable par quelques gros acteurs, et il peut plus facilement édicter des règles dont les coûts élevés ne peuvent être absorbés que par eux, ce qui asphyxie les petits et donc qui bloque l’innovation. À l’extrême, la réglementation est une arme offensive des gros acteurs pour protéger leurs rentes. Il faut être très méfiant lorsque la demande de réglementation provient de gros acteurs, tous pionniers qu’ils soient.
Cinquième principe: approche holistique. Tous les problèmes causés par l’IA ne seront pas nécessairement résolus par sa réglementation. Il faut avoir une vue plus large de l’impact d’une technologie. Par exemple, si l’obsolescence de certains métiers est inévitable avec l’IA, elle doit susciter le développement de programmes de formation et d’aides à la reconversion plutôt que des réactions d’arrière-garde consistant à freiner cette obsolescence. Toute nouvelle technologie a nécessairement des conséquences politiques et sociales et c’est la réponse collective qui fait que ces conséquences sont, au final, plus positives que négatives et qu’on peut en tirer le meilleur parti.
Faire le pari du progrès
La réglementation doit naviguer entre les deux extrêmes du contrôle politique étouffant l’innovation et de l’approche scientiste où tout est permis. Pour cela, elle doit se concevoir comme un exercice pragmatique, c’est-à-dire progressif et itératif, favorisant l’action a posteriori, sur la base de l’expérience, et non a priori, sur la base de spéculations. Elle doit pour cela adopter une posture optimiste quant au développement technologique, car son objet ne doit pas être d’empêcher le progrès au nom d’une crainte du futur et d’un idéalisme du passé, mais de le favoriser. La seule façon d’y arriver est de toujours préférer courir le risque positif d’une technologie, celui de commettre des erreurs, au risque négatif, celui de s’empêcher d’en tirer parti. C’est aujourd’hui l’enjeu de l’Union Européenne.
🔎 Source pour cet article: How to Regulate AI Without Stifling Innovation par Jason Furman.
✚ Sur le même sujet, on pourra lire mes articles précédents: Réglementation de l’IA: La logique de mort industrielle de la Commission Européenne et La grande pétoche: comment la France va rater la révolution de l’IA.
📬 Si vous avez aimé cet article, n’hésitez pas à vous abonner pour être averti des prochains par mail (“Abonnez-vous” plus bas dans cette page). Vous pouvez également me suivre sur LinkedIn et sur Twitter/X. Vous pouvez également vous abonner au format 🎧 podcast 🎧 des articles via votre plateforme favorite. Voir la liste ici.
En savoir plus sur Philippe Silberzahn
Subscribe to get the latest posts sent to your email.
3 réflexions au sujet de « Cinq principes pour réglementer (intelligemment) l’IA »
« La réglementation doit naviguer entre les deux extrêmes du contrôle politique étouffant l’innovation et de l’approche scientiste où tout est permis. » » toujours préférer courir le risque positif d’une technologie, celui de commettre des erreurs, au risque négatif, celui de s’empêcher d’en tirer parti » Complètement ok ! Sinon on en serait encore à la pierre de Rosette …
Tout cela est bien joli, mais on a déjà vu et l’on voit tous les jours encore les abus commis grâce à l’IA par des petits malins incontrôlés qui ne cherchent qu’à tricher, frauder, détourner… tout en tirant un avantage financier ou autre de leur activité coupable.
Je ne nie pas les avantages que l’IA peut apporter p. ex. à l’exercice de la médecine ou au développement de certains produits, mais il est indispensable d’établir des règles et des contrôles stricts si l’on veut que le public, auquel on impose déjà trop de digitalisation inutilement compliquée (à ses frais de surcroît), adhère en confiance à l’usage élargi de l’IA.
Personnellement, je ne lui fait pas confiance, d’une part parce qu’on me l’impose sans même m’en prévenir mais à mes risques et périls, d’autre part parce que les buts poursuivis sont loin d’être transparents.
Le risque est grand que beaucoup de personnes se replient sur elles-mêmes, renoncent à voyager ou à recourir aux rares véritables services qui continuent à exister… Trop d’incertitudes génèrent une méfiance légitime, et ce n’est pas avec de la méfiance que l’on fera avancer la société, au contraire : on risque juste de la fractionner encore davantage.
Car quel est donc l’avantage d’une voiture autonome pour le commun des mortels, automobilistes, cyclistes ou piétons? Quel est l’avantage de permettre à des cancres d’obtenir des certifications ou diplômes après avoir remis des devoirs et autres travaux plutôt médiocres produits par l’IA?
Quelle société décérébrée nous préparons-nous? L’intelligence naturelle devrait être encouragée, et l’IA strictement encadrée et cantonnée à des domaines bien précis (industrie, médecine, défense, recherche…).
Edison « vision without execution is hallucination » .
small is beautiful est une chimère , qui a les trilliards de data ?