IA et éthique: le contresens navrant de Cédric Villani

Ainsi donc avec le rapport Villani sur l’intelligence artificielle, la France a renoué avec une vieille tradition: demander à quelqu’un d’intelligent d’écrire un rapport idiot. Enfin idiot, on se comprendra: le rapport que notre Médaille Fields vient de rédiger n’est pas tant idiot que convenu. Nous sommes en retard sur l’IA, vite un plan national. Des subventions, des initiatives, une agence, tout plein de petits fours et de pique-assiettes, la routine française quoi. La montagne a accouché d’une souris, les chinois se marrent bien. Mais les faiblesses de ce rapport ont été soulignées avec talent par d’autres, inutile d’y revenir. Ce qui me semble important cependant, c’est le lien que le rapport fait avec l’éthique.

Le titre-même du rapport « Donner un sens à l’IA » est problématique. Quand on regarde l’histoire de l’innovation, le sens a toujours été donné a posteriori. Et ce pour une raison très simple: les ruptures technologiques présentent toujours des situations inédites sur le plan légal, social et éthique. Il est très difficile, voire impossible, de penser ces ruptures avant qu’elles ne se produisent, et avant que les effets ne soient visibles. On risque de penser dans le vide. Lorsque McKinsey conduit une étude de marché pour AT&T en 1989 pour évaluer le potentiel de la téléphonie mobile, les résultats sont désastreux: personne ne voit l’intérêt d’avoir un téléphone mobile. Personne ne peut simplement imaginer ce qu’on ferait avec. Seule l’utilisation effective a révélé les possibilités de la technologie, de même qu’aujourd’hui seule l’utilisation de Facebook en révèle les dangers pour la vie privée.

et hop, une souris!

Plus généralement, les applications d’une nouvelle technologie sont impossibles à anticiper. Lorsque les ingénieurs français et autrichien découvrent les ultra-sons en 1911, ils s’en servent pour détecter les sous-marins. Quarante ans après, cette technologie est utilisée en médecine, c’est l’échographie. Cette utilisation est totalement imprévue et d’ailleurs, il était initialement question que ce soit pour la détection des cancers. Aujourd’hui, l’échographie est devenue banale et peu chère, à tel point qu’elle est utilisée dans les pays pauvres, en particulier en Chine et en Inde. Utilisée pour l’avortement sélectif, elle est directement responsable du fait notamment qu’environ 25 millions de femmes ne sont pas nées en Chine, causant un déséquilibre des sexes qui entraîne de lourds problèmes sociaux et donc politiques. Qui aurait pu penser qu’une technologie mise au point en Europe pour la lutte anti sous-marine soit la cause, un siècle plus tard, d’un bouleversement social en Asie? Penser les conséquences de l’échographie a priori aurait été totalement vain.

Mais il y a pire. Toute technologie est duale, au sens où elle peut servir à faire le bien comme le mal. Imaginez que vous soyez ministre de l’environnement dans un pays éthique qui a mis le principe de précaution dans sa constitution (exemple fictif bien-sûr). Un groupe d’industriels vient vous voir pour obtenir l’autorisation préalable nécessaire à la commercialisation de leur nouvelle technologie. Elle apportera de toute évidence des bienfaits immenses, facilitant la vie de nombreux habitants. Son seul défaut: elle tuera environ un million de personnes par an dans le monde. Que faites-vous? Vous l’interdirez probablement et mettrez un comité d’éthique sur le dossier. Cette technologie? C’est l’automobile.

En plaçant l’IA au service de l’éthique, le rapport commet donc deux erreurs: d’une part il ne se donne aucune chance de penser l’éthique de l’IA correctement, car nous penserons dans le vide – nous ne pourrons penser qu’en faisant, et d’autre part il condamne la France à regarder les autres danser depuis le balcon. Antoine Petit, le patron du CNRS lors de la conférence AI For Humanity où était présenté le rapport Villani, nous invitait ainsi à éviter un écueil: « Ne pas devenir les spécialistes de l’éthique tandis que les Chinois et les Américains deviennent des spécialistes du business. » C’est tout l’enjeu et à vouloir mettre l’IA d’entrée de jeu au service de la diversité, de l’égalité homme-femme, du bien commun et des services publics, c’est sacrifier aux modes du moment en se trompant de combat. On demandait à Cédric Villani de nous dire comment la France pouvait rattraper son retard en IA, c’est à dire de poser un raisonnement industriel, pas de signaler sa vertu à l’intelligentsia post-moderniste qui gouverne la pensée de ce pays.

Sans compter que comme souvent dans ces cas-là, le sens que l’on donne à éthique est bien restreint. Il peut être éthique de ne pas vouloir développer une IA aux conséquences négatives, mais il peut être également éthique d’essayer pour voir, car ce n’est qu’en agissant que nous saurons. Les entrepreneurs savent cela depuis longtemps, nos savants intelligents et ceux qui nous gouvernement l’ignorent, et se condamnent peu à peu à la paralysie par excès de prudence et, au fond, par peur du futur. Nous devenons un vieux pays, et laissons progressivement les autres développer l’avenir. Au fond, le rapport Villani est un rapport de vieux, la hype de notre ami Cédric en plus.

Pour une bonne analyse critique du rapport Villani, voir l’article d’Olivier Ezratty ici: Ce que révèle le Rapport Villani.

17 réflexions au sujet de « IA et éthique: le contresens navrant de Cédric Villani »

  1. L’exemple des ultrasons ne me paraît pas très pertinent. Quand les échographies n’existaient pas (ou là où elle ne sont pas disponibles) l’avortement est remplacé par l’infanticide à la naissance. Toutes pratiques égales, le déficit relatif des filles était peut être moins important dans le passé eu égard à l’importante mortalité infantile (moins de garçons survivaient). C’est un problème sociétal, politique pas technologique.

    Sinon vous relayez une vieille revendication libérale qu’on retrouve aussi en médecine avec les pressions pour accorder des AMM (autorisation de mises sur le marché) prématurées à des médicaments insuffisamment évalués et à l’utilité incertaine. Tant que ce sont d’autres que vous qui servent de cobayes. Et lorsqu’ après quelques années de bon business appuyé par un marketing agressif le médicament est retiré du marché pour SMR défavorable (souvent prévisible avant la mise sur le marché d’ailleurs) c’est la collectivité qui indemnise les effets secondaires voire les morts.

    Passé 3 ans où l’on « essaie pour voir » ce que ça donne de craquer des allumettes, il n’est pas interdit de réfléchir un minimum.
    Les aspects éthiques sont à examiner en amont ET tout au long du processus de mise sur le marché surtout quand on ne sait pas où l’on va. Et sous contrôle d’une société démocratique. Pas de comités d’ « experts » cooptés aux multiples conflits d’intérêt. Assez étonnant aussi que vous ne conceviez l’éthique que comme un frein au progrès, sans envisager qu’elle puisse en être un moteur.

    Pas sûr non plus que la passivité collective vis à vis de la collecte massive de données dure encore longtemps. Même en Chine. Et que des modalités de contournement d’IA totalitaires n’apparaissent. S’il y a reconnaissance faciale à tous les coins de rue, les gens se promèneront avec des masques et il existe déjà des tutoriels de maquillage pour y échapper. On verra réapparaître les supports papiers pour les informations sensibles, ou l’organisation de contre-sociétés. Il est aussi possible de saboter le système en alimentant les IA en fausses informations. Sans parler des failles de sécurité et autres piratages.

    Votre monde où l’on considère la diversité, l’égalité homme-femme, le bien commun et les services publics comme des « modes du moment » est vraiment très très vieux et très convenu. On vous y laisse.

    1. Assez d’accord avec vous sur le manque de pertinence de l’exemple des ultrasons et votre justification.
      J’ajouterais que les ultrasons constituent une technologie relativement figée dont on a découvert différents usages au cours du temps. Il me semble que c’est l’inverse pour l’IA : c’est une technologie qui est amenée à connaître de multiples stades de développement et dont les usages envisagés aujourd’hui vont bien au-delà des capacités de la technologie dans son état actuel.

      Il me semble que concevoir l’IA comme une technologie avec différents stades d’avancement pourrait être une clé de réconciliation entre l’approche précautionneuse du rapport qui insiste sur le cadre éthique et l’approche beaucoup plus pragmatique défendue dans ce billet. Nous arrivons aujourd’hui à la fin d’un premier cycle de développement très pragmatique de l’IA (scandales des données personnelles, premières limites du deep learning, etc.) et le moment est venu pour une prise de recul s’interrogeant sur l’éthique afin d’orienter un prochain cycle de développement qui pourra être pragmatique, mais en respectant un cadre fondé sur les retours d’expérience du précédent cycle.

      Ce mouvement de va-et-vient entre éthique et pragmatisme, comparable aux cycles de développement informatique agiles (« sprint ») qui mêlent planification, action sur des courtes périodes de temps, constitue l’esprit dans lequel le développement de l’IA devrait à mon sens être mené, en s’affranchissant des scénarios trop prospectifs qui ne servent que ceux qui les défendent (e.g. la singularité) et nous sclérosent complètement par les craintes qu’ils nourrissent.

      Quant aux chinois, ils avancent certes vite mais tête baissée vers une technologie qui ne devient progressivement acceptable et applicable que dans leur seul (grand) marché. J’ose espérer qu’on pourra compter sur une prise de conscience collective et un sursaut de valeurs dans les pays occidentaux, si tant est qu’on ait pris la peine de les défendre, ces valeurs. Ce n’est pas après des décennies de pragmatisme libéral dénué de considérations éthiques qu’on pourra compter sur nos valeurs disparues pour sauver la place de l’Europe dans la course à l’IA, mais bien maintenant, tant qu’elles vivent.

  2. Bon ce billet libéral est un peu sans surprise cher Philippe ;). Oui, nous ne savons pas penser les conséquences des innovations technologiques à long terme : est-ce une raison pour tout autoriser ou laisser faire ? L’une des confusion que je vois dans votre article consiste à ne pas distinguer la recherche de l’application. Dans le champ des applications, il semble assez logique de vouloir pousser les questions éthiques et de régulation, notamment quand les applications ont des conséquences directes sur la société et sur l’existence des gens (c’est ainsi que pour l’automobile, on a développé le code de la route, réponse bien imparfaite aux nombreux problèmes qu’à engendré le développement automobile). Quant au champ de la recherche lui-même, il n’a jamais été vierge de questions éthiques, même à un stade théorique. Alors, certes, il y a les chinois : mais voulons-nous d’une société à la chinoise 😉

    1. Nous ne voulons peut-être pas d’une société chinoise, mais si nous laissons le business aux chinois, alors notre société sera de facto chinoise. L’enjeu est là.

  3. Pour ma part, je privilégie une réflexion sur l’IA qui s’appuie sur des éléments d’IA déjà en place, qui ont déjà produit ou sont en train de produire leurs effets et contre-effets. Elle peut être parfaitement éclairante sur de nombreux effets de l’IA en gestation.

    Pêle-mêle, me viennent à l’esprit : les systèmes experts de toutes sortes, Facebook et ses algorithmes, l’intelligence embarquée dans les avions voire dans les voitures (du freinage automatique à la conduite automatisée), etcc, etc. Et bien sur l’inoubliable et visionnaire ordinateur HAL de Kubrick et les nombreuses science-fiction qui mettent en scène des hommes confrontés à des machines intelligentes : Asimov, Clarke, Lovecraft, pour ne citer qu’eux (à noter l’hyper excellent « la ménagerie de papier » Aline de Ken Liu, à lire absolument, en particulier celle où les citoyens d’un futur proche sont chacun doté d’un iPhone intelligent, tous ces iPhones étant connectés entre eux, et à un système central qui fait à chacun, en temps réel, des propositions d’agir. La particularité supplémentaire éteant que plus personne ne s’en sépare une seconde, tellement c’est « pratique » (pub à l’appui bien sûr). Le système central a donc accès à des paramètres importants de chaque moment de la vie de chacun et est en mesure de donenr des conseils « personallisés, eux aussi en temps réel (oreillette portée en permanance).

    Sur cette base (la IA existante, la science fiction disponible), ma réflexion peut démarrer.

    D’abord pour constater qu’effectivement ( c’est la critique initiale transmise par Philippe), il est impossible de prévoir a priori les applications d’un développement en intelligence artificielle, quel que soit son niveau de complexité, a fortiori si ce niveau est élevé.

    L’exemple de Facebook évoqué (dans l’article) est parfait : (1) Il aurait été pratiquement impossible d’anticiper (au moment même de sa conception ou avant ) le développement planétaire de Facebook, (2) difficile d’anticiper (au moment même de sa conception ou avant) son utilisation bien au-delà du loisir, (3) difficile d’anticiper (au moment même de sa conception ou avant ) l’effet pervers de ses algorithmes, etc ;

    Il en découle, et c’est la seconde idée qui me vient à l’esprit, qu’il faut bien constater que toutes la machinerie informatique qui aide l’homme à communiquer, à prendre des décisions, à réfléchir, voire agir dans le champ politique ou dans le champ de la consommation, modifient considérablement ces processus mêmes. Or ces processus innervent l’ensemble du champ social.

    C’est pourquoi il me paraît clair que leur maîtrise, l’essentiel de leur contrôle ne peut venir que du champ social et de ses rapports de force et structures génériques. de nombreuses recettes ont été expérimentées : pouvoir central éclairé, totalitarisme, éducation, démocratie, contre-pouvoirs, syndicats, participation citoyenne, ONG, associatif, … pour moi rien de nouveau donc: je souhaite une démocratie forte et éclairée, nourrie d’un système éducatif efficace, adossée à une séparation claire de 3 pouvoirs ( sans parler du 4e) eux aussi efficaces ( judiciaire, législatif, exécutif). Voilà pour moi le garde-fou primordial contre les effets pervers de l’IA.

    Je veux dire par là qu’évoquer les liens entre éthique et IA – et en particulier l’IA qui n’est pas encore vraiment là mais dont on parle – ne nécessite pas, a priori et avant tout, de recettes de novo, de réflexions technocratiques ésotériques, formulées a priori. par ailleurs, attaquons nous, continuons à nous attaquer aux réponses à apporter aux questions que l’IA pose déjà, maintenant, dans ses applications existantes.

    Et si je devais privilégier une piste, ce serait celle de l’éducation. Consacrer temps, argent et expertise à promouvoir l’analyse critique, via le système éducatif, des aspects éthiques de l’IA actuelle, et telle que développée dans la (bonne) fiction. A ce propos j’ai assisté récemment à une conférence sur le « design fiction » qui précisément utilise la fiction pour faire réfléchir au monde futur https://www.futuribles.com/fr/auteur/wathelet/.

  4. le rapport Villani est un plan calcul pour le deep learning, il regarde le problème par le seul prisme de la recherche et d’une seule facette de l’IA.
    Les réalités économiques sont ignorées.
    Ses conseillers ont tous été intégrés par les géants du Web américains et bientôt chinois dans leurs équipes de recherche.
    Voir le cas de Francis Bach, super star du deep learning français et de Cordelia Schmid , directrice de recherche, les porte parole de l’IA française pour les 50 ans de l’INRIA .
    Tous deux travaillent maintenant pour Google , voir https://research.googleblog.com/2018/03/investing-in-frances-ai-ecosystem.html .

    Cela s’appelle une colonie numérique, une économie du tiers monde de la connaissance.

  5. Décidément il va falloir que je lise vraiment ce rapport 🙂 Je partage une partie de tes arguments Philippe mais il ne me semble pas absurde de penser le développement de L’IA avec une démarche « éthique » ou du moins en gardant à l’esprit que cette technologie n’est pas neutre et va profondément bouleverser nos sociétés. Cela ne nous interdit pas de faire des expérimentations mais, comme pour les expériences sur les virus mortels, on peut parfois prendre certains précautions 🙂
    Et puis on peut aussi ce dire que ce n’est pas parce qu’une chose est possible qu’il faut absolument la faire. Depuis 20 ans une intelligence incroyable est utilisée pour nous vendre des paquets de lessive (ou des smartphones), ce qui aboutit aujourd’hui à la gueule de bois de Cambridge Analytica. Peut-être que nous pouvons penser au « pourquoi » en même temps que le « comment » désormais ?
    Je suis certainement naïf mais je prends ce rapport pour ce qu’il est, une impulsion. Maintenant, si les entreprises attendent que le gouvernement viennent les biberonner aux subventions, je crois qu’elles n’iront pas loin. Je n’ai rien contre les subventions, elles sont nécessaires en France pour palier la frilosité des banques et des investisseurs (c’est un autre sujet) mais si je n’en ai pas, j’avancerai quand même 🙂

Laisser un commentaire