Rapport de lecture : Faire la morale aux robots

Il y a un avant et un après dans le livre de Martin Gibert, Faire la morale au robots : Une introduction à l’éthique des algorithmes.

Le point tournant, c’est un chapitre intitulé « Isaac et Ursula ». Ce chapitre tranche avec le reste du livre — qui explique des principes de base en éthique et les appliques aux problèmes liés à l’intelligence artificielle — en faisant une analyse comparative de l’œuvre de deux écrivains américains de science-fiction, Isaac Asimov et Ursula K. Le Guin. Martin Gibert nous rappelle bien sûr les fameuses lois de la robotique d’Asimov :

  1. Un robot ne peut pas attaquer un être humain ou laisser, en restant passif, un être humain en danger
  2. Un robot doit obéir aux ordres donnés par un être humain (sauf si cela contredit la loi 1)
  3. Un robot doit protéger son existence (sauf si cela contredit l’une des lois 1 et 2)

… ainsi que la loi zéro, qui stipule qu’un robot ne peut pas mettre (ou laisser) l’humanité en danger. Ces quatre lois sont sans doute la première réponse jamais formulée aux problèmes éthiques posés par l’IA, mais elles sont en vérité trop floues pour être applicables, nous rappelle Martin Gibert. Elles ont surtout un intérêt historique.

De toute manière, là n’est pas le propos de son chapitre. Il s’agit plutôt d’un prétexte pour contraster la pensée d’Asimov — la science-fiction classique, pleine d’hommes blancs qui partent à la conquête de l’Univers — avec celle de Le Guin, qui a écrit une œuvre très différente, pleine de personnages féminins ou asexués, de pauvres, de dominés. Tout ceci emmène Gibert à nous parler d’un problème bien connu en IA : celui des préjugés implicites. L’IA est programmée par des gens; elle apprend à partir de données tirées du monde réel. Par défaut, elle va donc reproduire les tendances qui influencent ses programmeurs et qui colorent les données d’apprentissage.

Gibert nous illustre ceci d’une manière très particulière : à partir du chapitre suivant, intitulé « Métaéthique pour programmeuses », il fait fi de la règle du masculin par défaut en français, et met au féminin tous les mots qui désignent à la fois les hommes et les femmes. On comprendra que la métaéthique dont il parle concerne à la fois les programmeuses et les programmeurs.

Il m’a fallu quelques pages avant de m’habituer à cette nouvelle règle. C’était une distraction, au début, et ça a un peu nuit à ma lecture1Ça me donnait aussi un peu l’impression d’être une gimmick littéraire visant à convaincre Atelier 10 de publier l’essai. C’est claaaair que c’est le genre de chose qui tombe en plein dans leurs penchants idéologiques!. Mais après, force était d’admettre que cette règle n’est pas plus arbitraire que celle qui prescrit de mettre le masculin par défaut partout.

Et l’illustration du préjugé implicite est faite. Soit la phrase suivante : « D’après un sondage effectué auprès de profs de philo américaines, 26 % d’entres elles se déclarent déontologistes; 24 %, utilitaristes ou conséquentialistes; et 18 %, éthiciennes de la vertu.2page 70 » Il est clair que j’imagine ces profs de philo comme des femmes. Il me faut un effort conscient dévier de cette tendance naturelle et me rappeler que le genre utilisé dans la phrase ne reflète pas celui des personnes désignées. Mais qu’est-ce qui me dit que cette tendance naturelle n’est pas à l’œuvre chaque fois que je lis une phrase où le masculin l’emporte?

Il en va de même pour l’IA. Ce qu’elle comprend du monde dépend de ce qu’elle lit, voit et entend, et ce qu’elle voit, lit et entend dépend des choix que nous faisons.

*

Pour le reste, Faire la morale aux robots est un petit livre efficace, en bonne partie parce qu’il est, justement, petit. Avec 93 pages, Martin Gibert ne perd pas (trop) de temps pour résumer les principaux concepts d’éthique en lien avec la programmation de l’IA.

Tout y passe. Les théories éthiques (comment détermine-on ce qui est moralement bon?). La définition de l’intelligence. Les approches utilisées pour créer des IA. La métaéthique3Qu’est-ce que la métaéthique? vous demandez-vous peut-être. Il s’agit de l’étude de l’étude des questions morales! En gros, sans tenter de résoudre des questions morales, on s’intéresse ici à des questions comme « quelle est la meilleure façon de résoudre des questions morales? ». L’un des chapitres porte sur la superintelligence, et est essentiellement un résumé des travaux de Bostrom (dont j’ai déjà parlé ici).

J’ai trouvé spécialement intéressant le tableau de la page 82, qui associe les trois principales théories éthiques aux trois principales approches de programmation.

Le déontologisme est l’approche éthique qui consiste à définir ce qui est bon par des normes et des devoirs. On l’associe surtout au philosophe Immanuel Kant. Une IA programmée selon le déontologisme serait un système expert, c’est-à-dire un programme qui fonctionne selon un ensemble de règles prédéterminées. C’est la technique de base, et les premières tentatives de création d’IA, dans les années 70, étaient des systèmes experts. Les difficultés, on l’imagine facilement, sont multiples : comment choisir les règles? Que faire en cas de dilemme entre deux règles contradictoires? Comment prévoir des règles pour toutes les situations possibles?

La deuxième théorie éthique est l’utilitarisme (qui est plus ou moins la même chose que le conséquentialisme). Pour un utilitariste, la meilleure action est celle qui entraîne les meilleures conséquences. On mesure les conséquences selon leur capacité à maximiser le bien-être4qu’Atelier 10, avec son engagement en faveur des rectifications orthographiques, écrit bienêtre, chose avec laquelle je suis en désaccord complet. C’est franchement laid.. La technique algorithmique associée à l’utilitarisme est celle de l’apprentissage par renforcement. Cette branche de l’apprentissage automatique (machine learning) consiste à donner un objectif à l’IA et à la récompenser lorsqu’elle s’en approche, et la punir lorsqu’elle s’en éloigne. Avec le temps, l’IA apprend les bons comportements, c’est-à-dire ceux qui donnent les meilleures conséquences. Les complications se trouvent du côté de la manière de calculer le bien-être, et les dilemmes qui surviennent inévitablement, comme dans le cas du célèbre problème du tramway5je suppose que la plupart des gens en ont déjà entendu parler, mais en gros, imaginons un tramway qui s’en va tuer cinq personnes sur la voie; on peut activer un aiguillage pour qu’il tue une seule autre personne à la place; faut-il activer l’aiguillage?.

La troisième théorie est l’éthique de la vertu. C’est un peu l’underdog des théories éthiques. Beaucoup de gens ont entendu parler du déontologisme et de l’utilitarisme dans leurs cours de philo du cégep, mais l’éthique de la vertu passe souvent sous silence. C’est peut-être parce qu’elle n’offre pas de réponses toutes faites : elle propose de regarder autour de soi, de déterminer les gens les plus vertueux, et de les prendre pour modèles. Une bonne action est celle que ferait une personne vertueuse6Qui prendre pour modèle? Martin Gibert offre comme exemples Jésus, Greta Thunberg, Confucius, Ada Lovelace, Angela Davis, Gandhi, ainsi qu’Isaac Asimov et Ursula K. Le Guin.. Le parallèle avec l’IA est assez évident. On se trouve sur l’autre branche du machine learning, à savoir l’apprentissage supervisé. C’est la technique généralement vue comme la plus prometteuse. Elle consiste à « nourrir » l’IA avec tout plein d’exemples de données — des milliers d’images de chats, si vous voulez un programme qui reconnaît ou crée des images de chats — et à lui laisser apprendre sa tâche à partir de ces exemples. On voit rapidement que la qualité et la moralité de l’IA va dépendre de ce qu’on lui donne comme modèles, tout comme le sera un adepte de l’éthique de la vertu. L’un des risques, naturellement, est celui des préjugés implicites expliqué précédemment.

Martin Gibert a un parti pris assumé pour l’éthique de la vertu. Son dernier chapitre (rédigé au féminin) propose de chercher dans la population les personnes les plus vertueuses7selon une approche collective, par exemple en demandant à tout le monde de voter pour les gens qu’elles considèrent les plus vertueux, et des se servir d’elles comme exemples pour programmer les robots. L’approche est fort intéressante; je ne l’avais pas rencontrée avant. Je me demande si elle fonctionnerait vraiment bien en pratique. Gibert ne mentionne pas vraiment d’inconvénients, sinon que les robots vertueux ne seraient pas parfaits; ils s’amélioreraient plutôt avec le temps.

Je ne sais pas à quel point cette réponse est la bonne, par rapport aux inquiétudes liées à la superintelligence et au problème de l’alignement, notamment. Et la question est peut-être en train de devenir pressante. Le modèle GPT-3, une IA génératrice de texte très puissante qui est disponible en version beta depuis quelque semaines, nous montre à quel point les choses vont vite. C’est sans doute une raison pour s’intéresser plus que jamais à l’éthique des algorithmes.

Martin Gibert, Faire la morale au robots : Une introduction à l’éthique des algorithmes, Montréal, Atelier 10, « Documents », 16, 2020, 95 p. 

Un commentaire


  1. Voici la table des matières du livre. Les résumés sont de moi.

    – Introduction : le bus des jours fériés.
    Définition de l’éthique des algorithmes. Différents types de normes.

    – Le vieillard ou l’enfant
    Dilemme du tramway. Utilitarisme et déontologisme. Distinction entre psychologie morale et éthique normative. Différences culturelles quant aux normes éthiques.

    – Aristotle(MD) et l’intelligence artificielle
    Définition de l’intelligence. Test de Turing. Expérience de la chambre chinoise. Types d’IA : systèmes experts, apprentissage par renforcement, apprentissage supervisé. Agents et patients moraux.

    – Les trois robots
    Détontologisme et utilitarisme appliqués à l’IA. Éthique de la vertu et son application à l’IA.

    – Attention, superintelligence
    Explosion d’intelligence. Thèse de l’orthogonalité et problème de l’alignement. Risques existentiels. Spécification directe de l’IA vs. normativité indirecte.

    – Isaac et Ursula
    Lois de la robotique d’Asimov. Comparaison de l’œuvre de science-fiction d’Asimov et de Le Guin. Sous-représentation des femmes et des minorités dans le monde la technologie. Biais systémique.

    – Métaéthique pour programmeuses
    Définition de la métaéthique. Relativisme moral. Relativisme du locuteur et relativisme culturel. Réalisme moral. Voile d’ignorance de Rawls. Perception morale.

    – Faire des robots vertueux
    Sources de moralité possibles. Avantages de l’éthique de la vertu en IA. Proposition d’approche pour programmer des IA à partir d’exemples de personnes vertueuses.

    – Conclusion : une cité incroyable
    Résumé de «Ceux qui partent d’Omelas» d’Ursula Le Guin. Interprétation en lien avec l’éthique de la vertu.

    Répondre

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *