J’écrivais il y a quelques jours que l’un des objectifs de ce blogue ressuscité est de jaser de choses en lien avec la communauté rationaliste. En un mot, de rationalité.
Mais de quoi (diantre) s’agit-il?
C’est une question intéressante et, comme toutes les questions intéressantes, complexe. J’ai envie de commencer en expliquant comment j’en suis venu à vouloir faire partie de cette communauté. Sont impliqués dans cette affaire Denis Villeneuve, des extraterrestres, plein de nerds de la Silicon Valley, et Harry Potter.
I.
C’est vers la fin de 2016 qu’est sorti le film Arrival, traduit par nos distributeurs québécois sous le titre de Premier contact, et réalisé par M. Villeneuve. Avant la sortie du film, les médias d’ici s’y sont intéressés, et moi aussi par la même occasion. Le film est basé sur une nouvelle de l’auteur américain de science-fiction Ted Chiang, intitulée Story of Your Life. Ça semblait intéressant, alors je m’en suis procuré une copie.
J’ai découvert un texte génial, d’une incroyable beauté et d’une grande intelligence. Pour ceux qui l’ignorent, Story of Your Life et Arrival concernent une linguiste qui tente d’établir une communication avec des extraterrestres dont la langue est tellement différente qu’elle suppose une façon complètement différente de percevoir l’univers. C’est un heureux mélange de linguistique, de mathématiques, de physique et de philosophie. Et comme d’habitude en pareille circonstance, le texte est meilleur que le film (qui est par ailleurs très bon lui aussi).
Bref, ce fut une porte d’entrée dans l’univers de Ted Chiang. Story of Your Life étant excellent, je me suis empressé de lire le reste de son œuvre. Ce n’était pas trop difficile, car il a peu écrit : presque tout tiendrait dans un seul recueil de nouvelles. Mais quel recueil de nouvelles! Tous ses textes sont superbes, et intelligents, et plein d’idées nouvelles, et pourtant très différents les uns des autres. Peu d’auteurs possèdent un tel rapport qualité/volume, et M. Chiang a plusieurs prix à son actif pour en témoigner.
C’est en cherchant les textes les plus obscurs de Ted Chiang que je suis tombé sur un forum subreddit consacré à la « rational fiction ». Le forum définit ce nouveau genre littéraire comme suit :
- Rien n’arrive uniquement parce que le scénario le nécessite. Pour chaque action (ou non-action) d’un personnage, il y a une raison plausible.
- Les différents camps sont opposés par leurs croyances et leurs valeurs, pas parce qu’ils sont « bons » ou « méchants ».
- Les personnages trouvent des solutions à leurs problèmes en utilisant intelligemment leurs connaissances et leurs ressources.
- L’univers fictif est régi par des lois cohérentes qui ne permettent pas d’exception arbitraires.1En plus de ces quatre caractéristiques, la communauté définit un sous-genre appelé « fiction rationaliste », dans lequel (1) des méthodes rationalistes et scientifiques sont utilisées pour démystifier les phénomènes mystérieux; (2) des techniques rationalistes sont illustrées et transmises au lecteur; (3) l’histoire est comme un puzzle dont la solution peut être atteinte par le lecteur comme par les personnages en utilisant la même information.
Ça m’a intrigué. J’ai creusé la chose et j’ai découvert que le texte fondateur de la rational fiction était une fanfiction écrite par Eliezer Yudkowsy et intitulée Harry Potter and the Methods of Rationality (alias HPMoR).
Je ne saurais trop recommander HPMoR. (Il existe une traduction en français, que je n’ai pas lue.) Dans l’univers des fanfictions, que je connais très peu, c’est l’un des textes les plus populaires, et avec raison. Naturellement, le problème de toute fanfiction est que le texte est limité au seul public qui connaît l’univers dont elle s’inspire. Par chance, approximativement 100% ± 10% de la population mondiale connaît Harry Potter.
Dans HPMoR, le principal changement par rapport à l’univers original est que Harry Potter a été adopté par un biochimiste de l’université d’Oxford, et a grandi en absorbant de grandes quantités de science-fiction et de science-tout-court. Il connaît la méthode scientifique et l’état de la recherche sur la psychologie et les biais cognitifs — y compris de nombreuses techniques pour penser et agir correctement qu’on peut appeler les « méthodes de la rationalité ». Lorsque lui est révélée l’existence du monde de la magie, il entreprend de comprendre et de déconstruire cet univers en utilisant la science et la rationalité. Pour tout lecteur de J.K. Rowling qui trouve que les livres et les films d’Harry Potter comportent de nombreuses failles logiques2Genre, la fois où un tournoi qui se déroule sur un an est en fait un complot extrêmement compliqué qui vise seulement à faire en sorte que Harry Potter touche un objet en particulier., c’est savoureux. Pour moi, HPMoR a surpassé l’original3J’ai grandi avec les Harry Potter et je les trouve très bien, et naturellement je note que HPMoR n’aurait pas pu exister sans eux..
Le fait que la rational fiction soit née d’une fanfiction n’est pas une coïncidence : il est plus aisé — et plus crédible — d’essayer de trouver les lacunes et les échappatoires dans un univers inventé par quelqu’un d’autre qu’un univers qu’on a soi-même créé. Le genre s’est d’ailleurs propagé à de nombreux autres univers fictifs (il paraît que la fanfiction rationaliste basée sur Twilight est excellente).
Pour ma part, j’ai été conquis. Après l’avoir lu, j’ai appris qu’Eliezer Yudkowsky avait écrit HPMoR le but explicite de transmettre les techniques de rationalité et de faire en sorte que plus de gens s’y intéressent (et, ultimement, de sensibiliser les gens à la cause de la sûreté en intelligence artificielle — mais nous y reviendrons). Mission accomplie, dans mon cas. Par la suite, j’ai lu un autre livre de Yudkowsky, appelé par endroits Les Séquences et ailleurs Rationality: From AI to Zombies et encore ailleurs Rationality: A-Z. Il s’agit d’un recueil d’articles de blogue qui visent à enseigner la rationalité, et c’est un peu le pendant « nonfiction » de HPMoR. C’est en se basant sur des idées développées dans les Séquences que Yudkowsky a fondé un communauté en ligne autour du blogue Less Wrong4Le lien mène à la nouvelle version du site, appelée Lesser Wrong et lancée l’année dernière. L’ancienne version du site existe encore.. La communauté a essaimé sur le web, donnant naissance entre autres à Slate Star Codex, et dans le monde physique, avec un épicentre dans la région de San Francisco (la concentration de nerds dans la Silicon Valley n’y est pas pour rien).
Lire les Séquences m’a fait un effet que j’imagine analogue à celui qu’on pourrait ressentir en lisant un livre sacré… et là je me rends compte que je risque de donner l’impression de prêcher pour faire adhérer mes lecteurs à une secte bizarre. Il vaut mieux que je m’explique.
Deux des fonctions utiles des religions sont leur capacité à (1) apporter des réponses aux questions existentielles et (2) créer des communautés fortes et cohésives. Elles parviennent plus ou moins à accomplir la fonction 1, car les réponses qu’elles donnent sont souvent fausses. Elles ont plus de succès avec la fonction 2 : pour beaucoup de gens, sans doute, l’appartenance à une tribu est l’avantage majeur de la religion. Qu’on pense par exemple aux Juifs, chez qui le sentiment d’appartenance à la tribu est généralement assez fort même si beaucoup d’entre eux ne sont pas croyants.
Les Séquences m’ont fait un effet similaire à un livre religieux parce qu’elles m’ont semblé donner ces deux choses. En enseignant l’art de la rationalité, elles m’ont permis d’aiguiser mon esprit et ainsi d’accéder (un peu mieux) à la vérité. En ayant engendré la communauté rationaliste, elles m’ont donné une tribu à laquelle appartenir.
Je commence à peine à participer à cette communauté au-delà d’un simple rôle de lecteur. Mais ces lectures, déjà, m’ont donné l’impression d’avoir changé ma vie, en mieux. (Ouais, je sais, ça sonne vraiment prêchi-prêcha. Désolé. Mais c’est rare, les lectures qui changent votre façon de penser, alors laissez-moi être enthousiaste deux secondes5Je devrais ajouter que les Séquences ne sont pas exemptes de critique, et qu’elles en ont reçu tout plein. Elles ne sont pas nécessairement le meilleure source en matière de biais cognitifs, etc. Mais c’est par là que je suis passé et on pourrait lire bien pire, si on veut apprendre l’art de la rationalité..)
Voilà pour l’histoire. Mais la rationalité, concrètement, c’est quoi?
II.
J’ai conscience que l’article est déjà long, alors je ne vais qu’effleurer la réponse. J’aurai l’occasion d’élaborer dans des articles futurs.
Qu’est-ce que la rationalité, tel que le mot est utilisé dans la communauté rationaliste? Eliezer Yudkowsky a une réponse en deux temps, que je traduis librement ici :
- La rationalité épistémique consiste à croire, et à mettre à jour ses croyances, de manière à améliorer systématiquement la correspondance entre votre carte et le territoire. C’est l’art d’obtenir des croyances qui correspondent autant que possible à la réalité. Cette correspondance est souvent appelée « vérité » ou « exactitude » et ces appellations nous conviennent.
- La rationalité instrumentale consiste à réaliser vos valeurs. Pas nécessairement « vos valeurs » dans un sens égoïste : « vos valeurs » signifie toute chose à laquelle vous tenez. La rationalité instrumentale est l’art de choisir des actions qui poussent le futur vers des résultats qui se classent plus haut dans l’ordre de vos préférences. Sur Less Wrong, on appelle parfois cela « gagner ».
En bref, la rationalité, c’est à la fois l’art de savoir la vérité, et l’art de gagner. Facile, non?
Ben… pas tout à fait. Il y a des raisons pour lesquelles les Séquences comptent 324 articles et m’ont pris quelques mois à lire. L’une de ces raisons est qu’il traite de nombreux sujets connexes, comme la physique, l’évolution, l’éthique et la philosophie de l’esprit. L’autre raison, c’est que de parler de rationalité prend du temps et des efforts, parce que ce n’est pas du tout une façon de penser et d’agir qui est naturelle pour le cerveau humain.
Une bonne partie des Séquences est consacrée aux biais cognitifs. Pour clarifier sa pensée, il faut connaître les problèmes qu’éprouvent les cerveaux humains lorsqu’ils essaient de penser, et il faut savoir comment les déjouer. C’est en m’inspirant directement des textes de Yudkowsky sur ce sujet que j’ai écrits ici des articles sur les probabilités et sur les croyances.
Un autre aspect important de la rationalité concerne l’usage des mots. Trop souvent, les débats dégénèrent en disputes sur les définitions utilisées. L’exemple classique est celui de l’arbre qui tombe dans une forêt où il n’y a personne. Fait-il du bruit? Oui, si « bruit » signifie des ondes dans l’air. Non, si « bruit » signifie une sensation auditive dans un cerveau. On peut défendre l’une ou l’autre de ces positions pendant des heures; et pourtant, tout le monde est d’accord que quand l’arbre tombe, il crée des ondes mais pas de sensation auditive (parce qu’il n’y a pas de cerveau dans les alentours). Il n’y a pas de désaccord réel, seulement une dispute de définitions.
C’est l’une des grandes leçons de la « rationalité » telle que définie par Yudkowsky et la communauté rationaliste. Évidemment, le mot « rationalité » pourrait être défini autrement. Mais vous aurez compris qu’on s’en contrefout, de la définition, une fois qu’on sait de quoi on parle.
Bref. Je m’arrête ici pour l’instant, mais je compte bien — afin d’aiguiser ma propre pensée en même temps que la vôtre — continuer de bloguer sur la rationalité. En attendant, si vous avez envie de mieux savoir et de mieux gagner, vous pourriez faire pire que lire HPMoR ou les Séquences.
Permaliens