Archives par étiquette : paradoxe philosophique

L’argument de la Simulation et le problème de la classe de référence

L’argument de la Simulation et le problème de la classe de référence : le point de vue du contextualisme dialectique

Paul Franceschi

Université de Corse

Paul Franceschi

Fontaine du salario

Lieu-dit Morone

20000 Ajaccio

France

post-publication d’un article paru dans la revue Philosophiques, Volume 43, Numéro 2, Automne, 2016, p. 371–389

ABSTRACT. I present in this paper an analysis of the Simulation argument from a dialectical contextualist standpoint. This analysis is grounded on the reference class problem. I begin with describing Bostrom’s Simulation Argument step-by-step. I identify then the reference class within the Simulation argument. I also point out a reference class problem, by applying the argument successively to several references classes: aware-simulations, rough simulations and cyborg-type simulations. Finally, I point out that there are three levels of conclusion within the Simulation Argument, depending on the chosen reference class, that yield each final conclusions of a fundamentally different nature.

RESUMÉ. Je présente dans cet article une analyse de l’argument de la Simulation selon le point de vue du contextualisme dialectique, fondée sur le problème de la classe de référence. Je décris tout d’abord étape par étape l’argument de la Simulation. J’identifie ensuite la classe de référence et j’applique successivement l’argument à plusieurs classes de référence distinctes : les simulations conscientes de leur propre nature de simulation, les simulations grossières et les simulations de type cyborg. Finalement, je montre qu’il existe trois niveaux de conclusion dans l’argument de la Simulation, selon la classe de référence choisie, qui engendrent des conclusions finales d’une nature très différente.

1. L’argument de la Simulation

Je proposerai dans ce qui suit une solution pour résoudre le problème posé par l’argument de la Simulation, récemment décrit par Nick Bostrom (2003). Je m’attacherai tout d’abord à décrire en détail l’argument de la Simulation, en exposant notamment le problème qui lui est inhérent. Je montrerai ensuite comment une solution peut être apportée à un tel problème, fondée sur l’analyse de la classe de référence qui sous-tend SA, et sans qu’il soit nécessaire de renoncer à ses intuitions préthéoriques.

L’idée générale qui sous-tend l’argument de la Simulation (SA) peut être ainsi énoncée. Il est très probable que des civilisations post-humaines posséderont une puissance de calcul informatique tout à fait hors de proportion avec celle qui est la nôtre actuellement. Une telle puissance de calcul extraordinaire devrait leur conférer la capacité de réaliser des simulations humaines tout à fait réalistes, telles notamment que les habitants de ces simulations auraient une conscience de leur propre existence, en tous points similaire à la nôtre. Dans un tel contexte, on peut penser qu’il est probable que des civilisations post-humaines consacreront effectivement une partie de leurs ressources informatiques à réaliser des simulations des civilisations humaines qui les ont précédés. Dans ce cas, le nombre des humains simulés devrait très largement excéder celui des humains authentiques. Dans de telles conditions, le fait de prendre en compte le simple fait que nous existions conduit à la conclusion qu’il est plus probable que nous fassions partie des humains simulés, plutôt que des humains authentiques.

Bostrom s’attache également à décrire l’argument de la Simulation avec précision. Il souligne que l’argument de la Simulation est basé sur les trois hypothèses suivantes :

(1)l’humanité connaîtra une extinction prochaine
(2)les civilisations post-humaines ne réaliseront pas de simulations d’humains
(3)nous vivons actuellement dans une simulation réalisée par une civilisation post-humaine

La première étape du raisonnement consiste à considérer, par dichotomie, que soit (a) l’humanité connaîtra une extinction prochaine, soit (b) elle poursuivra son existence dans un lointain avenir. La première de ces deux hypothèses constitue la disjonction (1) de l’argument. On considère ensuite l’hypothèse selon laquelle l’humanité ne connaîtra pas une extinction prochaine et poursuivra ainsi son existence durant de nombreux millénaires. Dans un tel cas, on peut également considérer qu’il est probable que les civilisations post-humaines posséderont à la fois la technologie et les aptitudes nécessaires pour réaliser des simulations d’humains. Une nouvelle dichotomie se présente alors : soit (a) ces civilisations post-humaines ne réaliseront pas de telles simulations—il s’agit de la disjonction (2) de l’argument ; soit (b) ces civilisations post-humaines réaliseront effectivement de telles simulations. Dans ce dernier cas, il s’ensuivra que le nombre d’humains simulés excédera largement celui des humains. La probabilité de vivre dans une simulation sera donc beaucoup plus grande que celle de vivre dans la peau d’un humain ordinaire. Il s’ensuit alors la conclusion que nous autres, habitants de la Terre, vivons probablement dans une simulation réalisée par une civilisation post-humaine. Cette dernière conclusion constitue la disjonction (3) de l’argument. Une étape supplémentaire conduit alors à considérer qu’en l’absence d’élément probant en faveur de l’une ou l’autre d’entre elles, on peut considérer les hypothèses (1), (2) et (3) comme équiprobables.

L’argument de la Simulation peut être décrit étape par étape de la manière suivante :

(4)soit l’humanité connaîtra une extinction prochaine, soit l’humanité ne connaîtra pas une extinction prochainedichotomie 1
(1)l’humanité connaîtra une extinction prochainehypothèse 1.1
(5)l’humanité ne connaîtra pas une extinction prochainehypothèse 1.2
(6)les civilisations post-humaines seront capables de réaliser des simulations d’humainsde (5)
(7)soit les civilisations post-humaines ne réaliseront pas de simulations d’humains, soit elles en réaliserontdichotomie 2
(2)les civilisations post-humaines ne réaliseront pas de simulations d’humainshypothèse 2.1
(8)les civilisations post-humaines réaliseront des simulations d’humainshypothèse 2.2
(9)la proportion des humains simulés excédera très largement celle des humainsde (8)
(3)nous vivons actuellement dans une simulation réalisée par une civilisation post-humainede (9)
(10)en l’absence d’élément probant en faveur de l’une d’entre elles, les hypothèses (1), (2) et (3) sont équiprobablesde (1), (2), (3)

Il convient également de mentionner un élément qui résulte de l’interprétation-même de l’argument. Car ainsi que le précise Bostrom (2005), l’argument de la Simulation ne doit pas être mal interprété. Il ne s’agit pas en effet d’un argument qui conduit à la conclusion que (3) est vraie, à savoir que nous vivons actuellement dans une simulation réalisée par une civilisation post-humaine. Le noyau de l’argument de la Simulation réside ainsi dans le fait que les propositions (1), (2) ou (3) sont équiprobables.

Cette nuance d’interprétation étant mentionnée, l’argument de la Simulation ne manque pas cependant de poser un problème. Car l’argument conduit à la conclusion que l’une des propositions (1), (2) ou (3) au moins est vraie, et que dans la situation d’ignorance où nous nous trouvons, on peut les considérer comme équiprobables. Ainsi que Bostrom le note : “In the dark forest of our current ignorance, it seems sensible to apportion one’s credence roughly evenly between (1), (2) and (3).” (Bostrom 2003). Cependant, selon notre intuition pré-théorique, la probabilité de (3) est nulle ou au mieux extrêmement proche de 0. Ainsi, la conclusion de l’argument a pour conséquence de faire passer la probabilité que (3) soit vraie, de zéro à une probabilité d’environ 1/3. Ainsi, le problème posé par l’argument de la Simulation est précisément qu’il fait passer—via sa conclusion disjonctive—une probabilité nulle ou quasi-nulle concernant (3) à une probabilité beaucoup plus considérable d’environ 1/3. Car une probabilité de 1/3 pour les propositions (1) et (2) ne possède rien de choquant a priori, mais se révèle en revanche tout à fait contraire à l’intuition pour ce qui concerne la proposition (3). C’est en ce sens que l’on peut parler du problème posé par l’argument de la Simulation et de la nécessité de rechercher une solution à ce dernier.

De manière préliminaire, il convient de s’interroger sur ce qui constitue l’aspect paradoxal de SA. Qu’est-ce en effet qui confère une nature paradoxale à SA ? Car SA se distingue de la classe des paradoxes qui conduisent à une contradiction. Dans les paradoxes comme le Menteur ou bien le paradoxe sorite, le raisonnement correspondant conduit à une contradiction : le Menteur est à la fois vrai et faux. Dans le paradoxe sorite, un objet comportant un certain nombre de grains de sable est à la fois un tas et un non-tas. Rien de tel ne se manifeste au niveau de SA qui appartient, de ce point de vue, à une classe différente de paradoxes dont fait également partie l’argument de l’Apocalypse. Il s’agit en effet d’une classe de paradoxes dont la conclusion présente une nature contraire à l’intuition, et qui se place en conflit avec l’ensemble de nos croyances. Dans l’argument de l’Apocalypse, la conclusion selon laquelle la prise en considération de notre rang au sein de la classe des humains ayant jamais existé a pour effet qu’une apocalypse est beaucoup plus probable qu’on aurait pu l’envisager initialement, vient heurter l’ensemble de nos croyances. De manière similaire, ce qui apparaît finalement ici comme paradoxal, en première analyse, c’est que SA conduit à une probabilité de l’hypothèse selon laquelle nous vivons actuellement dans une simulation crée par des post-humains, qui est supérieure à celle qui résulte de notre intuition pré-théorique.

2. La classe de référence dans l’argument de la Simulation

La conclusion du raisonnement qui sous-tend SA, fondée sur le calcul du ratio futur entre les humains réels et les humains simulés, si elle se révèle contraire à l’intuition, résulte néanmoins d’un raisonnement qui apparaît a priori valide. Cependant, un tel raisonnement suscite une interrogation, qui se trouve liée à la classe de référence qui est inhérente à l’argument lui-même1. En effet, il s’avère que SA comporte, de manière indirecte, une classe de référence particulière, qui est celle des simulations d’humains. Mais qu’est-ce donc qui constitue une simulation ? L’argument original se réfère, de manière implicite, à une classe de référence qui est celle des simulations virtuelles d’humains, d’une très haute qualité et par nature indiscernables des humains authentiques. Toutefois, une certaine ambiguïté s’attache à la notion-même de simulation et la question se pose de l’applicabilité de SA à d’autres types de simulations d’humains2. On peut en effet concevoir des types de simulations quelque peu différents qui, de manière intuitive, entrent également dans le champ de l’argument.

Il est possible d’imaginer tout d’abord un type de simulations en tous points identiques à celles décrites dans l’argument original, c’est-à-dire quasiment indiscernables des humains authentiques, mais à la seule différence qu’elles seraient conscientes de leur propre nature de simulation. L’unique différence avec le type de simulation mis en scène dans l’argument original serait donc que ces dernières simulations auraient clairement conscience de ne pas être des humains authentiques. A priori, rien n’exclut que des post-humains choisissent de mettre en oeuvre de telles simulations et de manière intuitive, SA est susceptible de s’appliquer également à ce type particulier de simulations.

De même, de manière implicite, SA se réfère à des simulations sophistiquées, de très haute qualité, qui sont par nature indiscernables des humains authentiques. Cependant, on peut concevoir différents degrés dans la qualité des simulations humaines. Aussi la question se pose-t-elle notamment de savoir si l’on peut inclure dans la classe de référence de SA des simulations virtuelles qui seraient d’une qualité très légèrement inférieure ? Avec de telles simulations, la nature de simulation qui constitue leur identité profonde serait susceptible d’être un jour découverte par le sujet lui-même. Si l’argument doit s’appliquer à cette classe de simulations, la question est alors posée de son applicabilité à d’autres types de simulations de cette nature, car on peut concevoir de nombreux degrés intermédiaires entre d’une part, les simulations indiscernables et d’autre part, les simulations que nous sommes actuellement capables de réaliser, au moyen notamment des images de synthèse. Aussi, la question se pose-t-elle de savoir si la classe de référence de SA peut aller jusqu’à inclure les simulations de moindre qualité que celles évoquées dans l’argument original ?

Enfin, il apparaît que SA ‘fonctionne’ également si on l’applique à des humains, dont le cerveau est interfacé avec des uploads, des simulations de l’esprit humain incluant les événements mémorisés, les connaissances, les traits de personnalité, les modes de raisonnement, etc. propres à un individu. On peut imaginer en effet que dans un futur pas très lointain, l’émulation du cerveau humain pourrait être achevée (Moravec 1998, Sandberg & Bostrom 2008, De Garis et al. 2010), de sorte que la réalisation d’uploads pourrait devenir courante et être utilisée de manière intensive. Un très grand nombre d’uploads pourraient ainsi être réalisés et utilisés à des fins diverses : scientifiques, culturelles, sociales, utilitaires, etc. Si on assimile ainsi les uploads aux simulations de SA, l’argument fonctionne également. En un sens, les humains dotés d’uploads peuvent être considérés comme des simulations de nature partielle, qui ne concernent que le cerveau ou une partie du cerveau, alors même que le reste du corps humain demeure authentique et non simulé. Dans un tel cas, les humains dont le cerveau seul est simulé à l’aide d’un upload, peuvent être assimilés à un type particulier de cyborgs. On peut ainsi se poser la question générale de savoir dans quelle mesure la classe des simulations de SA peut être étendue aux simulations partielles et aux types de cyborgs qui viennent d’être décrits. On peut concevoir en effet des cyborgs de différents types, selon les parties du corps et les organes de remplacement ou de substitution qui sont les leurs. Aussi la question se pose-t-elle de savoir jusqu’à quel point SA s’applique également à ce type de cyborgs ?

On le voit, la question-même de la définition de la classe de référence pour SA conduit à s’interroger sur l’inclusion ou non dans le champ de SA de plusieurs types de simulations. Sans prétendre à l’exhaustivité, on peut mentionner à ce stade, parmi ces dernières : les simulations conscientes, les simulations plus ou moins grossières et les simulations partielles de type cyborg. La question de la définition de la classe de référence pour SA apparaît ainsi étroitement liée à la nature de la future taxinomie des êtres et des créatures qui peupleront la Terre dans un futur proche ou éloigné.

À ce stade, il s’avère en première approche que les types de simulations d’humains présentent une nature assez variée, et que l’on peut définir la classe de référence des simulations de différentes manières. On pourrait ainsi choisir la classe de référence de manière plus ou moins restrictive ou plus ou moins extensive. Dans ce contexte, il s’avère nécessaire d’analyser de manière plus approfondie les conséquences de l’un ou l’autre choix.

3. Le problème de la classe de référence : le cas des simulations conscientes

À ce stade, on ne peut encore véritablement parler de problème de la classe de référence au sein de SA. Pour cela en effet, il convient de montrer que le choix de l’une ou l’autre classe de référence a des conséquences tout à fait différentes au niveau de l’argument, et en particulier que la nature de sa conclusion s’en trouve modifiée de manière fondamentale. Dans ce qui suit, nous nous attacherons désormais à montrer que selon que l’on choisit l’une ou l’autre classe de référence, des conclusions radicalement différentes s’ensuivent au niveau de l’argument lui-même et que par conséquent, il existe bien un problème de classe de référence au sein de SA. Nous considérerons pour cela successivement plusieurs classes de référence, en nous attachons à montrer comment des conclusions de nature fondamentalement différente en résultent au niveau de l’argument lui-même.

La version originale de SA met en scène, de manière implicite, des simulations d’humains d’un certain type. Il s’agit de simulations de type virtuel, quasiment indiscernables pour nous-mêmes et qui présentent ainsi un degré de sophistication très élevé. Plus encore, il s’agit d’un type de simulations qui n’ont pas conscience qu’elles sont elles-mêmes simulées et qui sont donc persuadées d’être des humains authentiques. Ceci résulte implicitement des termes de l’argument lui-même et en particulier, de l’inférence de (9) à (3) qui conduit à conclure que ‘nous’ vivons actuellement dans une simulation indiscernable réalisée par des post-humains. De fait, il s’agit de simulations qui sont en quelque sorte abusées et trompées par les post-humains en ce qui concerne leur identité véritable. Pour les besoins de la présente discussion, nous dénommerons quasi-humains les humains simulés qui n’ont pas conscience qu’ils le sont.

À ce stade, il s’avère que l’on peut également concevoir des simulations indiscernables qui présentent un degré tout à fait identique de sophistication mais qui, à l’inverse, auraient conscience qu’elles sont simulées. Nous appellerons ainsi quasi-humains+ des humains simulés ayant conscience qu’ils sont eux-mêmes des simulations. De telles simulations sont en tous points identiques aux quasi-humains auxquels SA se réfère de manière implicite, à la seule différence qu’elles sont cette fois clairement conscientes de leur nature intrinsèque de simulation. De manière intuitive, SA s’applique également à ce type de simulation. A priori, on ne possède pas de justification pour écarter un tel type de simulation. Plus encore, plusieurs raisons conduisent à penser que les quasi-humains+ pourraient être plus nombreux que les quasi-humains. Pour des raisons éthiques (a) tout d’abord, on peut penser que les post-humains pourraient être enclins à préférer les quasi-humains+ aux quasi-humains. Car le fait de conférer une existence aux quasi-humains constitue une tromperie sur leur identité véritable, alors qu’un tel inconvénient est absent lorsqu’il s’agit des quasi-humains+. Une telle tromperie pourrait raisonnablement être considérée comme non-éthique et conduire à une forme ou une autre d’interdiction des quasi-humains. Une autre raison (b) milite pour le fait de ne pas écarter, a priori, les simulations d’humains ayant conscience de leur propre nature de simulation. En effet, on peut penser que le niveau d’intelligence acquis par certains quasi-humains dans un futur proche pourrait être extrêmement élevé et faire que dans ce cas, les simulations deviendraient très rapidement conscientes qu’elles sont elles-mêmes des simulations. On peut penser qu’à partir d’un certain degré d’intelligence, et en particulier celui susceptible d’être obtenu par l’humanité dans un futur pas très éloigné (Kurtzweil 2000, 2005, Bostrom 2006), les quasi-humains devraient être à même—au moins beaucoup plus facilement qu’actuellement—de recueillir les preuves qu’ils sont l’objet d’une simulation. Plus encore, le concept-même de ‘simulation non-consciente qu’elle est une simulation’ pourrait être entaché de contradiction, car il faudrait alors limiter son intelligence et dès lors, il ne s’agirait plus une simulation indiscernable et suffisamment réaliste. Ces deux raisons inclinent à penser que les quasi-humains+ pourraient bien exister en plus grand nombre que les quasi-humains.

À ce stade, il s’avère nécessaire d’envisager les conséquences de la prise en compte des quasi-humains+ au sein de la classe de référence des simulations inhérente à SA. Pour cela, considérons tout d’abord la variation de SA (dénommons-la SA*) qui s’applique, de manière exclusive, à la classe des quasi-humains+. Un tel choix, tout d’abord, n’a pas de conséquence sur la disjonction (1) de SA, qui se réfère à une possible disparition prochaine de notre humanité. Cela n’a pas d’effet non plus sur la disjonction (2), selon laquelle les post-humains ne réaliseront pas de quasi-humains+, c’est-à-dire de simulations conscientes d’êtres humains. En revanche, le choix d’une telle classe de référence a une conséquence directe sur la disjonction (3) de SA. Certes, il s’ensuit, de la même manière que pour l’argument original, la conclusion de premier niveau selon laquelle le nombre des quasi-humains+ excédera largement le nombre des humains authentiques (la disproportion). Cependant, il ne s’ensuit plus désormais la conclusion de second niveau selon laquelle ‘nous’ sommes actuellement des quasi-humains+. En effet, une telle conclusion (appelons-la l’auto-applicabilité) ne s’applique plus à nous désormais, puisque que nous n’avons pas conscience d’être simulés et sommes tout à fait convaincus d’être des humains authentiques. En effet, ce qui constitue la conclusion inquiétante de SA ne résulte plus désormais de l’étape (9), puisque nous ne pouvons nous identifier aux quasi-humains+, ces derniers ayant clairement conscience qu’ils évoluent dans une simulation. Ainsi, à la différence de la version originale de SA basée sur la classe de référence qui associe les humains aux quasi-humains, cette nouvelle version associant les humains et les quasi-humains+, n’est pas associée à une telle conclusion inquiétante. La conclusion qui s’ensuit désormais, on le voit, s’avère tout à fait rassurante, et en tout état de cause très différente de celle, profondément inquiétante, qui résulte de l’argument original.

À ce stade, il apparaît qu’une question se pose : doit-on identifier, dans le contexte de SA, la classe de référence aux quasi-humains ou bien aux quasi-humains+ ? Il s’avère qu’aucun élément objectif, dans l’énoncé de SA, ne vient conforter le choix a priori des quasi-humains ou des quasi-humains+. Ainsi, toute version de l’argument qui comporte le choix préférentiel des quasi-humains ou bien des quasi-humains+ apparaît comme comportant un biais. Tel est ainsi le cas pour la version originale de SA, qui comporte ainsi un biais en faveur des quasi-humains, qui résulte du choix par Bostrom d’une classe des simulations qui s’assimile exclusivement à des quasi-humains, c’est-à-dire à des simulations non-conscientes de leur nature de simulation et qui sont par conséquent abusées et trompées par les post-humains sur la nature-même de leur identité. Et tel est également le cas pour SA* la version alternative de SA qui vient d’être décrite, qui comporte un biais particulier en faveur des quasi-humains+, des simulations conscientes de leur propre nature de simulation. Cependant, le choix de la classe de référence se révèle ici fondamental, car il comporte une conséquence essentielle : si l’on choisit une classe de référence qui associe les humains aux quasi-humains, il en résulte la conclusion inquiétante que nous vivons actuellement très probablement dans une simulation. En revanche, si l’on choisit une classe de référence qui associe les humains aux quasi-humains+, il s’ensuit un scénario qui de manière rassurante, ne comporte pas une telle conclusion. À ce stade, il apparaît bien que le choix des quasi-humains, c’est-à-dire à des simulations non-conscientes, dans la version originale de SA, au détriment des simulations conscientes, constitue un choix arbitraire. En effet, qu’est-ce qui permet de préférer le choix des quasi-humains, par rapport aux quasi-humains? Une telle justification fait défaut dans le contexte de l’argument. À ce stade, il s’avère que l’argument original de SA comporte un biais qui conduit au choix préférentiel des quasi-humains, et à la conclusion alarmante qui lui est associée. Cette remarque étant faite, il convient désormais d’envisager le problème sous une perspective plus large encore, en prenant en considération d’autres types possibles de simulations.

4. Le problème de la classe de référence : le cas des simulations grossières

Le problème de la classe de référence dans SA porte, ainsi que cela a été mentionné plus haut, sur la nature-même et le type des simulations mises en oeuvre dans l’argument. Ce problème se limite-t-il au choix préférentiel, au niveau de l’argument original, des simulations non-conscientes, au détriment du choix alternatif des simulations conscientes, qui correspondent à des simulations très sophistiquées d’humains, capables de créer l’illusion, mais dotées de la conscience qu’elles sont elles-mêmes des simulations ? Il apparaît que non. En effet, comme cela a été évoqué plus haut, on peut également concevoir d’autres types de simulations pour lesquelles l’argument fonctionne également, mais qui se révèlent d’une nature quelque peu différente. En particulier, on peut concevoir que les post-humains conçoivent et implémentent des simulations identiques à celles de l’argument original, mais qui ne présentent toutefois pas un caractère aussi parfait. Une telle situation présente un caractère tout à fait vraisemblable et ne présente pas les inconvénients d’ordre éthique qui pourraient accompagner les simulations indiscernables mises en scène dans l’argument original. Le choix de réaliser ce type de simulations pourrait résulter du niveau technologique nécessaire, ou bien de choix délibérés et pragmatiques, destinés à faire économiser du temps et des ressources. On peut ainsi concevoir différents degrés dans la réalisation d’un tel type de simulations. Il pourrait s’agir par exemple de simulations de très bonne qualité dont nos scientifiques actuels ne pourraient déterminer la nature artificielle qu’après, par exemple, dix années de recherche. Mais de manière alternative, de telles simulations pourraient être de qualité moyenne, voire plutôt grossières, par rapport aux simulations quasiment indiscernables évoquées plus haut. Pour les besoins de la présente discussion, nous appellerons toutefois simulations grossières l’ensemble de cette catégorie de simulations.

Quelles sont donc les conséquences sur SA de la prise en compte d’une classe de référence qui s’assimile à des simulations grossières ? Dans de telles circonstances, un grand nombre de telles simulations seraient détectables par nous humains. Dans ce cas, la conséquence de premier niveau fondée sur la disproportion humains/simulations s’applique toujours, de la même manière que pour l’argument original. En revanche, la conclusion de second niveau fondée sur l’auto-applicabilité ne s’applique plus désormais. Nous ne pouvons plus conclure désormais que ‘nous’ sommes des simulations, puisqu’en présence de telles simulations, nous nous apercevrions rapidement qu’il s’agit d’humains simulés et non d’humains réels. Aussi, dans un tel cas, il s’avère que la conclusion alarmante inhérente à la version originale de SA et fondée sur l’auto-applicabilité ne s’applique plus désormais. Une conclusion rassurante s’y substitue en effet, fondée sur le fait que nous humains n’appartenons pas à ce type de simulations.

À ce stade, il apparaît que SA, dans sa version originale, opte pour le choix préférentiel de simulations très sophistiquées, indétectables par nous autres humains et non-conscientes de leur nature de simulation. Mais ainsi que cela vient d’être évoqué, on peut concevoir d’autres types de simulations, de nature plus grossière, pour lesquelles l’argument s’applique également. Jusqu’à quel niveau de simulation détectable peut-on aller ? Doit-on aller jusqu’à inclure dans la classe de référence, à un niveau d’extension plus élevé, des simulations assez grossières, telles que par exemple des versions améliorées des simulations que nous sommes d’ores et déjà capables de réaliser à l’aide d’images de synthèse ? Dans ce cas, cela conduit à une formulation quelque peu différente de l’argument orignal, car nous pouvons alors assimiler la classe des post-humains aux humains qui vivront sur Terre dans dix ans, voire dans un an, ou même—à un niveau d’extension plus grand encore—dans un mois. Dans cas, la disjonction (1) selon laquelle les humains ne parviendront pas jusqu’à cette époque ne vaut plus, puisqu’un tel niveau technologique a d’ores et déjà été atteint. De même, la disjonction (2) n’a plus non plus de raison d’être, puisque nous réalisons déjà de telles simulations grossières. Ainsi, il ne subsiste dans ce cas que la disjonction (3), qui constitue alors la proposition unique qui sous-tend l’argument et constitue la conclusion de premier niveau de SA, selon laquelle le nombre des humains simulés excédera largement celui des humains authentiques. Dans ce cas, il s’ensuit bien, de manière identique à l’argument original, la conclusion de premier niveau selon laquelle le nombre des quasi-humains+ excédera largement le nombre des humains authentiques (la disproportion). Mais là aussi, il ne s’ensuit plus désormais la conclusion de second niveau selon laquelle ‘nous’ sommes actuellement des quasi-humains+ (l’auto-applicabilité). Cette dernière ne s’applique plus à nous désormais et une conclusion de nature rassurante s’y substitue, puisque que nous avons clairement conscience de ne pas être de telles simulations grossières.

5. Le problème de la classe de référence : le cas des cyborgs

Ainsi que cela a été évoqué plus haut, une autre question qui se pose est celle de savoir si la classe de référence peut être étendue aux cyborgs et en particulier à cette catégorie de cyborgs qui sont indiscernables des humains. On peut en effet concevoir différents types de cyborgs, allant de ceux pour lesquels quelques parties du corps ont été remplacées par des organes de synthèse de substitution ou plus performants, à ceux pour lesquels la quasi-totalité des organes—y compris le cerveau—a été remplacée. A priori, une telle classe entre également dans le champ de l’argument. Ici, l’argument s’applique naturellement aux cyborgs élaborés, indiscernables des humains, pour lesquels une grande partie des organes d’origine ont été remplacés ou transformés. En particulier, les cyborgs pour lesquels une partie du cerveau a été remplacée par un uploadpartiel ou non—entre naturellement dans le champ de l’argument. Les uploads partiels sont ceux pour lesquels une partie seulement des données du cerveau a été remplacée par un upload. De même, on peut imaginer de nombreux types d’uploads de ce genre : ainsi des uploads qui reconstituent la mémoire en restaurant les événements oubliés peuvent être envisagés. Ils peuvent se révéler utiles non seulement pour les personnes en bonne santé, mais également pour celles qui souffrent de maladies dans lesquelles les fonctions de la mémoire sont altérées. On peut concevoir que de tels types d’uploads partiels pourront être mis en œuvre dans un futur plus ou moins proche (Moravec 1998, Kurzweil 2005, De Garis et al. 2010). Et de la même manière que pour l’argument original, on peut concevoir que des quantités très grandes de ces uploads puissent être réalisées par les moyens informatiques. De manière générale, il s’avère que la discussion sur l’inclusion des cyborgs au sein de la classe de référence de SA possède son importance, car si l’on considère la classe des cyborgs dans un sens étendu, nous sommes déjà pratiquement tous des cyborgs. Si l’on considère en effet que des organes ou des parties du corps humains ont été remplacés ou améliorés afin qu’ils fonctionnent correctement font de nous des cyborgs, tel est aujourd’hui déjà le cas, compte tenu de la généralisation des dents synthétiques, pacemakers, prothèses, etc. Ainsi la question se trouve-t-elle posée de savoir jusqu’à quel degré on peut inclure certains types de cyborgs dans le champ de l’argument.

Quel serait donc l’effet sur SA de la prise en compte de la classe des cyborgs partiels, si l’on se place à un tel degré d’extension ? De même que pour les simulations grossières, il s’avère que la disjonction (1) selon laquelle les humains ne parviendront pas jusqu’à cette époque ne vaut plus alors, puisqu’un tel palier technologique est d’ores et déjà atteint. De manière identique, la disjonction (2) ne se justifie plus non plus, puisque dans un tel contexte, nous sommes déjà quasiment tous de tels cyborgs partiels. Ainsi, il ne subsiste dans ce cas que la disjonction (3) en tant que proposition unique, mais qui se présente toutefois sous une forme différente de celle de l’argument original. En effet, la conséquence de premier niveau fondée sur la disproportion humains/simulations s’applique ici également, de la même manière que pour l’argument original. En outre, et c’est là une différence importante, la conclusion de second niveau fondée sur l’auto-applicabilité s’applique également, puisque nous pouvons en conclure que ‘nous’ sommes également, dans ce sens étendu, des simulations. En revanche, il ne s’ensuit plus la conclusion alarmante, qui est celle de l’argument original et qui se manifeste à un troisième niveau, que nous sommes des simulations non-conscientes, puisque le fait que nous soyons en ce sens des simulations n’implique pas ici que nous soyons trompés sur notre identité première. Ainsi s’ensuit-il finalement, à la différence de l’argument orignal, une conclusion rassurante : nous sommes des simulations, qui sont elles-mêmes tout à fait conscientes de leur propre nature de cyborgs partiels.

Ce qui précède montre également qu’en examinant SA avec attention, on constate que l’argument recèle une seconde classe de référence. Cette seconde classe de référence est celle des posthumains. Qu’est-ce donc qu’un post-humain ? Doit-on assimiler cette classe aux civilisations très largement supérieures à la nôtre, à celles qui évolueront au XXVème siècle ou bien au XLIIIème siècle ? Les descendants de notre actuelle race humaine qui vivront au XXIIème siècle doivent-ils être comptés parmi les post-humains ? Le fait que des évolutions importantes liées à l’accroissement de l’intelligence humaine (Moravec 1998, Kurzweil 2005) puissent survenir dans un futur plus ou moins proche, constitue notamment un argument qui milite dans ce sens. Mais doit-on aller jusqu’à inclure les descendants des humains actuels qui vivront sur Terre dans 5 ans ? De telles questions sont posées et nécessitent une réponse. La question de savoir comment on doit définir les post-humains, constitue ainsi également un élément du problème de la classe de référence de SA. En tout état de cause, la définition de la classe des post-humains apparaît étroitement liée à celle des simulations. Car si l’on s’intéresse, dans un sens étendu, à des cyborgs à peine plus évolués que nous le sommes dans un certain sens, alors les post-humains peuvent être assimilés à la prochaine génération d’humains. Il en va de même si l’on considère des simulations grossières améliorées par rapport à celles que nous sommes actuellement capables de produire. En revanche, si l’on considère, dans un sens plus restrictif, des simulations d’humains complètement indiscernables pour notre humanité actuelle, il convient alors de s’intéresser à des post-humains d’une époque nettement plus lointaine. En tout état de cause, il apparaît ici que la classe de référence des post-humains, ainsi que la classe des simulations à laquelle elle est associée, peut être choisie à différentes niveaux de restriction ou d’extension.

6. Les différents niveaux de conclusion selon la classe de référence choisie

Finalement, la discussion qui précède met l’accent sur le fait que si on considère SA à la lumière du problème de la classe de référence qui lui est inhérente, il existe en réalité plusieurs niveaux dans la conclusion de SA : (C1) la disproportion ; (C2) l’auto-applicabilité ; (C3) la non-conscience (le fait inquiétant que nous soyons trompés, dupés sur notre identité première). En fait, la discussion précédente montre que (C1) est vrai quelle que soit la classe de référence choisie (par restriction ou par extension) : les quasi-humains, les quasi-humains+, les simulations grossières et les simulations de type cyborg. En outre, (C2) est également vrai pour la classe de référence originale des quasi-humains et pour celle des simulations de type cyborg, mais se révèle toutefois faux pour la classe des quasi-humains+ et aussi pour celle des simulations grossières. Enfin, (C3) est vrai pour la classe de référence originale des quasi-humains, mais se révèle faux pour les quasi-humains+, les simulations grossières et les simulations de type cyborg. Ces trois niveaux de conclusion sont représentés sur le tableau ci-dessous :

niveauconclusioncasquasi-humainsquasi-humains+simulations grossièressimulations de type cyborg
C1la proportion des humains simulés excédera largement celle des humains (disproportion)C1Avraivraivraivrai
la proportion des humains simulés n’excédera pas largement celle des humainsC1Āfauxfauxfauxfaux
C2nous sommes très probablement des simulations (auto-applicabilité)C2Avraifauxfauxvrai
nous ne sommes très probablement pas des simulationsC2Āfauxvraivraifaux
C3nous sommes des simulations inconscientes de leur nature de simulation (non-conscience)C3Avraifauxfauxfaux
nous ne sommes pas des simulations inconscientes de leur nature de simulationC3Āfauxvraivraivrai

Figure 1. Les différents niveaux de conclusion dans SA

ainsi que sur l’arborescence suivante :

Figure 2. Arbre des différents niveaux de conclusion de SA

Alors-même que la conclusion originale de SA laisse penser qu’il n’existe qu’un seul niveau de conclusion, il s’avère cependant, ainsi que cela vient d’être mis en lumière, qu’il existe en réalité plusieurs niveaux de conclusion dans SA, dès lors qu’on examine l’argument selon une perspective plus large, à la lumière du problème de la classe de référence. La conclusion de l’argument original est elle-même inquiétante et alarmante, en ce sens qu’elle conclut à une probabilité beaucoup plus forte que nous ne l’avions imaginé a priori, que nous soyons des humains simulés à leur insu. Une telle conclusion résulte du chemin C1-C1A-C2-C2A-C3-C3A de l’arbre ci-dessus. Cependant, l’analyse qui précède montre que selon la classe de référence choisie, des conclusions de nature très différente peuvent être inférées par l’argument de la simulation. Ainsi, une conclusion de nature tout à fait différente est associée au choix de la classe de référence des quasi-humains+, mais aussi à celle des simulations grossières. La conclusion qui en résulte est que nous ne sommes pas de telles simulations (C2Ā). Cette dernière conclusion est associée au chemin C1-C1A-C2-C2Ā dans l’arbre ci-dessus. Enfin, une autre conclusion possible, elle-même associée au choix de la classe des simulations de type cyborg, est que nous faisons partie d’une telle classe de simulation, mais que nous en avons conscience et que cela ne présente donc rien d’inquiétant (C3Ā). Cette dernière conclusion est représentée par le chemin C1-C1A-C2-C2A-C3-C3Ā.

L’analyse qui précède met finalement en lumière ce qui pêche dans la version originale de SA. L’argument original focalise en effet sur la classe des simulations non-conscientes de leur propre nature de simulation. Il s’ensuit la succession de conclusions selon lesquelles il existera une plus grande proportion d’humains simulés que d’humains authentiques (C1A), que nous faisons partie des humains simulés (C2A) et finalement que nous sommes, plus probablement que nous ne l’aurions imaginé a priori, des humains simulés non-conscients de l’être (C3A). Cependant, ainsi que cela a été évoqué plus haut, la notion-même de simulation d’humains—elle-même associée à la classe des post-humains—se révèle ambiguë, et une telle classe peut en réalité être définie de différentes manières, compte tenu qu’il n’existe pas, dans SA, un critère objectif permettant de choisir une telle classe d’une manière qui ne soit pas arbitraire. En effet, on peut choisir la classe de référence par restriction, en identifiant les simulations à des quasi-humains, ou à des quasi-humains; dans ce cas, les post-humains sont ceux auxquels se réfère l’argument orignal, d’une époque beaucoup plus avancée que la nôtre. En revanche, si on se place à un certain niveau d’extension, les simulations s’assimilent à des simulations moins parfaites que celles de l’argument original, ainsi que celles de type cyborg comportant des uploads évolués ; dans un tel cas, les post-humains associés sont ceux d’une époque moins éloignée. Enfin, si on effectue le choix de la classe de référence à un niveau plus grand d’extension, les simulations sont des simulations grossières, à peine meilleures que nous sommes actuellement capables de réaliser, ou bien des simulations de type cyborgs avec un degré d’intégration de parties simulées légèrement supérieur à celui que nous connaissons actuellement ; dans un tel cas, la classe des post-humains associée est celle des humains qui nous succéderont d’ici quelques années. On le voit, on peut effectuer le choix de la classe de référence qui sous-tend SA à différents niveaux de restriction ou d’extension. Mais selon que la classe sera choisie à tel ou tel niveau de restriction ou d’extension, une conclusion tout à fait différente s’ensuivra. Ainsi, le choix par restriction de simulations parfaites et non-conscientes de leur nature de simulation, comme le fait l’argument original, conduit à une conclusion inquiétante. En revanche, le choix à un niveau d’extension un peu plus grand, de simulations parfaites mais conscientes de leur nature de simulation, conduit à une conclusion rassurante. Et de même, le choix, à un niveau d’extension plus grand encore, des simulations grossières ou des simulations de type cyborg, entraîne également une conclusion rassurante. Ainsi, l’analyse qui précède montre que dans la version originale de SA, le choix se porte de manière préférentielle, par restriction, sur la classe de référence des quasi-humains, à laquelle est associée une conclusion inquiétante, alors-même qu’un choix par extension, prenant en compte les quasi-humains+, les simulations grossières, les simulations de type cyborg, etc., conduit à une conclusion rassurante. Finalement, le choix préférentiel dans l’argument original de la classe des quasi-humains, apparaît ainsi comme un choix arbitraire que rien ne vient justifier, alors-même que d’autres choix possèdent une égale légitimité. Car l’énoncé de SA ne comporte aucun élément objectif permettant d’effectuer le choix de la classe de référence d’une manière non-arbitraire. Dans ce contexte, la conclusion inquiétante associée à l’argument original apparaît également comme une conclusion arbitraire, alors-même qu’il existe plusieurs autres classes de référence qui possèdent un degré égal de pertinence vis-à-vis de l’argument lui-même, et desquelles découlent une conclusion tout à fait rassurante3.


Références

Bostrom, N. (2003) Are You a Living in a Computer Simulation?, Philosophical Quarterly, 53, 243-55

Bostrom, N. (2005) Reply to Weatherson, Philosophical Quarterly, 55, 90-97

Bostrom, N. (2006) ‘How long before superintelligence?’, Linguistic and Philosophical Investigations, 5-1, 11—30

De Garis, H.D., Shuo, C., Goertzel, B., Ruiting, L. (2010) A world survey of artificial brain projects, part i: Large-scale brain simulations, Neurocomputing, 74(1-3), 3-29

Eckhardt, W. (1993) ‘Probability Theory and the Doomsday Argument’, Mind, 102, 483-88

Eckhardt, W. (1997) ‘A Shooting-Room View of Doomsday’, Journal of Philosophy, 94, 244-259

Eckhardt, W. (2013) Paradoxes in probability Theory, Dordrecht, New York : Springer

Franceschi, P. (2009) A Third Route to the Doomsday Argument, Journal of Philosophical Research, 34, 263-278, traduction en français

Franceschi, P. (2014) Eléments d’un contextualisme dialectique, dans Liber Amicorum Pascal Engel, édité par J. Dutant, D. Fassio & A. Meylan, 581-608, English translation under the title Elements of Dialectical Contextualism, cogprints.org/9225

Kurzweil, R. (2000) The Age of Spiritual Machines: When Computers Exceed Human Intelligence, New York & London: Penguin Books

Kurzweil, R. (2005) The Singularity is Near, New York : Viking Press

Moravec, H. (1998) When will computer hardware match the human brain?, Journal of Evolution and Technology, vol. 1

Sandberg, A & Bostrom, N. (2008) Whole Brain Emulation: a Roadmap, Technical Report #2008-3, Future of Humanity Institute, Oxford University

1 William Eckhardt (2013, p. 15) considère que—de manière identique à l’argument de l’Apocalypse (Eckhardt 1993, 1997, Franceschi 2009)— le problème inhérent à SA provient de l’usage de la rétro-causalité et du problème lié à la définition de la classe de référence : ‘if simulated, are you random among human sims? hominid sims? conscious sims?‚’.

2 Nous laisserons de côté ici la question de savoir si l’on doit prendre en compte un nombre infini d’humains simulés. Tel pourrait être le cas si le niveau ultime de réalité était abstrait. Dans ce cas, la classe de référence pourrait inclure des humains simulés qui s’identifient, par exemple, à des matrices de très grands nombres entiers. Mais Bostrom répond à une telle objection dans sa FAQ (www.simulation-argument.com/faq.html) et indique que dans ce cas, les calculs ne valent plus (le dénominateur est infini) et le ratio n’est pas défini. Nous laisserons donc de côté cette hypothèse, en concentrant notre argumentation sur ce qui constitue le cœur de SA, c’est-à-dire le cas où le nombre de simulations d’humains est fini.

3 La présente analyse constitue une application directe à l’argument de la Simulation de la forme de contextualisme dialectique décrit dans Franceschi (2014).

Une troisième voie pour l’argument de l’Apocalypse

Une troisième voie pour l’argument de l’Apocalypse

Paul Franceschi

Université de Corse

à paraître dans le Journal of Philosophical Research

Dans ce qui suit, je m’attacherai à présenter une solution au problème posé par l’argument de l’Apocalypse (DA, dans ce qui suit). La solution ainsi décrite constitue une troisième voie, par rapport à d’une part, l’approche qui est celle des promoteurs de DA (Leslie 1993, 1996) et d’autre part, la solution préconisée par ses détracteurs (Eckhardt 1993, 1997 ; Sowers 2002).1

1. L’argument de l’Apocalypse et le modèle de Carter-Leslie

Pour les besoins de la présente discussion, il convient tout d’abord de présenter brièvement DA. Cet argument peut être décrit comme un raisonnement qui conduit à un décalage bayesien, à partir d’une analogie entre ce qui a été dénommé l’expérience des deux urnes (two-urn case2) et la situation humaine correspondante.

Considérons tout d’abord, l’expérience des deux urnes (adapté de Bostrom 1997) :

L’expérience des deux urnes Une urne3 opaque se trouve devant vous. Vous savez qu’elle contient soit 10, soit 1000 boules numérotées. Une pièce équilibrée a en effet été lancée au temps T0 et si la pièce est tombée sur pile, alors 10 boules ont été placées dans l’urne ; en revanche, si la pièce est tombée sur face, ce sont 1000 boules qui ont été placées dans l’urne. Les boules sont numérotées 1, 2, 3, …. Vous formulez alors les hypothèses Hpeu (l’urne ne contient que 10 boules) et Hbeaucoup (l’urne contient 1000 boules) avec les probabilités initiales P(Hpeu) = P(Hbeaucoup) = 1/2.

Informé de tout ce qui précède, vous tirez au temps T1 une boule au hasard dans l’urne. Vous obtenez ainsi la boule n° 5. Vous vous attachez à estimer le nombre de boules qui étaient contenues en T0 dans l’urne. Vous concluez alors à un décalage bayesien vers le haut en faveur de l’hypothèse Hpeu.

L’expérience des deux urnes constitue une application non controversée du théorème de Bayes. Elle est basée sur les deux hypothèses concurrentes suivantes :

(H1peu)l’urne contient 10 boules
(H2beaucoup)l’urne contient 1000 boules

et les probabilités initiales correspondantes : P(H1) = P(H2) = 1/2. En prenant en compte le fait que E dénote l’élément matériel avéré selon lequel la boule tirée au hasard porte le numéro 5 et que P(E|H1) = 1/10 et P(E|H2) = 1/1000, un décalage bayesien vers le haut s’ensuit, par application directe du théorème de Bayes. Par conséquent, les probabilités a posteriori sont telles que P'(H1) = 0.99 et P'(H2) = 0.01.

Considérons, en second lieu, la situation humaine correspondant à DA. En s’intéressant au nombre total d’humains que comptera finalement l’espèce humaine, on considère les deux hypothèses concurrentes suivantes :

(H3peu)le nombre total des humains ayant jamais existé s’élèvera à 1011 (Apocalypse proche)
(H4beaucoup)le nombre total des humains ayant jamais existé s’élèvera à 1014 (Apocalypse lointaine)

Il apparaît maintenant que chaque humain possède son propre rang de naissance, et que le votre, par exemple, est environ 60×109. Supposons également, par souci de simplicité, que les probabilités a priori soient telles que P(H3) = P(H4) = 1/2. Maintenant, selon Carter et Leslie, la situation humaine correspondant à DA est analogue au modèle des deux urnes.4 Si l’on dénote par E le fait que notre rang de naissance est 60×109, une application du théorème de Bayes, en prenant en compte le fait que P(E|H3) = 1/1011 et que P(E|H4) = 1/1014, conduit à un important décalage bayesien en faveur de l’hypothèse d’une Apocalypse prochaine, soit P'(H3) = 0.999. L’importance du décalage bayesien qui résulte de ce raisonnement, associé à une situation très inquiétante quant au devenir de l’humanité, à partir de la seule prise en compte de notre rang de naissance, apparaît contraire à l’intuition. En soi, ceci constitue un problème, qui nécessite qu’on s’attache à lui trouver une solution.

Dans un tel contexte, il apparaît qu’une solution à DA se doit de présenter les caractéristiques suivantes. En premier lieu, elle doit indiquer dans quelle mesure la situation humaine correspondant à DA est analogue au modèle des deux urnes ou éventuellement, à un modèle alternatif, dont les caractéristiques sont à préciser. En second lieu, une telle solution à DA doit indiquer dans quelle mesure le ou les modèles en analogie avec la situation humaine correspondant à DA se trouvent associés à une situation effrayante pour l’avenir de l’humanité.

Dans ce qui suit, je m’attacherai à présenter une solution pour DA. Afin d’élaborer cette dernière, il sera nécessaire tout d’abord de construire l’espace des solutions de DA. Une telle construction constitue une tâche non triviale, car elle nécessite la prise en considération non seulement de plusieurs objections qui ont été soulevées contre DA, mais aussi du problème de la classe de référence. Au sein de cet espace des solutions, les solutions préconisées par les défenseurs ainsi que par les détracteurs de DA, prennent naturellement place. Je montrerai finalement qu’au sein de l’espace des solutions ainsi constitué, il y a place pour une troisième voie, qui constitue une solution par essence différente de celle offerte par les défenseurs et les détracteurs de DA.

2. Échec d’un modèle alternatif fondé sur l’objection incrémentale d’Eckhardt et al.

DA est basé sur la mise en correspondance d’un modèle probabiliste – le modèle des deux urnes – avec la situation humaine correspondant à DA. Afin de construire l’espace des solutions pour DA, il convient de s’attacher à définir les modèles qui constituent des alternatives au modèle des deux urnes, et qui peuvent également être mis en correspondance avec la situation humaine correspondant à DA. Plusieurs modèles alternatifs ont notamment été décrits par les opposants à DA. Cependant, pour des raisons qui deviendront claires un peu plus loin, tous ces modèles ne peuvent être retenus valablement en tant que modèle alternatif au modèle des deux urnes, et prendre ainsi place au sein de l’espace des solutions pour DA. Il convient ainsi de distinguer parmi ces modèles proposés par les détracteurs de DA, ceux qui ne constituent pas d’authentiques modèles alternatifs, et ceux qui peuvent légitimement être intégrés au sein de l’espace des solutions de DA.

Un certain nombre d’objections à DA ont tout d’abord été formulées par William Eckhardt (1993, 1997). Pour les besoins de la présente discussion, il convient de distinguer deux objections, parmi celles qui ont été soulevées par Eckhardt, et que j’appellerai respectivement : l’objection incrémentale et l’objection diachronique. À chacune de ces deux objections est associé une expérience qui se propose de constituer un modèle alternatif au modèle des deux urnes.

Commençons tout d’abord par l’objection incrémentale, mentionnée dans Eckhardt (1993, 1997) et le modèle alternatif qui lui est associé. Récemment, George Sowers (2002) et Elliott Sober (2003) s’en sont fait l’écho. Selon cette objection, l’analogie avec l’urne qui se trouve à l’origine de DA, est mal fondée. En effet, dans l’expérience des deux urnes, le numéro de la boule est choisi au hasard. En revanche, soulignent ces auteurs, dans le cas de la situation humaine correspondant à DA, notre rang de naissance n’est pas choisi au hasard, mais se trouve en fait indexé sur la position temporelle correspondante. Par conséquent, souligne Eckhardt, l’analogie dans le modèle des deux urnes n’est pas fondée et l’ensemble du raisonnement s’en trouve invalidé. Sober (2003) développe une argumentation similaire,5 en soulignant qu’aucun mécanisme ayant pour objet d’assigner de manière aléatoire une position temporelle aux êtres humains, ne peut être mis en évidence. Enfin, une telle objection a récemment été ravivée par Sowers. Ce dernier a mis l’accent sur le fait que le rang de naissance de chaque humain n’est pas aléatoire, car il se trouve indexé sur la position temporelle correspondante.

Selon le point de vue développé par Eckhardt et al., la situation humaine correspondant à DA n’est pas analogue à l’expérience des deux urnes, mais plutôt à un modèle alternatif, qui peut être appelé le distributeur d’objets consécutifs (consecutive token dispenser). Le distributeur d’objets consécutifs est un dispositif, décrit à l’origine par Eckhardt,6 qui éjecte à intervalles réguliers des boules numérotées consécutivement : “(…) suppose on each trial the consecutive token dispenser expels either 50 (early doom) or 100 (late doom) consecutively numbered tokens at the rate of one per minute”. Un dispositif similaire – appelons-le le distributeur de boules numérotées – est également mentionné par Sowers, où les boules sont éjectées de l’urne et numérotées selon l’ordre de leur éjection, à l’intervalle régulier d’une par minute :7

There are two urns populated with balls as before, but now the balls are not numbered. Suppose you obtain your sample with the following procedure. You are equipped with a stopwatch and a marker. You first choose one of the urns as your subject. It doesn’t matter which urn is chosen. You start the stopwatch. Each minute you reach into the urn and withdraw a ball. The first ball withdrawn you mark with the number one and set aside. The second ball you mark with the number two. In general, the nth ball withdrawn you mark with the number n. After an arbitrary amount of time has elapsed, you stop the watch and the experiment. In parallel with the original scenario, suppose the last ball withdrawn is marked with a seven. Will there be a probability shift? An examination of the relative likelihoods reveals no.

Ainsi, en vertu du point de vue défendu par Eckhardt et al., la situation humaine correspondant à DA n’est pas en analogie avec l’expérience des deux urnes, mais bien avec le distributeur de boules numérotées. Et ce dernier modèle conduit à laisser inchangées les probabilités initiales.

L’objection incrémentale d’Eckhardt et al. se trouve basée sur une disanalogie. En effet, la situation humaine correspondant à DA présente une nature temporelle, car les rangs de naissance sont successivement attribués aux humains en fonction de la position temporelle correspondant à leur apparition sur Terre. Ainsi, la situation correspondante prend place, par exemple, de T1 à Tn, où 1 et n sont respectivement les rang de naissance du premier et du dernier humain. En revanche, l’expérience des deux urnes se révèle atemporelle, car au moment où la boule est tirée au hasard, toutes les boules sont déjà présentes dans l’urne. L’expérience des deux urnes prend ainsi place à un moment donné T0. Il apparaît ainsi que l’expérience des deux urnes consiste en un modèle atemporel, alors que la situation correspondant à DA correspond à un modèle temporel. Et ceci interdit, soulignent Eckhardt et al., de considérer la situation correspondant à DA et l’expérience des deuxurnes comme isomorphes.8

À ce stade, il s’avère que la disanalogie atemporelle-temporelle constitue bien une réalité et qu’elle ne peut être niée. Toutefois, ceci ne constitue pas un obstacle insurmontable pour DA. On le verra en effet, il est possible de mettre en analogie la situation humaine correspondant à DA, avec une variation temporelle du modèle des deux urnes. Il suffit pour cela de considérer l’expérience suivante, que l’on peut dénommer l’expérience des deux urnes incrémentale (formellement, l’expérience des deux urnes++) :

L’expérience des deux urnes++ Une urne opaque se trouve devant vous. Vous savez qu’elle contient soit 10, soit 1000 boules numérotées. Une pièce équilibrée a en effet été lancée au temps T0 et si la pièce est tombée sur pile, alors l’urne ne contient que 10 boules ; en revanche, si la pièce est tombée sur face, l’urne contient ces mêmes 10 boules plus 990 boules supplémentaires, soient 1000 boules au total. Les boules sont numérotées 1, 2, 3, …. Vous formulez alors les hypothèses Hpeu (l’urne ne contient que 10 boules) et Hbeaucoup (l’urne contient 1000 boules) avec les probabilités initiales P(Hpeu) = P(Hbeaucoup) = 1/2. Au temps T1, un dispositif tirera dans l’urne une boule au hasard, puis expulsera à chaque seconde une boule numérotée dans l’ordre croissant, de la boule n° 1 jusqu’au numéro de la boule tirée au hasard. À ce moment précis, le dispositif s’arrêtera.

Vous êtes informé de tout ce qui précède, et le dispositif expulse alors la boule n° 1 en T1, la boule n° 2 en T2, la boule n° 3 en T3, la boule n° 4 en T4, puis la boule n° 5 en T5. Le dispositif s’arrête alors. Vous vous attachez à estimer le nombre de boules qui étaient contenues en T0 dans l’urne. Vous concluez alors à un décalage bayesien vers le haut en faveur de l’hypothèse Hpeu.

On le voit, une telle variation constitue une adaptation simple du modèle des deux urnes original, avec l’ajout d’un mécanisme incrémental pour l’expulsion des boules. La nouveauté avec cette variation9 réside dans le fait que l’expérience présente maintenant un aspect temporel, puisque la sélection aléatoire est effectuée en T1 et que la boule tirée au hasard est finalement éjectée, par exemple, en T5.

À ce stade, il convient également d’analyser les conséquences de l’expérience des deux urnes++ sur l’analyse développée par Eckhardt et al. En effet, dans l’expérience des deux urnes++, le numéro de chacune des boules éjectées du dispositif est indexé sur le rang de leur expulsion. Par exemple, je tire la boule n°60000000000. Mais je sais également que la boule précédente était la boule n°59999999999 et que l’avant-dernière boule était la boule n°59999999998, etc. Cependant, cela ne m’empêche pas de raisonner de la même manière que dans l’expérience des deux urnes originale et de conclure à un décalage bayesien en faveur de l’hypothèse Hpeu. Dans ce contexte, l’expérience des deux urnes++ conduit à la conséquence suivante : le fait d’être indexé par rapport au temps n’implique pas que le numéro de la boule ne soit pas choisi de manière aléatoire. Ceci peut maintenant être confronté avec la thèse principale de l’objection incrémentale développée par Eckhardt et al., selon laquelle le rang de naissance de chaque humain n’est pas choisi de manière aléatoire, mais se révèle indexé sur la position temporelle correspondante. Sowers en particulier considère que la cause de DA réside dans le fait que le numéro correspondant au rang de naissance se trouve indexé par rapport au temps.10 Mais ce que l’expérience des deux urnes++ et l’analogie correspondante démontrent, c’est que notre rang de naissance peut être indexé par rapport au temps et se trouver néanmoins déterminé de manière aléatoire dans le contexte qui est celui de DA. Pour cette raison, le modèle du distributeur de boules numérotées proposé par Eckhardt et Sowers ne peut pas être pris en considération en tant que modèle alternatif au modèle des deux urnes, au sein de l’espace des solutions de DA.

3. Succès d’un modèle alternatif fondé sur l’objection diachronique de William Eckhardt

William Eckhardt (1993, 1997) expose également une autre objection à DA, que nous appellerons, pour les besoins de la présente discussion, l’objection diachronique. Cette dernière objection, on le verra, est basée sur un modèle alternatif à l’expérience des deux urnes, qui est différent de celui qui correspond à l’objection incrémentale. Eckhardt (1997, p. 256) souligne ainsi le fait qu’il est impossible d’effectuer une sélection aléatoire, dès lorsqu’il existe de nombreux individus qui ne sont pas encore nés au sein de la classe de référence correspondante : “How is it possible in the selection of a random rank to give the appropriate weight to unborn members of the population?”.

Cette seconde objection est potentiellement plus forte que l’objection incrémentale. Afin d’en évaluer la portée précise, il convient maintenant de la traduire en termes de modèle. Il apparaît que le modèle associé à l’objection diachronique d’Eckhardt peut être construit, à partir de la structure du modèle des urnes. La version correspondante, qui peut être dénommée l’expérience des deux urnes diachronique, est la suivante :

L’expérience des deux urnes diachronique Une urne opaque se trouve devant vous. Vous savez qu’elle contient soit 10, soit 1000 boules numérotées. Une pièce équilibrée a en effet été lancée au temps T0. Si la pièce est tombée sur pile, 10 boules ont alors été placées dans l’urne ; en revanche, si la pièce est tombée sur face, 10 boules ont également été placées dans l’urne au temps T0, mais 990 boules supplémentaires seront ensuite ajoutées dans l’urne au temps T2, portant ainsi le nombre total de boules finalement contenues dans l’urne à 1000. Les boules sont numérotées 1, 2, 3, …. Vous formulez alors les hypothèses Hpeu (l’urne ne contient finalement que 10 boules) et Hbeaucoup (l’urne contient finalement 1000 boules) avec les probabilités initiales P(Hpeu) = P(Hbeaucoup) = 1/2.

Informé de tout ce qui précède, vous tirez au temps T1 une boule au hasard dans l’urne. Vous obtenez ainsi la boule n° 5. Vous vous attachez à estimer le nombre de boules qui seront finalement contenues dans l’urne en T2. Vous concluez alors que les probabilités initiales demeurent inchangées.

À ce stade, il apparaît que le protocole qui vient d’être décrit rend justice à l’idée forte d’Eckhardt selon laquelle il est impossible d’effectuer une sélection aléatoire lorsqu’il existe de nombreux membres au sein de la classe de référence qui ne sont pas encore nés. Dans le modèle des deux urnes diachronique, les 990 boules qui sont éventuellement (si la pièce tombe sur face) ajoutées en T2 représentent en effet ces membres non encore nés. Dans une telle situation, il serait tout à fait erroné de conclure à un décalage bayesien en faveur de l’hypothèse Hpeu. En revanche, ce que l’on peut inférer de manière rationnelle dans un tel cas, c’est que les probabilités initiales demeurent inchangées.

On peut constater en outre que la structure du protocole de l’expérience des deux urnes diachronique se révèle tout à fait similaire à celui de l’expérience des deux urnes originale (que nous appellerons désormais l’expérience des deux urnes synchronique). Ceci permet désormais d’effectuer aisément des comparaisons. On constate ainsi que si la pièce tombe sur pile : la situation est identique dans les deux expériences, synchronique et diachronique. En revanche, la situation est différente si la pièce tombe sur face : dans le modèle des deux urnes synchronique, les 990 boules supplémentaires sont déjà présentes dans l’urne en T0 ; à l’inverse, dans le modèle des deux urnes diachronique, les 990 boules supplémentaires sont ajoutées dans l’urne ultérieurement, c’est-à-dire en T2. On le voit ainsi, le modèle des deux urnes diachronique fondé sur l’objection diachronique d’Eckhardt mérite tout à fait de prendre sa place au sein de l’espace des solutions de DA.

4. Construction de l’espace des solutions préliminaire

Compte tenu de ce qui précède, nous sommes maintenant en position d’apprécier à quel point l’analogie qui sous-tend DA se révèle adéquate. Il apparaît en effet que deux modèles alternatifs pour modéliser l’analogie avec la situation humaine correspondant à DA se trouvent en concurrence : d’une part le modèle des deux urnes synchronique préconisé par les promoteurs de DA et d’autre part, le modèle des deux urnes diachronique, fondé sur l’objection diachronique d’Eckhardt. Il s’avère que ces deux modèles présentent une structure commune, ce qui permet ainsi d’effectuer des comparaisons11.

À ce stade, la question qui se pose est la suivante : la situation humaine correspondant à DA est-elle en analogie avec (a) le modèle des deux urnes synchronique, ou bien à (b) le modèle des deux urnes diachronique ? Afin d’y répondre, la question suivante s’ensuit : existe-t-il un critère objectif qui permette de choisir, de manière préférentielle, entre les deux modèles concurrents ? Il apparaît que non. En effet, ni Leslie ni Eckhardt ne présentent une motivation objective qui permette de justifier le choix du modèle qu’ils préconisent, et d’écarter le modèle alternatif. Leslie tout d’abord, défend l’analogie de la situation humaine correspondant à DA avec l’expérience de la loterie (ici, l’expérience des deux urnes synchronique). Mais parallèlement, Leslie reconnaît que DA est considérablement affaibli si notre univers est d’une nature indéterministe, c’est-à-dire si le nombre total d’humains qui existeront n’est pas encore fixé.12 Or il s’avère qu’une telle situation indéterministe correspond tout à fait au modèle des deux urnes diachronique. Car le protocole de cette expérience prend en compte le fait que le nombre total de boules qui seront finalement contenues dans l’urne, n’est pas connu au moment où le tirage aléatoire est effectué. On le voit finalement, Leslie accepte libéralement que l’analogie avec le modèle des deux urnes synchronique puisse ne pas prévaloir dans certaines circonstances indéterministes, où comme on l’a vu, ce serait alors le modèle des deux urnes diachronique qui s’appliquerait.

Parallèlement, une faiblesse dans le point de vue défendu par Eckhardt réside dans le fait qu’il rejette l’analogie avec l’expérience de la loterie (ici, l’expérience des deux urnes synchronique) dans tous les cas. Mais comment peut-on avoir la certitude qu’une analogie avec le modèle des deux urnes synchronique ne prévaut pas, au moins pour une situation particulière donnée ? Il apparaît ici que les éléments probants qui permettent d’écarter une telle hypothèse avec une certitude absolue, font défaut.

Résumons maintenant. Au sein de l’espace des solutions pour DA qui résulte de ce qui précède, il s’ensuit désormais que deux modèles concurrents peuvent convenir également pour modéliser la situation humaine correspondant à DA : le modèle des deux urnes synchronique de Leslie ou le modèle des deux urnes diachronique d’Eckhardt. À ce stade toutefois, il apparaît qu’aucun critère objectif ne permet à ce stade d’accorder la préférence à l’un ou l’autre de ces deux modèles. Dans ces circonstances, en l’absence d’éléments objectifs permettant d’effectuer un choix entre les deux modèles concurrents, nous sommes conduits à appliquer un principe d’indifférence, qui conduit à retenir les deux modèles comme globalement équiprobables. Nous attribuons ainsi (Figure 1), en vertu d’un principe d’indifférence, une probabilité P de 1/2 à l’analogie avec le modèle des deux urnes synchronique (associé à un scénario terrifiant), et une probabilité identique de 1/2 à l’analogie avec le modèle des deux urnes diachronique (associé à un scénario rassurant).

CasModèleT0T2PNature du scénario
1modèle des deux urnes synchronique1/2terrifiant
2modèle des deux urnes diachronique1/2rassurant

Figure 1.

Une telle approche revêt toutefois un caractère préliminaire, car afin d’attribuer une probabilité précise à chacune des situations inhérentes à DA, il est nécessaire de prendre en considération l’ensemble des éléments qui sous-tendent DA. Or il apparaît qu’un élément essentiel de DA n’a pas encore été pris en compte. Il s’agit du délicat problème de la classe de référence.

5. Le problème de la classe de référence

Commençons tout d’abord par rappeler le problème de la classe de référence (reference class problem).13 Sommairement, il s’agit du problème de la définition correcte des “humains”. De manière plus précise, le problème peut être ainsi énoncé : comment la classe de référence peut-elle être objectivement définie dans le contexte de DA ? Car une définition plus ou moins extensive ou restrictive de la classe de référence peut être utilisée. Une classe de référence définie de manière extensive inclurait par exemple des variétés quelque peu exotiques correspondant à des évolutions futures de notre humanité, possédant par exemple un quotient intellectuel moyen égal à 200, un double cerveau ou bien des capacités pour la causalité rétrograde. À l’inverse, une classe de référence définie de manière restrictive n’inclurait que les humains dont les caractéristiques sont très exactement celles de – par exemple – notre sous-espèce homo sapiens sapiens. Une telle définition exclurait ainsi l’espèce éteinte homo sapiens neandertalensis, de même qu’une éventuelle future sous-espèce telle qu’homo sapiens supersapiens. Pour mettre cela en adéquation avec notre actuelle taxonomie, la classe de référence peut être définie à différents niveaux qui correspondent respectivement au super-genre superhomo, au genre homo, à l’espèce homo sapiens, à la sous-espèce homo sapiens sapiens, etc. À ce stade, il apparaît qu’un critère objectif permettant de choisir le niveau correspondant d’une manière qui ne soit pas arbitraire, fait défaut.

La solution proposée par Leslie’s au problème de la classe de référence, exposée dans la réponse faite à Eckhardt (1993) et dans The End of the World (1996), est la suivante : on peut choisir la classe de référence plus ou moins comme on le souhaite, c’est-à-dire à n’importe quel niveau d’extension ou de restriction. Une fois ce choix effectué, il suffit d’ajuster en conséquence les probabilités initiales, et DA fonctionne à nouveau. La seule réserve énoncée par Leslie est que la classe de référence ne doit pas être choisie à un niveau extrême d’extension ou de restriction.14 Pour Leslie, le fait que chaque humain puisse appartenir à différentes classes, selon qu’elles sont définies de manière restrictive ou extensive, ne constitue pas un problème, puisque l’argument fonctionne pour chacune de ces classes. Dans ce cas, indique Leslie, un décalage bayesien s’ensuit quelque soit la classe de référence, choisie à un niveau raisonnable d’extension ou de restriction. Et Leslie illustre ce point de vue par une analogie avec une urne multicolore, à la différence de l’urne unicolore de l’expérience des deux urnes originale. Il considère ainsi une urne qui contient des boules de différentes couleurs, par exemple rouges et vertes. Une boule rouge est tirée au hasard dans l’urne. D’un point de vue restrictif, la boule constitue une boule rouge et il n’y a alors pas de différence avec le modèle des deux urnes. Mais d’un point de vue plus extensif, la boule constitue aussi une boule rouge ou verte.15 Selon Leslie, bien que les probabilités initiales soient différentes dans chaque cas, un décalage bayesien s’ensuit dans les deux cas.16 On le voit, le modèle des deux urnes synchronique peut aisément être adapté pour restituer l’essence du modèle multicolore de Leslie. Il suffit en effet de remplacer les boules rouges de l’expérience des deux urnes synchronique originale, par des boules rouges ou vertes. Le modèle bicolore qui en résulte est alors en tous points identique à l’expérience des deux urnes synchronique originale, et conduit à un décalage bayesien de même nature.

À ce stade, afin d’intégrer adéquatement le problème de la classe de référence au sein de l’espace des solutions pour DA, il reste encore à traduire le modèle des deux urnes diachronique en une version bicolore.

5.1 Le modèle des deux urnes diachronique bicolore

Dans l’expérience unicolore originale qui correspond au modèle des deux urnes diachronique, la classe de référence est celle des boules rouges. Il apparaît ici que l’on peut construire une variation bicolore, adaptée au traitement du problème de la classe de référence, où la classe pertinente est celle des boules rouges ou vertes. La variation bicolore correspondante est alors en tous points identique à l’expérience des deux urnes diachronique originale, à la seule différence que les 10 premières boules (1 à 10) sont rouges et que les 990 autres boules (11 à 1000) sont vertes. La variation correspondante est ainsi la suivante :

L’expérience des deux urnes diachronique bicolore Une urne opaque se trouve devant vous. Vous savez qu’elle contient soit 10, soit 1000 boules numérotées (consistant en 10 boules rouges et 990 boules vertes). Les boules rouges sont numérotées 1, 2, …, 9, 10 et les boules vertes 11, 12, .., 999, 1000. Une pièce équilibrée a en effet été lancée au temps T0. Si la pièce est tombée sur pile, 10 boules ont alors été placées dans l’urne ; en revanche, si la pièce est tombée sur face, 10 boules rouges ont également placées dans l’urne au temps T0, mais 990 boules vertes supplémentaires seront ensuite ajoutées dans l’urne au temps T2, portant ainsi le nombre total de boules contenues dans l’urne à 1000. Vous formulez alors les hypothèses Hpeu (l’urne ne contient finalement que 10 boules rouges ou vertes) et Hbeaucoup (l’urne contient finalement 1000 boules rouges ou vertes) avec les probabilités initiales P(Hpeu) = P(Hbeaucoup) = 1/2.

Informé de tout ce qui précède, vous tirez au temps T1 une boule au hasard dans l’urne. Vous obtenez ainsi la boule rouge n° 5. Vous vous attachez à estimer le nombre de boules rouges ou vertes qui seront finalement contenues dans l’urne en T2. Vous concluez alors que les probabilités initiales demeurent inchangées.

On le voit, la structure de cette variation bicolore est en tous points analogue à celle de la version unicolore de l’expérience des deux urnes diachronique. On considère en effet ici la classe des boules rouges ou vertes, en lieu et place de la classe des boules rouges originale. Et dans ce type de situation, il est rationnel de conclure de la même manière que dans la version unicolore originale de l’expérience des deux urnes diachronique que les probabilités initiales demeurent inchangées.

5.2 Non-exclusivité du modèle synchronique unicolore et du modèle diachronique bicolore

À l’aide des outils permettant d’appréhender le problème de la classe de référence, nous sommes désormais en mesure d’achever la construction de l’espace des solutions pour DA, en intégrant les éléments qui viennent d’être décrits. De manière préliminaire, nous avons attribué une probabilité de 1/2 à chacun des modèles des deux urnes unicolores -synchroniqueetdiachronique – en leur associant respectivement un scénario terrifiant et rassurant. Qu’en est-il désormais, compte tenu de la présence de modèles bicolores, permettant désormais d’appréhender le problème lié à la classe de référence ?

Avant d’évaluer l’impact du modèle bicolore sur l’espace des solutions de DA, il convient tout d’abord de définir comment s’effectue la mise en correspondance des modèles bicolores avec notre situation humaine actuelle. Pour cela, il suffit d’assimiler la classe des boules rouges à notre sous-espèce actuelle homo sapiens sapiens et la classe des boules rouges ou vertes à notre actuelle espèce homo sapiens. De même, on assimilera la classe des boules vertes à la sous-espèce homo sapiens supersapiens, une sous-espèce plus avancée que la notre, qui correspond à une évolution d’homo sapiens sapiens. Une situation de ce type se révèle très courante dans le processus évolutionnel qui régit les espèces. Compte tenu de ces éléments, nous sommes désormais en mesure d’établir la mise en relation des modèles probabilistes avec notre situation actuelle.

À ce stade, il convient de noter une importante propriété du modèle diachronique bicolore. En effet, il s’avère que ce dernier modèle est susceptible de se combiner avec un modèle des deux urnes synchronique unicolore. Supposons en effet qu’un modèle des deux urnes synchronique unicolore prévale : 10 boules ou 1000 boules rouges sont placées dans l’urne en T0. Mais cela n’exclut pas que des boules vertes soient également ajoutées dans l’urne en T2. Il apparaît ainsi que le modèle synchronique unicolore et le modèle diachronique bicolore ne sont pas exclusifs l’un de l’autre. Car dans une telle situation, un modèle des deux urnes synchronique unicolore prévaut pour la classe restreinte des boules rouges, tandis qu’un modèle diachronique bicolore s’applique à la classe étendue des boules rouges ou vertes. À ce stade, il apparaît que nous nous trouvons sur une troisième voie, d’essence pluraliste. Car le fait de mettre en correspondance la situation humaine correspondant à DA avec le modèle synchronique ou bien (de manière exclusive) le modèle diachronique, constituent bien des attitudes monistes. À l’inverse, le fait de reconnaître le rôle conjoint joué par chacun des modèles synchronique et diachronique, constitue l’expression d’un point de vue pluraliste. Dans ces circonstances, il s’avère nécessaire d’analyser l’impact sur l’espace des solutions de DA de la propriété de non-exclusivité qui vient d’être soulignée.

Compte tenu de ce qui précède, il apparaît que quatre types de situations doivent désormais être distingués, au sein de l’espace des solutions de DA. En effet, chacun des deux modèles unicolores initiaux – synchronique et diachronique – peut être associé à un modèle des deux urnes diachronique bicolore. Commençons ainsi par le cas (1) où le modèle synchronique unicolore s’applique. Dans ce cas, on est amené à distinguer deux types de situations : soit (1a) rien ne se passe en T2 et aucune boule verte n’est ajoutée dans l’urne en T2 ; soit (1b) 990 boules vertes sont ajoutées dans l’urne en T2. Dans le premier cas (1a) où aucune boule verte n’est ajoutée dans l’urne en T2, on a bien une disparition rapide de la classe des boules rouges. De même, on a une disparition corrélative de la classe des boules rouges ou vertes, puisqu’elle s’identifie ici avec la classe des boules rouges. Dans un tel cas, l’extinction rapide d’homo sapiens sapiens (les boules rouges) n’est pas suivie par l’apparition d’homo sapiens supersapiens (les boules vertes). Dans un tel cas, on observe l’extinction rapide de la sous-espèce homo sapiens sapiens et l’extinction corrélative de l’espèce homo sapiens (les boules rouges ou vertes). Un tel scénario, on doit le reconnaître, correspond à une forme d’Apocalypse qui présente un caractère tout à fait effrayant.

Considérons maintenant le second cas (1b) où nous sommes toujours en présence d’un modèle synchronique unicolore, mais où cette fois, des boules vertes sont également ajoutées dans l’urne en T2. Dans ce cas, 990 boules vertes s’ajoutent en T2 aux boules rouges initialement placées dans l’urne en T0. On a alors une disparition rapide de la classe des boules rouges, mais qui s’accompagne de la survivance de la classe des boules rouges ou vertes, compte tenu de la présence des boules vertes en T2. Dans ce cas (1b), on constate qu’un modèle synchronique unicolore se trouve combiné avec un modèle diachronique bicolore. Les deux modèles se révèlent ainsi compatibles, et non-exclusifs l’un de l’autre. Si l’on traduit cela en termes de troisième voie, on constate, en conformité avec l’essence pluraliste de cette dernière, que le modèle synchronique unicolore s’applique à la classe, restrictivement définie, des boules rouges, alors qu’un modèle diachronique bicolore s’applique également à la classe, définie de manière extensive, des boules rouges ou vertes. Dans ce cas (1b), l’extinction rapide d’homo sapiens sapiens (les boules rouges) est suivie par l’apparition de la sous-espèce humaine plus évoluée homo sapiens supersapiens (les boules vertes). Dans une telle situation, la classe restreinte homo sapiens sapiens se trouve éteinte, alors que la classe plus étendue homo sapiens (les boules rouges ou vertes) survit. Alors que le modèle synchronique unicolore s’applique à la classe restreinte homo sapiens sapiens, le modèle diachronique bicolore prévaut pour la classe plus étendue homo sapiens. Mais une telle caractéristique ambivalente a pour effet de priver l’argument original de la terreur qui est initialement associée avec le modèle synchronique unicolore. Et finalement, cela a pour effet de rendre DA inoffensif, en le privant de sa terreur originelle. En même temps, ceci laisse le champ à l’argument pour s’appliquer à une classe de référence donnée, mais sans ses conséquences effrayantes et contraires à l’intuition.

Dans le cas (1) on le voit, le traitement correspondant du problème de la classe de référence se révèle différent de celui préconisé par Leslie. Car Leslie considère que le modèle synchronique s’applique quelle que soit la classe de référence choisie. Mais la présente analyse conduit à un traitement différencié du problème de la classe de référence. Dans le cas (1a), le modèle synchronique prévaut et un décalage bayesien s’applique, de même que dans le traitement de Leslie, à la fois à la classe des boules rouges et à celle des boules rouges ou vertes. En revanche, dans le cas (1b), la situation est différente. Car si un modèle synchronique unicolore s’applique bien à la classe de référence restreinte des boules rouges et conduit à un décalage bayesien, il apparaît qu’un modèle diachronique bicolore s’applique alors à la classe de référence étendue des boules rouges ou vertes, qui conduit à laisser les probabilités initiales inchangées. Dans ce cas (1b), on le voit, la troisième voie conduit à un traitement pluraliste du problème de la classe de référence.

Envisageons maintenant la seconde hypothèse (2) où c’est le modèle diachronique unicolore qui prévaut. Dans ce cas, 10 boules rouges sont placées dans l’urne en T0, puis 990 autres boules rouges sont ajoutées dans l’urne en T2. De même que précédemment, on est conduit à distinguer deux hypothèses. Soit (2a) aucune boule verte n’est ajoutée dans l’urne en T2 ; soit (2b) 990 boules vertes sont également ajoutées à l’urne en T2. Dans le premier cas (2a), le modèle diachronique unicolore s’applique. Dans une telle situation (2a), aucune apparition d’une sous-espèce humaine plus évoluée telle qu’homo sapiens supersapiens ne se produit. Mais le scénario correspondant à un tel cas se révèle également tout à fait rassurant, puisque notre sous-espèce homo sapiens sapiens survit. Dans le second cas (2b), où 990 boules vertes sont ajoutées dans l’urne en T2, un modèle diachronique bicolore s’ajoute au modèle diachronique unicolore initial. Dans une telle hypothèse (2b), il s’ensuit l’apparition de la sous-espèce plus évoluée homo sapiens supersapiens. Dans ce cas, le scénario correspondant se révèle doublement rassurant, puisqu’il conduit à la fois à la survivance d’homo sapiens sapiens et à celle d’homo sapiens supersapiens. On le voit, dans le cas (2), c’est le modèle diachronique qui demeure le modèle fondamental, conduisant à laisser les probabilités initiales inchangées.

À ce stade, nous sommes en mesure d’achever la construction de l’espace des solutions pour DA. En effet, une nouvelle application du principe d’indifférence conduit ici à attribuer une probabilité de 1/4 à chacun des 4 sous-cas : (1a), (1b), (2a), (2b). Ces derniers se trouvent représentés sur la figure ci-dessous :

CasT0T2P
11a1/4
1b1/4
22a1/4
2b● ○1/4

Figure 2.

Il suffit désormais de déterminer la nature du scénario qui est associé à chacun des quatre sous-cas qui viennent d’être décrits. Ainsi que cela a été discuté plus haut, un scénario inquiétant est associé à l’hypothèse (1a), alors qu’un scénario rassurant est associé aux hypothèses (1b), (2a) et (2b) :

CasT0T2PNature du scénarioP
11a1/4terrifiant1/4
1b1/4rassurant
22a1/4rassurant3/4
2b● ○1/4rassurant

Figure 3.

On le voit finalement, les considérations qui précèdent conduisent à une nouvelle formulation de DA. Car il résulte des développements précédents que la portée initiale de DA doit être réduite, dans deux directions différentes. En premier lieu, il convient de reconnaître que soit le modèle synchronique unicolore, soit le modèle diachronique unicolore s’applique à notre sous-espèce homo sapiens sapiens. Un principe d’indifférence conduit alors à attribuer une probabilité de 1/2 à chacune de ces deux hypothèses. Il en résulte un premier affaiblissement de DA, puisque le décalage bayesien associé à une hypothèse terrifiante ne concerne plus qu’un scénario sur deux. Un deuxième affaiblissement de DA résulte ensuite du traitement pluraliste du problème de la classe de référence. Car dans l’hypothèse où le modèle synchronique unicolore (1) s’applique à notre sous-espèce homo sapiens sapiens, deux situations différentes doivent être distinguées. L’une d’entre elles seulement (1a) conduit à la fois à la disparition d’homo sapiens sapiens et d’homo sapiens et correspond ainsi à une Apocalypse effrayante. En revanche, l’autre situation (1b) conduit à la disparition d’homo sapiens sapiens mais à la survivance de la sous-espèce humaine plus évoluée homo sapiens supersapiens, et constitue alors un scénario tout à fait rassurant. À ce stade, une seconde application du principe d’indifférence entraîne l’attribution d’une probabilité de 1/2 à chacun de ces deux sous-cas (cf. Figure 3). Au total, un scénario effrayant n’est plus associé désormais qu’avec une probabilité de 1/4, alors qu’un scénario rassurant se trouve associé avec une probabilité de 3/4.

On le voit, étant donné ces deux mouvements de recul, il en résulte une nouvelle formulation de DA, qui pourrait se révéler plus consensuelle que dans sa forme originale. En effet, la présente formulation de DA peut maintenant être réconciliée avec nos intuitions pré-théoriques. Car le fait de prendre en compte DA donne désormais une probabilité de 3/4 pour l’ensemble des scénarios rassurants et une probabilité qui n’est plus que de 1/4 pour un scénario associé à une Apocalypse effrayante. Bien sûr, nous n’avons pas fait complètement disparaître le risque d’une Apocalypse effrayante. Et nous devons, à ce stade, accepter un certain risque, dont la portée se révèle toutefois limitée. Mais surtout, il n’est plus nécessaire désormais de renoncer à nos intuitions pré-théoriques.

Finalement, ce qui précède met en lumière une facette essentielle de DA. Car dans un sens étroit, il s’agit d’un argument qui concerne le destin de l’humanité. Et dans un sens plus large (celui qui nous a concerné jusqu’ici) il met en avant la difficulté d’appliquer des modèles probabilistes aux situations de la vie courante,17 une difficulté qui est le plus souvent largement sous-estimée. Ceci ouvre la voie à un champ entier qui présente un réel intérêt pratique, consistant en une taxonomie de modèles probabilistes, dont l’importance philosophique serait demeurée cachée, sans la défense forte et courageuse de l’argument de l’Apocalypse effectuée par John Leslie.18


Références

Bostrom, N. (1997) ‘Investigations into the Doomsday argument, pré-publication à http://www.anthropic-principle.com/preprints/inv/investigations.html

Bostrom, N. (2002) Anthropic Bias: Observation Selection Effects in Science and Philosophy, New York: Routledge

Chambers, T. (2001) ‘Do Doomsday’s Proponents Think We Were Born Yesterday?’, Philosophy, 76, 443-50

Delahaye, J-P. (1996) ‘Recherche de modèles pour l’argument de l’apocalypse de Carter-Leslie’, manuscrit

Eckhardt, W. (1993) ‘Probability Theory and the Doomsday Argument’, Mind, 102, 483-88

Eckhardt, W. (1997) ‘A Shooting-Room view of Doomsday’, Journal of Philosophy, 94, 244-259

Franceschi, P. (1998) ‘Une solution pour l’Argument de l’Apocalypse’, Canadian Journal of Philosophy, 28, 227-46

Franceschi, P. (1999) ‘Comment l’urne de Carter et Leslie se déverse dans celle de Hempel’, Canadian Journal of Philosophy, 29, 139-56, traduction anglaise sous le titre ‘The Doomsday Argument and Hempel’s Problem’, http://cogprints.org/2172/

Franceschi, P. (2002) Une application des n-univers à l’Argument de l’Apocalypse et au paradoxe de Goodman, Corté: Université de Corse, dissertation doctorale, http://www.univ-corse.fr/~franceschi/Une%20application%20des%20n-univers.pdf

Hájek, A. (2002) ‘Interpretations of Probability’, The Stanford Encyclopedia of Philosophy, E. N. Zalta (ed.), http://plato.stanford.edu/archives/win2002/entries/probability-interpret

Korb, K. & Oliver, J. (1998) ‘A Refutation of the Doomsday Argument’, Mind, 107, 403-10

Leslie, J. (1993) ‘Doom and Probabilities’, Mind, 102, 489-91

Leslie, J. (1996) The End of the World: the science and ethics of human extinction, London: Routledge

Sober, E. (2003)‘An Empirical Critique of Two Versions of the Doomsday Argument – Gott’s Line and Leslie’s Wedge’, Synthese, 135-3, 415-30

Sowers, G. F. (2002) ‘The Demise of the Doomsday Argument’, Mind, 111, 37-45

1 La présente analyse de DA constitue le prolongement de Franceschi (2002).

2 Cf. Korb & Oliver (1998).

3 La description originale par Bostrom de l’expérience des deux urnes se réfère à deux urnes distinctes. Dans un souci de simplicité, je me réfère ici, de manière équivalente, à une seule urne (qui contient soit 10, soit 1000 boules).

4 De manière plus précise, Leslie considère une analogie avec l’expérience de la loterie.

5 Cf. (2003, p. 9): “But who or what has the propensity to randomly assign me a temporal location in the duration of the human race? There is no such mechanism”. Mais Sober s’intéresse surtout à fournir des preuves par rapport aux hypothèses utilisées dans la version originale de DA et à élargir le champ de l’argument en déterminant les conditions de son application à des situations concrètes.

6 Cf. (1997, p. 251).

7 Cf. (2002, p. 39).

8 J’emprunte cette terminologie à Chambers (2001).

9 D’autres variations de l’expérience des deux urnes++ peuvent même être envisagées. En particulier, des variations de l’expérience où le processus aléatoire s’opère de manière diachronique et non synchronique (c’est-à-dire au temps T0) peuvent être imaginées.

10 Cf. Sowers (2002, p. 40).

11Les expériences des deux urnes synchronique et diachronique peuvent toutes deux donner lieu à une variation incrémentale. La variation incrémentale de l’expérience des deux urnes (synchronique) a été mentionnée plus haut : il s’agit de l’expérience des deux urnes++. Il est de même possible de construire une variation incrémentale analogue pour l’expérience des deux urnes diachronique, où l’éjection des boules s’effectue à des intervalles temporels réguliers. À ce stade, il apparaît que les deux modèles concurrents peuvent donner lieu à une telle variation incrémentale. Ainsi, le fait de considérer les variations incrémentales des deux modèles concurrents – l’expérience des deux urnes++ synchronique et l’expérience des deux urnes++ diachronique, n’apporte pas ici d’élément nouveau par rapport aux deux expériences originales. De même, on pourrait considérer en effet des variations où le tirage aléatoire s’effectue non pas en T0, mais de manière progressive, ou des variations où une pièce quantique est utilisée, etc. Mais dans tous les cas, de telles variations sont susceptibles d’être adaptées à chacun des deux modèles.

12 Leslie (1993, p. 490) évoque ainsi: “(…) the potentially much stronger objection that the number of names in the doomsday argument’s imaginary urn, the number of all humans who will ever have lived, has not yet been firmly settled because the world is indeterministic”.

13 Le problème de la classe de référence dans la théorie des probabilités est notamment exposé dans Hájek (2002, s. 3.3). Pour un traitement du problème de la classe de référence dans le contexte qui est celui de DA, voir notamment Eckhardt (1993, 1997), Bostrom (1997, 2002, ch. 4 pp. 69-72 et ch. 5), Franceschi (1998, 1999). Le point souligné dans Franceschi (1999) peut être interprété comme un traitement du problème de la classe de référence au sein de la théorie de la confirmation.

14 Cf. 1996, p. 260-261.

15 Cf. Leslie (1996, p. 259).

16 Cf. Leslie (1996, pp. 258-9): “The thing to note is that the red ball can be treated either just as a red ball or else as a red-or-green ball. Bayes’s Rule applies in both cases. […] All this evidently continues to apply to when being-red-or-green is replaced by being-red-or-pink, or being-red-or-reddish”.

17 Cet aspect important de l’argument est également souligné dans Delahaye (1996). Il s’agit aussi du thème principal de Sober (2003).

18 Je suis reconnaissant envers Nick Bostrom pou des discussions utiles sur le problème de la classe de référence, ainsi qu’envers Daniel Andler, Jean-Paul Delahaye, John Leslie, Claude Panaccio, Elliott Sober, ainsi qu’un expert anonyme pour le Journal of Philosophical Research, pour des commentaires utiles sur de précédentes versions de cet article.

Une analyse dichotomique du paradoxe de l’examen-surprise

Une analyse dichotomique du paradoxe de l’examen-surprise

décembre 2004

Paul Franceschi

Université de Corse

This paper proposes a new framework to solve the surprise examination paradox. I survey preliminary the main contributions to the literature related to the paradox. I expose then a simplified version of the present account. I analyse further the different cases of surprise in more detail. This leads to distinguish between surprise by error, by non-justification and by inappropriate justification. I introduce then a distinction between a monist and a dichotomic analysis of the paradox. With the help of a matrix notation, I also present a dichotomy that leads to distinguish two basically and structurally different notions of surprise, which are respectively based on a conjoint and a disjoint structure. I describe then how Quine’s solution applies to the surprise examination paradox corresponding to the conjoint structure. Lastly, I expose a solution to the paradox based on the disjoint structure.

Je présenterai dans ce qui suit un cadre conceptuel nouveau, en ce sens qu’il réorganise plusieurs éléments de solution décrits dans la littérature, pour résoudre le paradoxe de l’examen-surprise (surprise examination paradox, soit SEP). La solution proposée ici repose sur les éléments essentiels suivants : (a) une distinction entre analyse moniste et dichotomique du paradoxe ; (b) l’introduction d’une définition matricielle, qui sert de support à différentes variations du paradoxe ; (c) la distinction entre une définition conjointe ou disjointe des cas de surprise et de non-surprise, conduisant à deux notions structurellement distinctes de surprise.

Dans la section 1, je m’attache à décrire le paradoxe et les principales solutions rencontrées dans la littérature. Je décris ensuite de manière simplifiée, dans la section 2, la solution au paradoxe qui résulte de la présente approche. Dans la section 3, j’analyse en détail les différents cas de surprise. J’introduis ensuite dans la section 4, la distinction entre analyse moniste et dichotomique du paradoxe. J’y présente également une dichotomie qui permet de distinguer deux versions fondamentalement et structurellement différentes du paradoxe : d’une part une version basée sur une structure conjointe des cas de non-surprise et de surprise ; d’autre part, une version fondée sur une structure disjointe. Dans la section 5, je décris comment la solution de Quine s’applique pour la version de SEP correspondant à la structure conjointe des cas de non-surprise et de surprise. Enfin, dans la section 6, j’expose la solution pour SEP correspondant à la structure disjointe.

  1. Le paradoxe

Le paradoxe de l’examen-surprise trouve son origine dans ce qui constitue un fait réel. En 1943-1944, les autorités suédoises envisagèrent de réaliser un exercice de défense civile. Elles diffusèrent alors par la radio une annonce selon laquelle un exercice de défense civile devait se dérouler la semaine suivante. Cependant, afin que celui-ci se déroule dans des conditions optimales, l’annonce précisa également que personne ne pourrait connaître à l’avance la date de l’exercice. Le mathématicien Lennart Ekbom comprit le subtil problème posé par cette annonce d’un exercice de défense civile et l’exposa à ses étudiants. Le paradoxe connut ensuite une large diffusion à travers le monde.

SEP est tout d’abord apparu dans la littérature avec un article de D. O’ Connor (1948). O’ Connor présente le paradoxe sous la forme de l’annonce d’un exercice d’entraînement militaire. Ultérieurement, SEP apparaîtra dans la littérature sous d’autres formes, telles que l’annonce de l’apparition d’un as dans un jeu de cartes (Scriven 1951) ou encore d’une pendaison (Quine 1953). Cependant, la version du paradoxe liée à l’annonce par un professeur d’un examen-surprise est demeurée la forme la plus courante. La version classique du paradoxe est ainsi la suivante : un professeur annonce à ses étudiants qu’un examen aura lieu la semaine prochaine, mais qu’ils ne pourront pas connaître à l’avance le jour précis où l’examen se déroulera. L’examen aura donc lieu par surprise. Les étudiants raisonnent ainsi. L’examen ne peut avoir lieu le samedi, pensent-ils, car sinon ils sauraient à l’avance que l’examen aurait lieu le samedi et donc il ne pourrait survenir par surprise. Aussi le samedi se trouve-t-il éliminé. De plus, l’examen ne peut avoir lieu le vendredi, car sinon les étudiants sauraient à l’avance que l’examen aurait lieu le vendredi et donc il ne pourrait survenir par surprise. Aussi le vendredi se trouve-t-il également éliminé. Par un raisonnement analogue, les étudiants éliminent successivement le jeudi, le mercredi, le mardi et le lundi. Finalement, ce sont tous les jours de la semaine qui sont ainsi éliminés. Toutefois, cela n’empêche pas l’examen de survenir finalement par surprise, le mercredi. Ainsi, le raisonnement des étudiants s’est avéré fallacieux. Pourtant, un tel raisonnement paraît intuitivement valide. Le paradoxe réside ici dans le fait que le raisonnement des étudiants est semble-t-il valide, alors qu’il se révèle finalement en contradiction avec les faits, à savoir que l’examen peut véritablement survenir par surprise, conformément à l’annonce faite par le professeur.

Dans la littérature, plusieurs solutions pour résoudre SEP ont été proposées. Il n’existe toutefois pas, à l’heure actuelle, de solution qui fasse l’objet d’un consensus. Je citerai brièvement les principales solutions qui ont été proposées, ainsi que les objections fondamentales qu’elles ont soulevées.

Une première tentative de solution est apparue avec O’ Connor (1948). Cet auteur fit observer que le paradoxe était dû au caractère contradictoire qui résultait de l’annonce du professeur et de la mise en œuvre de cette dernière. Selon O’ Connor, l’annonce du professeur selon laquelle l’examen devait survenir par surprise se trouvait en contradiction avec le fait que les détails de la mise en œuvre de l’examen étaient connus. Ainsi, l’énoncé de SEP se révélait-il, selon O’ Connor, auto-réfutant. Cependant, il s’est avéré qu’une telle analyse était inadéquate, car il est finalement apparu que l’examen pouvait véritablement être mis en œuvre dans des conditions où il survenait par surprise, par exemple le mercredi. Ainsi, l’examen pouvait finalement survenir par surprise, confirmant ainsi mais non réfutant, l’annonce du professeur. Cette dernière constatation avait pour effet de faire resurgir le paradoxe.

Quine (1953) proposa également une solution pour SEP. Quine considère ainsi la conclusion finale de l’étudiant selon laquelle l’examen ne peut avoir lieu par surprise aucun jour de la semaine. Selon Quine, l’erreur de l’étudiant réside dans le fait de n’avoir pas envisagé dès le début l’hypothèse selon laquelle l’examen pourrait ne pas avoir lieu le dernier jour. Car le fait de considérer précisément que l’examen n’aura pas lieu le dernier jour permet finalement à l’examen de survenir par surprise, le dernier jour. Si l’étudiant avait également pris en compte cette possibilité dès le début, il ne serait pas parvenu à la conclusion fallacieuse que l’examen ne peut pas survenir par surprise. Cependant, la solution de Quine fit l’objet de critiques, émanant de commentateurs (Ayer 1973, Janaway 1989 et également Hall 1999) qui mirent l’accent sur le fait que celle-ci ne permettait pas de rendre compte de plusieurs variations du paradoxe. Ainsi, Ayer imagine une version de SEP où une personne est informée que les cartes d’un jeu vont être retournées une à une, mais qu’elle ne saura pas à l’avance lorsque l’as de Pique sortira. Néanmoins, la personne est autorisée à vérifier la présence de l’as de Pique avant que le jeu de cartes ne soit mélangé. L’objection à la solution de Quine basée sur une telle variation a pour but de mettre en évidence une situation où le paradoxe est bien présent mais où la solution de Quine ne trouve plus à s’appliquer, parce que l’étudiant sait de manière indubitable, compte tenu des données initiales du problème, que l’examen aura bien lieu.

Selon une autre approche, défendue notamment par R. Shaw (1958), la structure du paradoxe se révèle être auto-référentielle. Selon Shaw, le fait que l’examen doive survenir par surprise s’assimile au fait que la date de l’examen ne pourra pas être déduite à l’avance. Mais le fait que les étudiants ne puissent pas connaître à l’avance, par déduction, la date de l’examen constitue précisément une des prémisses. Le paradoxe trouve donc son origine, selon Shaw, dans le fait que la structure de l’annonce du professeur est auto-référentielle. Selon l’auteur, l’autoréférence qui en résulte constitue ainsi la cause du paradoxe. Cependant, une telle analyse devait se révéler peu convaincante, car elle ne permettait pas de rendre compte du fait que malgré sa structure auto-référentielle, l’annonce du professeur se trouvait finalement confirmée par le fait que l’examen pouvait finalement survenir par surprise, par exemple le mercredi.

Une autre approche, développée par Richard Montague et David Kaplan (1960) est basée sur l’analyse de la structure de SEP qui s’avère, selon ces auteurs, être celle du paradoxe du Connaisseur (paradox of the Knower). Ce dernier paradoxe constitue lui-même une variation du paradoxe du Menteur (Liar paradox). Ce que proposent donc en définitive Montague et Kaplan, c’est une réduction de SEP au paradoxe du Menteur. Mais cette dernière approche ne s’est toutefois pas avérée convaincante. En effet, elle a été critiquée car elle ne rend pas compte, d’une part, du fait que l’annonce du professeur peut être finalement confirmée et d’autre part, du fait que l’on peut formuler le paradoxe de manière non auto-référentielle.

Il convient également de mentionner l’analyse développée par Robert Binkley (1968). Dans son article, Binkley expose une réduction de SEP au paradoxe de Moore (Moore’s paradox). L’auteur fait valoir que le dernier jour, SEP se réduit à une variation de la proposition ‘P et je ne sais pas que P’ qui constitue le paradoxe de Moore. Binkley étend ensuite son analyse concernant le dernier jour aux autres jours de la semaine. Cependant, cette approche a fait l’objet de solides objections, résultant notamment de l’analyse de Wright et Sudbury (1977).

Une autre approche mérite également d’être mentionnée. Il s’agit de celle développée par Paul Dietl (1973) et Joseph Smith (1984). Selon les auteurs, la structure de SEP est celle du paradoxe sorite (sorites paradox). Ce que proposent donc Dietl et Smith, c’est une réduction de SEP au paradoxe sorite. Toutefois, une telle analyse a rencontré de sérieuses objections, développées notamment par Roy Sorensen (1988).

Il convient en outre de mentionner l’approche présentée par Crispin Wright et Aidan Sudbury (1977). L’analyse développée par ces auteurs[1] conduit à distinguer deux cas : d’une  part, le dernier jour, l’étudiant se trouve dans une situation qui est celle qui résulte du paradoxe de Moore ; d’autre part, le premier jour, l’étudiant se trouve dans une situation fondamentalement différente où il peut valablement croire dans l’annonce faite par le professeur. Ainsi, la mise en évidence de ces deux types de situations conduit au rejet du principe de rétention temporelle. Selon ce dernier principe, ce qui est su à une position temporelle T0 est également su à une position temporelle ultérieure T1 (avec T0 < T1). Toutefois, l’analyse de Wright et Sudbury s’est révélée vulnérable à un argument développé par Sorensen (1982). Celui-ci en effet mit en évidence une version de SEP (Designated Student Paradox) qui ne faisait pas appel au principe de rétention temporelle, sur lequel reposait l’approche de Wright et Sudbury. Selon cette version, le paradoxe était bien présent, mais sans que les conditions de son exposé ne nécessitent de faire appel au principe de rétention temporelle. Sorensen décrit ainsi la variation suivante du paradoxe. Cinq étudiants, A, B, C, D et E se trouvent placés, dans cet ordre, l’un derrière l’autre. Le professeur montre alors aux étudiants quatre étoiles en argent et une étoile en or. Puis il place une étoile dans le dos de chacun des étudiants. Enfin, il leur annonce que celui d’entre eux qui a une étoile en or dans le dos a été désigné pour passer un examen. Mais, ajoute le professeur, cet examen constituera une surprise, car les étudiants ne connaîtront celui qui a été désigné que lorsqu’ils rompront leur alignement. Dans ces conditions, il apparaît que les étudiants peuvent mettre en œuvre un raisonnement analogue à celui qui prévaut dans la version originale de SEP. Mais cette dernière version est diachronique, alors que la variation décrite par Sorensen se révèle en revanche synchronique. Et en tant que telle, elle n’est donc pas basée sur un quelconque principe de rétention temporelle.

Compte tenu de ces éléments, il apparaît que l’enjeu et les implications philosophiques de SEP sont d’importance. Ils se situent à plusieurs niveaux et concernent[2] ainsi la théorie de la connaissance, la déduction, la justification, les paradoxes sémantiques, l’autoréférence, la logique modale, les notions vagues.

  1. Une solution simplifiée

Je commencerai par présenter de manière simplifiée la solution pour le paradoxe de l’examen-surprise qui résulte de la présente analyse, avant de m’attacher à décrire ensuite celle-ci de manière détaillée. Les lignes essentielles de la présente solution peuvent en effet être décrites assez simplement. Celles-ci peuvent ainsi être esquissées en considérant ce qu’aurait dû être le raisonnement de l’étudiant. Voici en effet, en vertu de la présente analyse, comment l’étudiant aurait dû raisonner, après avoir entendu l’annonce du professeur. Il aurait dû tout d’abord remarquer que deux conceptions sémantiquement distinctes de la surprise, susceptibles d’influer sur le raisonnement à tenir, se révèlent possibles. Il aurait pu observer également que le professeur n’a pas précisé, lors de son annonce, à laquelle de ces deux conceptions il se référait. Le professeur se réfère donc indifféremment, aurait pu poursuivre l’étudiant, à l’une ou à l’autre de ces conceptions de la surprise. Par conséquent, il est nécessaire d’envisager successivement les deux notions possibles de surprise, et le raisonnement à tenir pour chaque cas.

En premier lieu, il apparaît que la surprise peut correspondre à une définition conjointe des cas de non-surprise et de surprise. Une telle définition est telle que la non-surprise et la surprise sont à la fois possibles, par exemple le dernier jour. Une telle situation peut notamment se produire si l’étudiant commence par raisonner en éliminant successivement, le dernier jour, l’avant-dernier jour, …, puis le 2ème jour, et enfin le 1er jour de la période visée par l’annonce du professeur, en considérant que l’examen ne peut survenir par surprise aucun de ces jours-là. Après avoir éliminé ainsi tous les jours de la période par un raisonnement basé sur une induction-arrière (backward induction argument), l’étudiant conclut alors que l’examen ne peut avoir lieu aucun jour de la période considérée. Mais ceci a précisément pour effet de permettre à la surprise de se produire, notamment si l’examen survient le dernier jour, puisque l’étudiant s’attend alors à ce que l’examen n’ait pas lieu. De manière tout à fait plausible, une telle situation correspond alors à un cas de surprise. Dans une telle situation, l’erreur de raisonnement, ainsi que l’a fait valoir Quine (1953), réside dans le fait que l’étudiant n’a pas considéré comme un cas possible le fait que l’examen survienne par surprise le dernier jour. Cependant, puisqu’une telle situation est finalement susceptible de se présenter, l’étudiant aurait dû la prendre en considération depuis le début, ce qui l’aurait alors empêché d’éliminer successivement les jours nn-1, n-2, …, 2, puis 1 [3]. On peut remarquer en outre que la notion de surprise associée à une structure conjointe est une notion de surprise totale. On se trouve en effet en présence le dernier jour de non-surprise ou de surprise totale, sans qu’il existe dans ce cas de situations intermédiaires.

En second lieu, il s’avère que la surprise aurait pu également correspondre à une définition disjointe des cas de non-surprise et de surprise. Une telle définition correspond au cas où la non-surprise et la surprise ne sont pas possibles le même jour. L’intuition sur laquelle repose une telle conception de la surprise est la suivante : supposez que l’on vous annonce que vous allez subir dans l’année un examen, tout en ignorant par ailleurs le jour précis où il se déroulera. Dans un tel cas, ne résulte-t-il pas de notre expérience que l’examen peut véritablement se produire par surprise, de nombreux jours de l’année, par exemple un jour quelconque des six premiers mois. Un tel phénomène constitue un fait concret qui correspond à l’expérience individuelle de chacun d’entre nous. Dans l’énoncé classique du paradoxe de l’examen-surprise, la période considérée n’est pas aussi longue qu’une année, mais correspond classiquement à une semaine. Cependant, dans ce dernier cas, l’énoncé du paradoxe laisse également place, bien qu’à un moindre degré, à une telle conception de la surprise associée à une structure disjointe des cas de non-surprise et de surprise. En effet, il apparaît ainsi que l’examen peut effectivement survenir par surprise, par exemple le 2ème jour de la semaine. Le 2ème jour constitue ainsi une instance propre de surprise. Parallèlement, le dernier jour constitue une instance propre de non-surprise, puisqu’il résulte de l’énoncé que l’examen ne peut avoir lieu ce jour-là par surprise. Ainsi, le dernier jour correspond à une instance propre de non-surprise, et de même, les 1er et 2ème jours constituent des instances propres de surprise. Cependant, à ce stade, il apparaît également que le statut des autres jours de la période correspondante n’est pas déterminé. Ainsi, une telle structure disjointe des cas de non-surprise et de surprise est à la fois disjointe et non-exhaustive. Par conséquent, il apparaît que la notion de surprise correspondante présente ici les critères d’une notion vague. Et ceci met en lumière le raisonnement que l’étudiant aurait dû tenir. La notion de surprise associée à une structure conjointe étant une notion vague, il existe nécessairement une zone de pénombre entre les instances propres de non-surprise et de surprise, qui correspond à l’existence de cas limites. Une telle zone de pénombre peut résulter de l’existence de degrés de surprise, ou bien de cas dont la nature de non-surprise ou de surprise, bien que déterminée avec précision, n’est cependant pas accessible à notre connaissance. Mais dans tous les cas, il existe bien une zone de pénombre associée à des cas limites, dans la structure de la définition de la surprise correspondante. Et la seule existence de ces cas limites interdit d’éliminer successivement, par un raisonnement basé sur une induction-arrière, les jours nn-1, n-2, …, 2, puis 1. On le voit, à la différence de la notion de surprise précédente, la notion de surprise qui est associée à une structure conjointe conduit ici à l’existence de cas intermédiaires entre la non-surprise et la surprise.

Finalement, il apparaît que le fait d’envisager successivement les deux notions différentes de surprise qui peuvent correspondre à l’annonce du professeur, conduit à rejeter dans les deux cas le raisonnement classique de l’étudiant qui le conduit à éliminer successivement tous les jours de la semaine. Ici, la motivation pour rejeter le raisonnement de l’étudiant se révèle différente pour chacune des deux notions de surprise, mais dans les deux cas, il s’ensuit une conclusion convergente qui conduit au rejet du raisonnement de l’étudiant basé sur une induction-arrière.

  1. Les différents cas de surprise

Les éléments du paradoxe et une analyse simplifiée ayant été présentés, il convient maintenant de s’attacher à décrire en détail la présente solution pour SEP. Commençons tout d’abord avec la notion de surprise[4]. Qu’est-ce qui constitue véritablement un cas de surprise? Comment la surprise peut-elle être définie dans le contexte de SEP? En premier lieu, on peut observer que la surprise apparaît de manière claire lorsque l’examen survient le jour k et que l’étudiant ne prévoit pas que l’examen se déroulera le jour k. La situation correspondante peut revêtir deux formes différentes : soit (a) l’examen survient le jour k mais l’étudiant prédit que l’examen aura lieu un jour p différent de k (formellement, p ¹ k, avec 1 £ p £ n) ; soit (b) l’examen survient de même le jour k mais l’étudiant considère que l’examen n’aura pas lieu du tout (la prédiction associée est alors dénotée par p = 0). Ces deux situations peuvent être prises en compte de manière unifiée, en considérant de manière générale que la surprise se présente sans ambiguïté lorsque l’examen survient le jour k et que l’étudiant prédit que l’examen surviendra un jour p qui est lui-même différent de k (formellement, p ¹ k, avec 0 £ p £ n). De manière intuitive, dans cette dernière situation, la surprise provient du fait que l’étudiant a effectué une prédiction erronée. Ainsi, une telle situation peut être dénommée surprise par erreur.

Alors que la prédiction correspondante est fausse en cas de surprise par erreur, il est utile de distinguer également selon qu’une telle prédiction est justifiée ou non. En effet, la prédiction correspondante peut par exemple être effectuée au hasard. Dans ce cas, une telle prédiction n’est pas justifiée. En revanche, il est possible également que l’étudiant effectue une prévision fausse, mais qui s’avère cependant justifiée. Il s’agit là d’un type de surprise par erreur qui correspond en particulier au cas où l’examen a lieu le jour i et où l’étudiant a prédit de manière erronée mais pourtant justifiée (par l’annonce du professeur et le raisonnement qui en résulte) que l’examen n’aurait lieu aucun jour de la semaine et donc n’aurait pas lieu le jour i. On le voit, dans un tel cas, la prédiction effectuée par l’étudiant est à la fois fausse et justifiée. Cependant, la justification correspondante se révèle inadéquate. Un tel cas peut être dénommé surprise par justification inadéquate.

On peut considérer également un autre type de situation, où la surprise peut survenir alors même que la prédiction effectuée par l’étudiant se révèle vraie. Pour mettre en échec l’annonce du professeur, l’étudiant décide ainsi de mettre en œuvre la stratégie suivante ; le jour 1, je prédirai que l’examen se déroulera le jour 1 ; le jour 2, je prédirai que l’examen se déroulera le jour 2 ; … ; le jour n, je prédirai que l’examen se déroulera le jour n. De la sorte, pense l’étudiant, je suis sûr que ma prédiction sera toujours vraie. Appelons une telle stratégie incrémentale. Il apparaît en effet que cette dernière stratégie a pour conséquence que la prédiction correspondante se révélera systématiquement vraie[5]. Dans ces conditions, on observe tout d’abord que la surprise par erreur ne peut plus se manifester. Cependant, la surprise n’est elle pas possible malgré tout lorsque la stratégie incrémentale est mise en œuvre? La situation correspondante peut être mise en évidence de manière plus nette en considérant par exemple 365-SEP [6]. Dans ce cas, quelle que soit la date finale de l’examen, la prédiction de l’étudiant se révélera vraie, à cause de la stratégie incrémentale utilisée par ce dernier. Toutefois, on peut considérer que l’examen pourra quand même survenir par surprise dans de telles circonstances, par exemple le jour 127. Certes, la prédiction de l’étudiant se révélera vraie. Mais cette dernière prédiction ne sera pas motivée, de sorte que la prédiction correspondante se révélera finalement injustifiée. Par conséquent, on peut considérer que la surprise peut également survenir dans le contexte où la stratégie incrémentale est mise en œuvre. Mais ce dernier type de surprise, à la différence de la surprise par erreur, n’est pas dû à une prédiction erronée. La surprise qui apparaît dans le contexte de la stratégie incrémentale est due au défaut de justification de la prédiction correspondante. Par conséquent, ce type de surprise peut être dénommé surprise par non-justification.

A ce stade, nous sommes désormais en mesure de donner une définition de la notion de surprise. Une telle définition inclut les trois types de surprise qui viennent d’être mentionnés : la surprise par erreur, par justification inadéquate et par non-justification. Ceci conduit à distinguer finalement cinq types de prévisions : (a) vraie et justifiée de manière adéquate ; (b) vraie et non justifiée ; (c) vraie et justifiée de manière inadéquate ; (d) fausse et non justifiée ; (e) fausse et justifiée de manière inadéquate. On le voit, la non-surprise correspond à (a) une prévision qui est à la fois vraie et justifiée de manière appropriée. De même, il s’ensuit une définition de la surprise dont la structure est disjonctive : la surprise correspond ainsi à une prévision (b) vraie et non justifiée, (c) justifiée de manière inadéquate, (d) fausse et non justifiée, ou bien (e) justifiée de manière inadéquate.

Dans ce qui suit, la prévision p effectuée le jour d sera dénotée par dapb (avec 1 £ d £ n, 0 £ p £ n, a Î {0, 1}, et b Î {-1, 0, 1}), avec a = 1 si l’examen a lieu le jour d ou a = 0 si l’examen n’a pas lieu le jour d ; et b = -1 si la prévision de l’étudiant est injustifiée, b= 0 si sa prévision est justifiée de manière inadéquate, b = 1 si la prévision de l’étudiant est justifiée de manière adéquate. Par commodité, on utilisera respectivement {°, *} pour dénoter les valeurs {0, 1} prises par a et {-, °, *} pour dénoter les valeurs {-1, 0, 1} prises par b. Avec cette notation, la surprise par erreur est dénotée par kpb (avec 1 £ k £ n, 0 £ p £ n et k ¹ p), la surprise par non-justification par kp– (avec 1 £ k £ n, 0 £ p £ n), la surprise par justification inadéquate par kp°. Enfin, la non-surprise est dénotée par kk*. Le tableau ci-dessous synthétise l’ensemble des situations ainsi décrites :

casprévisionformevaleursexempledescription
non-surprisevraie et justifiée de manière adéquatek*k*a = 1 b = 1  7*7*l’examen a eu lieu le 7ème jour et l’étudiant a prédit de manière exacte et avec une justification adéquate que l’examen aurait lieu le 7ème jour
surprisevraie et non justifiéek*ka = 1 b = -16*6-l’examen a eu lieu le 6ème jour et l’étudiant a prédit, de manière exacte mais sans justification, que l’examen aurait lieu le 6ème jour
vraie et justifiée de manière inadéquatek*k°  a = 1 b = 06*6°l’examen a eu lieu le 6ème jour et l’étudiant a prédit, de manière exacte mais avec une justification inadéquate, que l’examen aurait lieu le 6ème jour
fausse et non justifiéek*pk ¹ pa = 1 b = -16*7-l’examen a eu lieu le 6ème jour et l’étudiant a prédit de manière erronée et non justifiée que l’examen aurait lieu le 7ème jour
fausse et justifiée de manière inadéquatek*p° k ¹ pa = 1 b = 06*0°l’examen a eu lieu le 6ème jour et l’étudiant a prédit de manière erronée et avec une justification inadéquate que l’examen n’aurait lieu aucun jour de la semaine

Enfin, on pourra remarquer que la définition de la surprise qui précède est basée sur des instances positives, c’est-à-dire des cas où l’examen survient véritablement. Ainsi, k0b et kkb dénotent un cas où l’examen se déroule véritablement le jour k (a = 1). En effet, les prévisions correspondant à un jour où l’examen ne survient pas (a = 0) ne sont pas prises en considération. De telles prévisions qui correspondent à une prédiction effectuée un jour k où l’examen ne survient pas présentent la structure k°pb. Mais ces derniers cas correspondent à des instances négatives (l’examen n’a pas lieu le jour considéré) et leur cas peut par conséquent être légitimement ignoré.

  1. Analyse moniste ou dichotomique du paradoxe

La plupart des analyses classiquement proposées pour résoudre SEP sont basées sur une solution générale qui s’applique, de manière globale, à la situation qui est celle de SEP. Dans ce type d’analyse, une solution unique est présentée, qui est censée s’appliquer à toutes les variations de SEP. Un tel type de solution présente une nature unitaire et se révèle basée sur ce qu’on peut appeler une théorie moniste de SEP. La plupart des solutions pour SEP proposées dans la littérature constituent des analyses monistes. Des exemples caractéristiques de ce type d’analyse de SEP sont les solutions proposées par Quine (1953) ou Binkley (1968). De manière analogue, la solution envisagée par Dietl (1973) qui est basée sur une réduction de SEP au paradoxe sorite constitue également une solution moniste pour SEP.

A l’inverse, une analyse dichotomique de SEP est basée sur une distinction entre deux scénarios différents de SEP et sur la formulation d’une solution indépendante pour chacun des deux scénarios. Dans la littérature, la seule analyse qui présente une nature dichotomique, à ma connaissance, est celle de Wright et Sudbury mentionnée plus haut. Dans ce qui suit, je présenterai une solution dichotomique pour SEP. Cette solution est basée sur la distinction de deux variations de SEP, associées à des notions de surprise correspondant à des structures différentes des cas de non-surprise et de surprise.

A ce stade, il s’avère utile d’introduire la notation matricielle. Si l’on considère par exemple 7-SEP, les différents cas de non-surprise et de surprise peuvent être modélisés à l’aide du tableau S[ks] suivant, où k dénote le jour où l’examen a lieu et S[ks] dénote si le cas correspondant de non-surprise (s = 0) ou de surprise (s = 1) est rendu possible (S[ks] = 1) ou non (S[ks] = 0) par les conditions de l’énoncé (pour 1 £ k £ n). Dans ce contexte, S[7, 1] = 0 dénote par exemple le fait que la surprise n’est pas possible le 7ème jour, et inversement, S[7, 1] = 1 dénote le fait que la surprise est possible le 7ème jour ; de même, S[1, 0] = 0 dénote le fait que la non-surprise n’est pas possible le 1er jour par les conditions  de l’énoncé, et inversement, S[1, 0] = 1 dénote le fait que la non-surprise est possible le 1er jour.

La dichotomie sur laquelle est basée la présente solution résulte directement de l’analyse de la structure qui permet de décrire la notion de surprise correspondant à l’énoncé de SEP. Considérons tout d’abord la matrice suivante, qui correspond à une définition maximale, où tous les cas de non-surprise et de surprise sont rendus possibles par l’annonce du professeur :

(D1)S[k, 0]S[k, 1]
S[7,s]11
S[6,s]11
S[5,s]11
S[4,s]11
S[3,s]11
S[2,s]11
S[1,s]11

Au niveau de (D1), on le voit, toutes les valeurs de la matrice S[ks] sont égales à 1, ce qui correspond au fait que tous les cas de non-surprise et de surprise sont rendus possibles par la version de SEP correspondante. La matrice associée peut être définie ainsi comme une matrice rectangulaire.

A ce stade, il s’avère que l’on peut concevoir des variations de SEP associées à des structures matricielles plus restrictives, où certains cas de non-surprise et de surprise ne sont pas autorisés par l’énoncé. Dans de tels cas, certaines valeurs de la matrice sont égales à 0. Il convient maintenant de s’intéresser à la structure de ces définitions plus restrictives. Ces dernières sont telles qu’il existe au moins un cas de non-surprise ou de surprise qui est rendu impossible par l’énoncé, et où la valeur correspondante de la matrice S[ks] est donc égale à 0. Une telle condition laisse place à un certain nombre de variations, dont il convient maintenant d’étudier les caractéristiques.

De manière préliminaire, on peut remarquer que certains types de structures peuvent d’emblée être écartés. Il apparaît en effet que toute définition associée à une restriction de (D1) ne convient pas. Ainsi, il existe des conditions minimales pour l’émergence de SEP. En ce sens, une première condition est que l’étape de base soit présente. Cette étape de base est telle que la non-surprise doit pouvoir survenir le dernier jour, soit S[n, 0] = 1. Avec la notation précédemment définie, elle présente la forme générale nn et correspond à 77 pour 7-SEP. En l’absence de cette étape de base, on n’a pas l’effet paradoxal de SEP. En conséquence, une structure de matrice telle S[n, 0] = 0 peut être d’emblée éliminée.

Une seconde condition pour que l’énoncé conduise à une version authentique de SEP est que l’examen puisse finalement survenir par surprise. Ceci permet en effet à l’annonce du professeur d’être finalement vérifiée (vindication step). Une telle condition – appelons-la l’étape de validation – est classiquement mentionnée comme une condition pour l’émergence du paradoxe. Ainsi, une définition qui serait telle que tous les cas de surprise sont rendus impossibles par l’énoncé correspondant ne conviendrait également pas. Ainsi, la structure correspondant à la matrice suivante ne correspondrait pas non plus à un énoncé de SEP :

(D2)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]10
S[5,s]10
S[4,s]10
S[3,s]10
S[2,s]10
S[1,s]10

car la surprise n’y est possible aucun jour de la semaine (S[k, 1] = 0) et l’étape de validation fait donc défaut à l’énoncé correspondant.

Compte tenu de ce qui vient d’être exposé, on peut maintenant décrire de manière précise les conditions minimales qui sont celles de SEP :

(C3)   S[n, 0] = 1 (étape de base)

(C4)   $k (1 £ k £ n) tel que S[k, 1] = 1 (étape de validation)

A ce stade, on peut s’intéresser à la structure des versions de SEP basées sur les définitions qui satisfont les conditions minimales pour l’émergence du paradoxe qui viennent d’être détaillées, c’est-à-dire qui contiennent à la fois l’étape de base et l’étape de validation. Il apparaît ici que la structure associée aux cas de non-surprise et de surprise correspondant à une variation de SEP peut présenter deux formes d’une nature fondamentalement différente. Une première forme de SEP est associée à une structure où les cas possibles de non-surprise et de surprise sont tels qu’il existe durant la n-période au moins un jour où la non-surprise et la surprise sont possibles simultanément. Une telle définition peut être appelée conjointe. La matrice suivante constitue un exemple de ce type de structure :

(D5)S[k, 0]S[k, 1]
S[7,s]11
S[6,s]11
S[5,s]11
S[4,s]11
S[3,s]01
S[2,s]01
S[1,s]01

car la non-surprise et la surprise y sont possibles simultanément le 7ème, 6ème, 5ème et 4ème jours. Cependant, il s’avère que l’on peut rencontrer également une seconde forme de SEP dont la structure est fondamentalement différente, en ce sens que pour chaque jour de la n-période, il est impossible d’avoir simultanément la surprise et la non-surprise.[7] Une définition de cette nature peut être appelée disjointe. La matrice suivante constitue ainsi un exemple de ce type de structure :

(D6)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]10
S[5,s]10
S[4,s]01
S[3,s]01
S[2,s]01
S[1,s]01

En conséquence, on sera amené dans ce qui suit à distinguer deux versions structurellement distinctes de SEP : (a) une version basée sur une structure conjointe des cas de non-surprise et de surprise rendus possibles par l’énoncé ; (b) une version fondée sur une structure disjointe de ces mêmes cas. La nécessité d’opérer une telle dichotomie trouve sa légitimité dans le fait que dans la version originale de SEP, le professeur ne précise pas si l’on doit prendre en compte une notion de surprise correspondant à une structure disjointe ou conjointe des cas de non-surprise et de surprise. Eu égard à ce point particulier, l’énoncé de SEP se révèle ambigu. Par conséquent, il est nécessaire de considérer successivement deux notions différentes de surprise, respectivement basées sur une structure disjointe ou conjointe des cas de non-surprise et de surprise, ainsi que le raisonnement qui doit leur être associé.

  1. La notion de surprise correspondant à une structure conjointe

Considérons tout d’abord le cas où SEP est basé sur une notion de surprise correspondant à une structure conjointe des cas de non-surprise et de surprise. Soit SEP(I) la version associée à une telle notion de surprise. Intuitivement, cette version correspond à une situation où il existe dans la n-période au moins un jour où la non-surprise et la surprise peuvent à la fois survenir. Plusieurs types de définitions sont susceptibles de répondre à ce critère. Il convient de les examiner tour à tour.

5.1 La définition associée à la matrice rectangulaire et la solution de Quine

En premier lieu, on peut s’intéresser aux structures qui sont telles que tous les cas de non-surprise et de surprise sont rendus possibles par l’énoncé. La matrice correspondante est une matrice rectangulaire. Soit donc SEP(I□) une telle version. La définition associée à une telle structure est maximale car tous les cas de non-surprise et de surprise y sont autorisés. La matrice suivante correspond ainsi à une telle structure générale :

(D7)S[k, 0]S[k, 1]
S[7,s]11
S[6,s]11
S[5,s]11
S[4,s]11
S[3,s]11
S[2,s]11
S[1,s]11

et l’annonce du professeur qui lui est associée est la suivante :

(S7)Un examen se déroulera la semaine prochaine mais la date de l’examen constituera une surprise.

A ce stade, il apparaît que l’on a également une version de SEP pour n = 1 qui satisfait cette définition. La structure associée à 1-SEP(I□) est la suivante :

(D8)S[1, 0]S[1, 1]
S[1,s]11

qui correspond à l’annonce suivante du professeur :

(S8)Un examen se déroulera demain mais la date de l’examen constituera une surprise.

Ainsi, 1-SEP(I□) est la version minimale de SEP qui satisfait non seulement la condition ci-dessus, mais également l’étape de base (C3) selon laquelle la non-surprise doit pouvoir survenir le dernier jour, ainsi que l’étape de validation (C4) en vertu de laquelle l’examen peut finalement survenir par surprise. De plus, il s’agit là d’une variation qui exclut, par sa structure même, l’émergence de la version de SEP basée sur une notion de surprise correspondant à une structure disjointe. Pour cette raison, (D8) peut être considérée comme la forme canonique de SEP(I□). Ainsi, il s’agit là du véritable noyau de SEP(I□) et dans ce qui suit, on s’attachera donc à raisonner sur 1-SEP(I□).

A ce stade, il convient de s’attacher à donner une solution à SEP(I□). Pour cela, rappelons tout d’abord la solution de Quine. La solution pour SEP proposée par Quine (1953) est bien connue. Quine met en évidence le fait que l’étudiant élimine successivement les jours nn-1, …, 1, par un raisonnement basé sur une induction-arrière et conclut ensuite que l’examen n’aura pas lieu dans la semaine. L’étudiant raisonne ainsi. Le jour n, je prédirai que l’examen aura lieu le jour n, et par conséquent l’examen ne peut avoir lieu le jour n ; le jour n-1, je prédirai que l’examen aura lieu le jour n-1, et par conséquent l’examen ne peut avoir lieu le jour n-1 ; … ; le jour 1, je prédirai que l’examen aura lieu le jour 1, et par conséquent l’examen ne peut avoir lieu le jour 1. Finalement, l’étudiant conclut que l’examen n’aura lieu aucun jour de la semaine. La séquence des prédictions successives de l’étudiant est donc : 1a0b, 2a0b, 3a0b, …, (n-1)a0b, na0b. Ce dernier prévoit ainsi que l’examen n’aura lieu aucun jour de la semaine. Mais cette dernière conclusion permet finalement à l’examen de survenir par surprise, y compris le jour n. Selon Quine, l’erreur dans le raisonnement de l’étudiant réside précisément dans le fait de n’avoir pas pris en compte cette possibilité depuis le début. Car dans cette dernière hypothèse, l’étudiant aurait alors envisagé les deux principales hypothèses qui sont nn (“le dernier jour, je prévoirai que l’examen ne pourra pas avoir lieu par surprise”) et n0° (“le dernier jour, je prévoirai que l’examen n’aura lieu aucun jour de la semaine”), au lieu de la seule hypothèse nn*, en empêchant ainsi le raisonnement fallacieux[8].

Quine d’autre part applique directement son analyse à la forme canonique 1-SEP(I□), où l’énoncé correspondant est celui de (S8). Dans ce cas, l’erreur de l’étudiant réside, selon Quine, dans le fait de n’avoir considéré qu’une seule hypothèse, à savoir 11. En fait, l’étudiant aurait dû considérer 4 cas (a) 11 (“je prévois que l’examen ne pourra pas avoir lieu demain par surprise”) ; (b) 1°1b ; (c) 1°0b ; (d) 1*0° (“je prévois que l’examen n’aura pas lieu demain”). Et le fait de considérer l’hypothèse (a) mais également l’hypothèse (d) qui est compatible avec l’annonce du professeur aurait empêché l’étudiant de conclure que l’examen n’aurait finalement pas lieu[9]. Par conséquent, c’est le fait de n’avoir pris en considération que l’hypothèse (a) qui peut être identifié comme la cause du raisonnement fallacieux. Ainsi, l’étudiant n’a pris que partiellement en compte l’ensemble des hypothèses résultant de l’annonce du professeur. S’il avait appréhendé la totalité des hypothèses pertinentes compatibles avec l’annonce du professeur, il n’aurait pas conclu de manière fallacieuse que l’examen n’aurait pas lieu dans la semaine.

A ce stade, il s’avère utile de décrire le raisonnement de l’étudiant en termes de reconstitution de matrice. Car on peut considérer que le raisonnement de l’étudiant le conduit à reconstituer la matrice correspondant à la notion de surprise de la manière suivante :

(D9)S[1, 0]S[1, 1]
S[1,s]10

alors qu’en réalité, il aurait dû le faire de la façon correcte suivante :

(D8)S[1, 0]S[1, 1]
S[1,s]11

Dans ce contexte, il apparaît clairement que la solution de Quine s’applique de manière adéquate à la version de SEP(I□) basée sur la surprise par erreur ainsi qu’elle vient d’être définie. En raisonnant par rapport à 1‑SEP(I□), la non-surprise correspond aux cas suivants : S[1, 0] = {11}. Et de même, la surprise correspond aux cas où l’étudiant prédit chaque jour – de manière fausse mais justifiée – que l’examen n’aura lieu aucun jour de la semaine : S[1, 1] = {1*0°}. Il s’agit là du cas de surprise (e) où la prévision correspondante est fausse et justifiée de manière inadéquate. On le voit, le cas de surprise (e) auquel s’applique la solution de Quine correspond bien à un raisonnement tout à fait plausible et naturel dans le cadre de SEP [10].

5.2 La définition associée à la matrice triangulaire et la réduction de Hall

On l’a vu, la solution de Quine s’applique directement à SEP(I□), c’est-à-dire à une version de SEP basée sur une définition conjointe de la surprise et une matrice rectangulaire. Il convient maintenant de s’intéresser à des variations de SEP basées sur une définition conjointe mais où la structure de la matrice correspondante n’est pas rectangulaire, tout en satisfaisant cependant les conditions pour l’émergence du paradoxe mentionnées plus haut, à savoir la présence de l’étape de base (C3) et de l’étape de validation (C4). De telles matrices présentent une structure que l’on peut qualifier de triangulaire. Soit donc SEP(I∆) la version correspondante.

On peut considérer tout d’abord 7-SEP(I∆), où la structure des cas possibles de non-surprise et de surprise correspond à la matrice ci-dessous :

(D10)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]11
S[5,s]11
S[4,s]11
S[3,s]11
S[2,s]11
S[1,s]11

et à l’annonce du professeur suivante :

(S10)Un examen se déroulera la semaine prochaine mais la date de l’examen constituera une surprise. De plus, le fait que l’examen aura lieu constitue une certitude absolue.

Une telle annonce se révèle identique à l’énoncé précédent auquel s’applique la solution de Quine, avec cependant une importante différence : l’étudiant possède désormais la certitude que l’examen doit survenir. Et ceci a pour effet de rendre impossible que la surprise survienne le dernier jour. Pour cette raison, on note que S[7, 1] = 0 dans la matrice correspondante. La structure générale correspondant à ce type de définition est :

(D11)S[k, 0]S[k, 1]
S[n,s]10
S[n-1,s]11
………………………………

Et de même, on peut considérer la structure canonique (d’où la dénomination de structure triangulaire trouve sa justification) suivante, qui est celle de SEP(I∆) et qui correspond donc à 2-SEP(I∆) :

(D12)S[k, 0]S[k, 1]
S[2,s]10
S[1,s]11

Une telle structure correspond à l’annonce du professeur suivante :

(S12)Un examen se déroulera dans les deux prochains jours, mais la date de l’examen constituera une surprise. De plus, le fait que l’examen aura lieu constitue une certitude absolue.

On le voit, l’étudiant ne peut qu’être justifié ici le dernier jour, de manière appropriée, dans sa croyance que l’examen surviendra le dernier jour. Car la clause supplémentaire de l’énoncé selon laquelle il est absolument certain que l’examen se déroulera interdit à tous les cas de surprise de se manifester le dernier jour. Une telle version correspond notamment à la variation de SEP décrite par A. J. Ayer. La version correspondante est la suivante. Le joueur est autorisé à vérifier, avant que le paquet de cartes mélangé, qu’il contient bien l’as, le 2, le 3, …, le 7 de Pique. Et il est annoncé que le joueur ne pourra pas prévoir à l’avance et de manière justifiée, quand l’as de Pique sera découvert. Enfin les cartes, initialement cachées, sous découvertes une par une. Une telle version a pour but de rendre impossible, avant que la 7ème carte ne soit découverte, la croyance selon laquelle l’as de pique ne sera pas découvert. Et ceci a pour effet d’interdire à la solution de Quine de s’appliquer le dernier jour.

On peut remarquer ici que la clause additionnelle selon laquelle il est absolument certain que l’examen se déroulera pourrait être également remplacée, avec un effet équivalent, pas une formulation du type “Toutefois, si l’examen survient le dernier jour de la semaine, la prévision de l’étudiant sera effectuée après l’examen lui-même”. Une telle clause se révèle encore plus rigoureuse que celle décrite par Ayer et interdit ainsi à la surprise de se manifester le dernier jour.

Il convient maintenant de présenter une solution pour les versions de SEP associées à des structures correspondant à (D11). Une telle solution est basée sur une réduction récemment exposée par Ned Hall, dont il convient préalablement de rappeler le contexte. Dans la version de SEP considérée par Quine (1953), il apparaît clairement que le fait que l’étudiant doute que l’examen aura bien lieu dans la semaine, à une certaine étape du raisonnement, est autorisé. Quine ainsi se place délibérément dans une situation où l’étudiant dispose de la faculté de douter que l’examen aura véritablement lieu dans la semaine. Les versions décrites par Ayer (1973), Janaway (1989) mais aussi Scriven (1951) traduisent l’intention d’empêcher cette étape particulière dans le raisonnement de l’étudiant. De tels scénarios correspondent, dans l’esprit, à SEP(I∆). On peut également y rattacher la variation du Designated Student Paradox décrite par Sorensen (1982, 357)[11], où cinq étoiles – une étoile d’or et quatre étoiles d’argent – sont attribuées à cinq étudiants, sachant qu’il est indubitable que l’étoile d’or est placée au dos de l’étudiant qui a été désigné (designated student).

Cependant, Ned Hall (1999, 659-660) a récemment exposé une réduction, qui tend à réfuter les objections classiquement opposées à la solution de Quine. L’argumentation développée par Hall est la suivante :

We should pause, briefly, to dispense with a bad – though oft-cited – reason for rejecting Quine’s diagnosis. (See for example Ayer 1973 and Janaway 1989). Begin with the perfectly sound observation that the story can be told in such a way that the student is justified in believing that, come Friday, he will justifiably believe that an exam is scheduled for the week. Just add a second Iron Law of the School : that there must be at least one exam each week. (…) Then the first step of the student’s argument goes through just fine. So Quine’s diagnosis is, evidently, inapplicable.

Perhaps – but in letter only, not in spirit. With the second Iron Law in place, the last disjunct of the professor’s announcement – that E5 & ØJ(E5) – is, from the student’s perspective, a contradiction. So, from his perspective, the content of her announcement is given not by SE5 but by SE4 : (E1 & ØJ1(E1)) Ú … Ú (E4 & ØJ4(E4)). And now Quine’s diagnosis applies straightforwardly : he should simply insist that the student is not justified in believing the announcement and so, come Thursday morning, not justified in believing that crucial part of it which asserts that if the exam is on Friday then it will come as a surprise – which, from the student’s perspective, is tantamount to asserting that the exam is scheduled for one of Monday through Thursday. That is, Quine should insist that the crucial premise that J4(E1 Ú E2 Ú E3 Ú E4) is false – which is exactly the diagnosis he gives to an ordinary 4-day surprise exam scenario. Oddly, it seems to have gone entirely unnoticed by those who press this variant of the story against Quine that its only real effect is to convert an n-day scenario into an n-1 day scenario.

Hall met ainsi en parallèle deux types de situations. La première correspond à la situation, basée sur la surprise par erreur, dans laquelle l’analyse de Quine trouve classiquement sa place. La seconde correspond au type de situation envisagé par les opposants à la solution de Quine et en particulier Ayer (1973) et Janaway (1989). Dans cette dernière hypothèse, une version plus forte de SEP est prise en compte où on considère une seconde Règle d’Or de l’Ecole (Iron Law of the School), où il est admis que l’examen aura nécessairement lieu pendant la semaine. L’argumentation développée par Hall conduit à la réduction d’une version de n-SEP du second type à une version de (n-1)-SEP de type quinéen. Cette équivalence a pour effet d’annihiler les objections des opposants à la solution de Quine[12]. Car l’effet de cette réduction est de rendre finalement possible l’application de la solution de Quine dans les situations décrites par Ayer et Janaway. Dans l’esprit, le scénario envisagé par Ayer et Janaway correspond ainsi à une situation où la surprise n’est pas possible le jour n (c’est-à-dire S[n, 1] = 0). Ceci a effectivement pour effet de neutraliser la solution de Quine basée sur n-SEP(I□). Mais la réduction de Hall trouve alors à s’appliquer. Et son effet est de réduire un scénario correspondant à (D11) à une situation basée sur (D8). En conséquence, la réduction de Hall permet de réduire n-SEP(I∆) à (n-1)-SEP(I□). Elle a pour effet que toute version de SEP(I∆) pour une n-période se réduit à une version de SEP(I□) pour une (n-1)période (formellement n-SEP(I∆) º(n-1)-SEP(I□) pour n > 1). Ainsi, la réduction de Hall permet d’appliquer finalement la solution de Quine à SEP(I∆) [13].

  1. La notion de surprise correspondant à une structure disjointe

Il convient maintenant de s’intéresser au cas où la notion de surprise est basée sur une structure disjointe des cas possibles de non-surprise et de surprise. Soit SEP(II) la version correspondante. Intuitivement, une telle variation correspond à une situation où pour un jour donné de la n-période, il n’est pas possible d’avoir à la fois la non-surprise et la surprise. La structure de la matrice associée est telle que l’on a chaque jour, de manière exclusive, soit la non-surprise, soit la surprise.

A ce stade, il apparaît qu’une question préliminaire peut être posée : la solution de Quine ne peut-elle pas s’appliquer à SEP(II)? L’analyse précédente de SEP(I) montre toutefois qu’une condition nécessaire pour que la solution de Quine trouve à s’appliquer est qu’il existe durant la n-période au moins un jour où la non-surprise et la surprise sont à la fois possibles. Or une telle propriété est celle d’une structure conjointe et correspond à la situation qui est celle de SEP(I). Mais dans le présent contexte qui est celui d’une structure disjointe, la matrice associée vérifie à l’inverse “k S[k, 0] + S[k, 1] = 1. Par conséquent, ceci interdit à la solution de Quine de s’appliquer à SEP(II).

De même, on pourrait se poser la question de savoir si la réduction de Hall ne peut pas non plus s’appliquer à SEP(II). Ainsi, n’a-t-on donc pas une réduction de SEP(II) pour une n-période à SEP(I) pour une (n-1)-période? Il apparaît également que non. En effet, comme on vient de le voir, la solution de Quine ne peut pas s’appliquer à SEP(II). Or l’effet de la réduction de Hall est de réduire un scénario donné à une situation où la solution de Quine trouve finalement à s’appliquer. Mais, étant donné que la solution de Quine ne peut s’appliquer dans le contexte de SEP(II), la réduction de Hall se trouve également dans l’impossibilité de produire son effet.

Etant donné que la solution de Quine ne s’applique pas à SEP(II), il convient de s’attacher à fournir une solution adéquate pour la version de SEP correspondant à notion de surprise associée à une structure disjointe des cas de non-surprise et de surprise. Pour ce faire, il s’avère nécessaire de décrire une version plausible de SEP correspondant à une structure disjointe, ainsi que la structure correspondant à la version canonique de SEP(II).

De manière préliminaire, on peut observer que la version minimale correspondant à une version disjointe de SEP est celle qui est associée à la structure suivante, soit 2-SEP(II) :

(D13)S[1, 0]S[1, 1]
S[2,s]10
S[1,s]01

Cependant, pour des raisons qui deviendront plus claires un peu plus loin, la version correspondante de SEP(II) ne possède pas un degré de réalisme et de plausibilité suffisant pour constituer une authentique version de SEP, c’est-à-dire susceptible d’induire en erreur notre raisonnement.

Afin de mettre en évidence la version canonique de SEP(II) et l’énoncé correspondant, il convient tout d’abord de considérer l’observation, effectuée par plusieurs auteurs[14], selon laquelle le paradoxe émerge nettement, dans le cas de SEP(II), lorsque n est grand. Une caractéristique intéressante de SEP(II) est en effet que le paradoxe émerge intuitivement de manière plus nette lorsque de grandes valeurs de n sont prises en compte. Une illustration frappante de ce phénomène nous est ainsi fournie par la variation du paradoxe qui correspond à la situation suivante, décrite par Timothy Williamson (2000, 139) :

Advance knowledge that there will be a test, fire drill, or the like of which one will not know the time in advance is an everyday fact of social life, but one denied by a surprising proportion of early work on the Surprise Examination. Who has not waited for the telephone to ring, knowing that it will do so within a week and that one will not know a second before it rings that it will ring a second later?

La variation suggérée par Williamson correspond à l’annonce faite à quelqu’un qu’il recevra un coup de téléphone dans la semaine, sans pouvoir toutefois déterminer à l’avance à quelle seconde précise celui-ci surviendra. Cette variation souligne comment la surprise peut se manifester, de manière tout à fait plausible, lorsque la valeur de n est élevée. L’unité de temps considérée par Williamson est ici la seconde, rapportée à une période qui correspond à une semaine. La valeur correspondante de n est ici très élevée et égale à 604800 (60 x 60 x 24 x 7) secondes. Ceci illustre comment une grande valeur de n permet à la variation correspondante de SEP(II) de prendre place d’une façon à la fois plausible et réaliste. Cependant, il n’est pas véritablement indispensable de prendre en compte une valeur aussi grande de n. En effet, une valeur de n égale à 365 convient également très bien. Dans ce contexte, l’annonce du professeur qui correspond à une structure disjointe est alors la suivante :

(S14)Un examen aura lieu dans l’année à venir mais la date de l’examen constituera une surprise.

La définition correspondante présente alors la structure ci-dessous :

(D14)S[1, 0]S[1, 1]
S[365,s]10
………………………………
S[1,s]01

qui constitue une instance de la forme générale suivante :

(D15)S[1, 0]S[1, 1]
S[n,s]10
………………………………
S[1,s]01

Cette dernière structure peut être considérée comme correspondant à la version canonique de SEP(II), pour n grand. Dans la situation particulière associée à cette version de SEP, il apparaît qu’au moins un cas de surprise (par exemple si l’examen survient le premier jour) permet de valider, de manière tout à fait réaliste, l’annonce du professeur.

La forme de SEP(II) qui s’applique à la version standard de SEP est 7-SEP(II), qui correspond à l’énoncé classique:

(S7)Un examen se déroulera la semaine prochaine mais la date de l’examen constituera une surprise.

mais avec cette différence avec la version standard que le contexte est exclusivement ici celui d’une notion de surprise associée à une structure disjointe.

On peut remarquer ici que le cas de surprise qui correspond à SEP(II) est, de même que pour SEP(I), celui où l’étudiant prédit chaque jour – de manière fausse mais justifiée par un raisonnement basé sur l’induction-arrière – que l’examen n’aura lieu aucun jour de la semaine. Il s’agit ainsi du cas de surprise (e) où la prévision correspondante est fausse et justifiée de manière inadéquate. En outre, dans le cas de SEP(II), l’étudiant peut également ne pas remettre en cause le fait que l’examen puisse avoir lieu, et rejeter seulement le fait que l’examen puisse avoir lieu par surprise. Chaque jour, il prévoit alors que l’examen aura lieu, mais en considérant que ce dernier n’aura pas lieu par surprise. L’étudiant est alors amené à conclure que l’examen ne peut avoir lieu par surprise aucun jour de la n-période. Par conséquent, la prédiction correspondante se révélera vraie. Cependant, cela n’empêche pas finalement l’examen de survenir par surprise, puisque la prédiction de l’étudiant, fondée sur un raisonnement basé sur l’induction-arrière, sera finalement justifiée de manière inadéquate. Ainsi, le cas de surprise concerné est ici le cas (c), qui correspond à une prédiction vraie et justifiée de manière inadéquate[15].

A ce stade, on est désormais à même de déterminer l’étape fallacieuse dans le raisonnement de l’étudiant. Pour cela, il est utile de décrire le raisonnement de l’étudiant en termes de reconstitution de matrice. Le raisonnement de l’étudiant le conduit en effet à attribuer une valeur pour S[k, 0] et S[k, 1]. Et lorsqu’il a connaissance de l’annonce du professeur, le raisonnement de l’étudiant le conduit en effet à reconstruire la matrice correspondante telle que tous les S[k, 0] = 1 et S[k, 1] = 0, de la manière suivante (pour n = 7) :

(D16)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]10
S[5,s]10
S[4,s]10
S[3,s]10
S[2,s]10
S[1,s]10

On peut noter ici que l’ordre de reconstitution se révèle indifférent. A ce stade, on est en mesure d’identifier l’erreur de raisonnement qui est à l’origine de la conclusion erronée de l’étudiant. Il apparaît en effet que l’étudiant n’a pas tenu compte du fait que la surprise correspond ici à une structure disjointe. En effet, il aurait dû considérer ici que le dernier jour correspond à une instance propre de non-surprise et donc que S[n, 0] = 1. De même, il aurait dû considérer que le 1er jour (par exemple) correspond à une instance propre de surprise et donc S[1, 1] = 1. Le contexte étant celui d’une structure disjointe, il aurait pu légitimement ajouter que S[n, 1] = 0 et S[1, 0] = 0. A ce stade, la matrice partiellement reconstituée aurait alors été la suivante :

(D17)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]
S[5,s]
S[4,s]
S[3,s]
S[2,s]
S[1,s]01

L’étudiant aurait alors dû poursuivre son raisonnement de la manière suivante. Les instances propres de non-surprise et de surprise qui sont ici disjointes ne capturent pas en totalité la notion de surprise. Dans un tel contexte, la notion de surprise n’est pas capturée de manière exhaustive par l’extension et l’anti-extension de la surprise. Or une telle définition est conforme à la définition classique d’un prédicat vague, caractérisé par une extension et une anti-extension mutuellement exclusives et non-exhaustives[16]. Ainsi, la conception de la surprise associée une structure disjointe est celle d’une notion vague.

Ce qui précède permet maintenant d’identifier avec précision ce qui pêche dans le raisonnement de l’étudiant, lorsque la notion de surprise est une notion vague associée à une structure disjointe. Car l’erreur à l’origine du raisonnement fallacieux de l’étudiant réside dans l’absence de prise en compte du fait que la surprise correspond dans le cas d’une structure disjointe, à une notion vague, et comporte donc la présence d’une zone de pénombre correspondant à des cas-limites (borderline) entre la non-surprise et la surprise. Point n’est besoin ici de disposer d’une solution pour le paradoxe sorite. En effet, que ces cas-limites résultent d’une succession de degrés intermédiaires, d’une coupure précise entre la non-surprise et la surprise dont l’emplacement exact nous est impossible à connaître, etc. importe peu ici. Car dans tous les cas, l’existence des cas-limites interdit de conclure que S[k, 0] = 1, pour k ¹ 7 et k ¹ 1.

Plusieurs façons existent ainsi pour reconstituer la matrice en accord avec ce qui précède. L’une de ces façons (basée sur conception du vague fondée sur la logique floue) consiste à considérer qu’il existe une succession continue et graduelle de la non-surprise à la surprise. L’algorithme correspondant pour reconstituer la matrice est alors celui où le pas est donné par la formule 1/(np) où p correspond à une instance propre de surprise. Pour p = 3, on a ici 1/(7-3) = 0,25, avec S[3, 1] = 1. Et la matrice correspondante est ainsi la suivante :

(D18)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]0,750,25
S[5,s]0,50,5
S[4,s]0,250,75
S[3,s]01
S[2,s]01
S[1,s]01

où la somme des valeurs de la matrice associées à un jour donné est égale à 1. L’intuition qui préside à SEP(II) est ici que la non-surprise est totale le jour n, mais qu’il existe des degrés intermédiaires de surprise si (0 < si < 1), tels que plus on s’approche du dernier jour, plus l’effet de non-surprise est élevé. A l’inverse, l’effet de surprise est total dans les premiers jours, par exemple les jours 1, 2 et 3.

De manière alternative, on pourrait utiliser ici la notation équivalente suivante :

(D19)S[k, 0]S[k, 0,25]S[k, 0,5]S[k, 0,75]S[k, 1]
S[7,s]10000
S[6,s]01000
S[5,s]00100
S[4,s]00010
S[3,s]00001
S[2,s]00001
S[1,s]00001

avec une matrice associée qui comporte m colonnes, permettant ainsi un passage progressif de la non-surprise à la surprise, avec m-2 valeurs intermédiaires.

On peut remarquer ici que les définitions correspondant à SEP(II) qui viennent d’être décrites, sont telles qu’elles présentent une propriété de linéarité (formellement, “ki (1 < k £ n, 1 £ i < m, pour une matrice comportant m colonnes) si S[ksi] = 1 alors S[k-1, si] = 1 ou[17] S[k-1, si+1] = 1). Il apparaît en effet qu’une structure correspondant aux cas possibles de non-surprise et de surprise qui ne présenterait pas une telle propriété de linéarité, ne capturerait pas l’intuition correspondant à la notion de surprise. Pour cette raison, il paraît suffisant de limiter la présente étude aux structures de définitions satisfaisant cette propriété de linéarité.

On peut observer ici qu’une façon alternative de reconstituer la matrice correspondante aurait pu être utilisée. Il s’agit du cas où la nature vague de la surprise est déterminée par  l’existence d’une coupure précise entre les cas de non-surprise et de surprise, dont il ne nous est cependant pas possible de connaître l’emplacement exact. Dans ce cas, la matrice aurait pu être reconstituée par exemple de la manière suivante :

(D20)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]10
S[5,s]10
S[4,s]01
S[3,s]01
S[2,s]01
S[1,s]01

A ce stade, on peut se demander si la version du paradoxe associée à SEP(II) ne peut pas être assimilée au paradoxe sorite. La réduction de SEP au paradoxe sorite est en effet la solution qui a été proposée par certains auteurs, notamment Dietl (1973) et Smith (1984). Toutefois, ces dernières solutions, basées sur l’assimilation de SEP au paradoxe sorite, constituent des analyses monistes, qui ne conduisent pas, à la différence de la présente solution, à deux solutions indépendantes basées sur deux versions structurellement différentes de SEP. En ce qui concerne par ailleurs les analyses proposées par Dietl et Smith, il n’apparaît pas clairement si chaque étape de SEP est pleinement assimilée à l’étape correspondante du paradoxe sorite, ainsi que l’a souligné Sorensen[18]. Mais dans le contexte d’une conception de la surprise correspondant à une structure disjointe, le fait que le dernier jour correspond à une instance propre de non-surprise peut être ici assimilé à l’étape de base du paradoxe sorite.

Cependant, il apparaît qu’une telle réduction de SEP au paradoxe sorite, limitée à la notion de surprise correspondant à une structure disjointe, ne prévaut pas. En premier lieu, il n’apparaît pas clairement si l’énoncé de SEP peut être traduit en une variation du paradoxe sorite, en particulier pour ce qui concerne 7‑SEP(II). Car la variation correspondante du paradoxe sorite serait trop rapide, ainsi que l’a déjà été noté Sorensen (1988)[19]. Et on peut penser en outre, ainsi que l’a fait remarquer Scott Soames (1999), que certains prédicats vagues ne sont pas susceptibles de donner lieu à une version correspondante du paradoxe sorite. Tel apparaît bien être le cas pour la notion de surprise associée à 7-SEP(II). Car comme l’a fait remarquer Soames[20], le continuum qui est sémantiquement associé aux prédicats donnant lieu au paradoxe sorite, peut être fragmenté en unités si petites que si l’une de ces unités est intuitivement F, alors l’unité suivante est également F. Or tel n’est pas le cas pour la variation constituée par 7-SEP(II), car les unités correspondantes (1 jour) ne sont pas assez fines par rapport à la période considérée (7 jours).

Enfin surtout, on l’a vu plus haut, la solution précédente pour SEP(II) s’applique, quelle que soit la nature de la solution adoptée pour le paradoxe sorite. Car c’est la méconnaissance de la structure sémantique de la notion vague de surprise qui se trouve à l’origine du raisonnement fallacieux de l’étudiant dans le cas de SEP(II). Et ce fait est indépendant de la solution qui devrait être apportée, dans le futur, pour le paradoxe sorite, que cette approche soit d’inspiration épistémologique, supervaluationniste, basée sur la logique floue, …, ou d’une toute autre nature.

  1. Conclusion

Je mentionnerai finalement que la solution qui vient d’être proposée s’applique, ce me semble, aux variations de SEP mentionnées par Sorensen (1982). En effet, la structure des formes canoniques de SEP(I□), SEP(I∆) ou SEP(II) indique que quelle que soit la version prise en compte, la solution qui s’applique ne nécessite pas de faire appel à un quelconque principe de rétention temporelle. Elle est également indépendante de l’ordre d’élimination et peut enfin s’appliquer lorsque la durée de la n-période n’est pas connue lors de l’annonce faite par le professeur.

Enfin, on peut mentionner que la stratégie développée dans la présente étude se révèle structurellement analogue à celle mise en œuvre dans mon analyse du paradoxe de Hempel (1999) : en premier lieu, établir une dichotomie qui permet de diviser le problème concerné en deux classes distinctes ; en second lieu, montrer que chacune des versions qui en résultent admet une résolution spécifique[21]. De manière similaire, dans la présente analyse de SEP, une dichotomie est effectuée et les deux catégories de problèmes qui en résultent donnent ensuite lieu à une solution indépendante. Ceci suggère que le fait que deux versions structurellement indépendantes se trouvent inextricablement mêlées dans les paradoxes philosophiques pourrait être une caractéristique plus répandue qu’on pourrait le penser de prime abord et pourrait également expliquer en partie la difficulté qui leur est propre[22].


REFERENCES

AYER, A. J. 1973, “On a Supposed Antinomy”, Mind 82, pp. 125-126.
BINKLEY, R. 1968, “The Surprise Examination in Modal Logic”, Journal of Philosophy 65, pp. 127-136.
CHALMERS, D. 2002, “The St. Petersburg two-envelope paradox”, Analysis 62, pp. 155-157.
CHOW, T. Y. 1998, “The Surprise Examination or Unexpected Hanging Paradox”, The American Mathematical Monthly 105, pp. 41-51.
DIETL, P. 1973, “The Surprise Examination”, Educational Theory 23, pp. 153-158.
FRANCESCHI, P. 1999, “Comment l’urne de Carter et Leslie se déverse dans celle de Hempel“, Canadian Journal of Philosophy 29, pp. 139-156.
HALL, N. 1999, “How to Set a Surprise Exam”, Mind 108, pp. 647-703.
HYDE, D. 2002 “Sorites Paradox”, The Stanford Encyclopedia of Philosophy (Fall 2002 Edition), E. N. Zalta (ed.), http ://plato.stanford.edu/archives/fall2002/entries/sorites-paradox.
JANAWAY, C. 1989, “Knowing About Surprises : A Supposed Antinomy Revisited”, Mind 98, pp. 391-410.
MONTAGUE, R. & KAPLAN, D. 1960, “A Paradox Regained”, Notre Dame Journal of Formal Logic 3, pp. 79-90.
O’ CONNOR, D. 1948, “Pragmatic paradoxes”, Mind 57, pp. 358-359.
QUINE, W. 1953, “On a So-called Paradox”, Mind 62, pp. 65-66.
SAINSBURY, R. M. 1995, Paradoxes, 2ème édition, Cambridge : Cambridge University Press.
SCRIVEN, M. 1951, “Paradoxical announcements”, Mind 60, pp. 403-407.
SHAW, R. 1958, “The Paradox of the Unexpected Examination”, Mind 67, pp. 382-384.
SMITH, J. W. 1984,  “The surprise examination on the paradox of the heap”, Philosophical Papers 13, pp. 43-56.
SOAMES, S. 1999, Understanding Truth, New York, Oxford : Oxford University Press.
SORENSEN, R. A. 1982, “Recalcitrant versions of the prediction paradox”, Australasian Journal of Philosophy 69, pp. 355-362.
SORENSEN, R. A. 1988, Blindspots, Oxford : Clarendon Press.
WILLIAMSON, T. 2000, Knowledge and its Limits, London & New York : Routledge.
WRIGHT, C. & SUDBURY, A. 1977, “The Paradox of the Unexpected Examination”, Australasian Journal of Philosophy 55, pp. 41-58.

[1] Je simplifie ici considérablement.

[2] Sans prétendre à l’exhaustivité.

[3] Dans ce qui suit, n désigne le dernier jour de la période correspondant à l’annonce du professeur.

[4] L’objet de la présente section n’est pas l’étude de la notion de surprise per se. Elle a davantage pour but en effet d’éliminer certaines connotations psychologiques au niveau de la notion de surprise, afin de mettre en évidence plus nettement la structure du paradoxe.

[5] En prenant en compte le fait que seules les instances positives (c’est-à-dire une prédiction associée à un jour où l’examen survient véritablement) sont prises en compte, et que les instances négatives (c’est-à-dire une prédiction associée à un jour où l’examen ne survient pas) sont purement et simplement ignorées. Ce point particulier est présenté de manière plus détaillée à la fin de la présente section.

[6] Soit 1-SEP, 2-SEP,…, n-SEP le problème pour respectivement 1 jour, 2 jours,…, n jours.

[7] Les cas où ni la non-surprise ni la surprise ne sont possibles un même jour (c’est-à-dire tels que S[k, 0] + S[k, 1] = 0) peuvent être purement et simplement ignorés.

[8] Cf. (1953, 65) : ‘It is notable that K acquiesces in the conclusion (wrong, according to the fable of the Thursday hanging) that the decree will not be fulfilled. If this is a conclusion which he is prepared to accept (though wrongly) in the end as a certainty, it is an alternative which he should have been prepared to take into consideration from the beginning as a possibility.’

[9] Cf. (1953, 66) : ‘If K had reasoned correctly, Sunday afternoon, he would have reasoned as follows : “We must distinguish four cases : first, that I shall be hanged tomorrow noon and I know it now (but I do not) ; second, that I shall be unhanged tomorrow noon and do not know it now (but I do not) ; third, that I shall be unhanged tomorrow noon and know it now ; and fourth, that I shall be hanged tomorrow noon and do not know it now. The latter two alternatives are the open possibilities, and the last of all would fulfill the decree. Rather than charging the judge with self-contradiction, let me suspend judgment and hope for the best.”‘

[10] A ce stade, on pourrait montrer ici que le principe de la solution de Quine s’applique également à des versions de SEP(I□) basées sur les trois autres cas de surprise (b), (c) et (d) définis plus haut (cf. s. 3). Toutefois, ces trois derniers cas de surprise présentent un intérêt qui apparaît essentiellement théorique, et qui ne correspond pas véritablement à des situations concrètes. A l’inverse, la solution de Quine s’applique directement à une situation qui apparaît tout à fait plausible. Pour appréhender le cas (b) de surprise pour 1-SEP, correspondant à une prévision vraie et non justifiée, il suffirait par exemple de considérer que l’étudiant effectue le jour 1 une prédiction qui n’est pas justifiée. On aurait alors l’émergence d’une variation de la solution de Quine appliquée à 1-SEP(I□) et au cas (b) de surprise, etc.

[11] ‘The students are then shown four silver stars and one gold star. One star is put on the back of each student.’.

[12] Hall réfute par ailleurs, mais sur un fondement différent, la solution proposée par Quine.

[13] La réduction de Hall peut aisément être généralisée. Elle est alors associée à une version de n-SEP(I∆) telle que la surprise ne pourra survenir les m derniers jours de la semaine. Une telle version est associée à une matrice telle que (a) $m (1 £ m < n) tel que S[nm, 0] = S[nm, 1] = 1 ; (b) “p > nm S[p, 0] = 1 et S[p, 1] = 0 ; (c) “q < nm S[q, 0] = S[q, 1] = 1. Dans cette nouvelle situation, une réduction de Hall généralisée s’applique à la version de SEP correspondante. Dans ce cas, la réduction de Hall étendue conduit à : n-SEP(I∆) º (nm)-SEP(I□).

[14] Cf. notamment Hall (1999, 661), Williamson (2000).

[15] On pourrait montrer également que la solution qui prévaut pour SEP(II) s’applique également à des versions de SEP(II) basées sur les deux autres cas de surprise (b) et (d) définis plus haut (cf. s. 3.). En effet, ces derniers cas de surprise peuvent être également appréhendés dans le cadre de la présente solution pour SEP(II) et d’énoncés correspondants. Ces deux derniers cas de surprise présentent toutefois un intérêt limité, car ils conduisent à des variations dont la nature est essentiellement théorique.

[16] Cette définition d’un prédicat vague est empruntée à Soames. Considérant l’extension et l’anti-extension d’un prédicat vague, Soames (1999, 210) précise ainsi : “These two classes are mutually exclusive, though not jointly exhaustive”.

[17] Il s’agit d’un ou exclusif.

[18] Cf. Sorensen (1988, 292-293) : ‘Indeed, no one has simply asserted that the following is just another instance of the sorites.

  1. Base step : The audience can know that the exercise will not occur on the last day.
  2. Induction step : If the audience can know that the exercise will not occur on day n, then they can also know that the exercise will not occur on day n – 1

iii.            The audience can know that there is no day on which the exercise will occur.

Why not blame the whole puzzle on the vagueness of ‘can know’? (…) Despite its attractiveness, I have not found any clear examples of this strategy.’

[19] Cf. (1988, 324): ‘One immediate qualm about assimilating the prediction paradox to the sorites is that the prediction paradox would be a very ‘fast’ sorites. (…) Yet standard sorites arguments involve a great many borderline cases.’

[20] Cf. Soames (1999, 218): ‘A further fact about Sorites predicates is that the continuum semantically associated with such a predicate can be broken down into units fine enough so that once one has characterized one item as F (or not F), it is virtually irresistible to characterize the same item in the same way’.

[21] Un exemple caractéristique de ce type d’analyse est également fourni par la solution pour le paradoxe des deux enveloppes (two-envelope paradox) décrite par David Chalmers (2002, 157) : ‘The upshot is a disjunctive diagnosis of the two-envelope paradox. The expected value of the amount in the envelopes is either finite or infinite. If it is finite, then (1) and (2) are false (…). If it is infinite, then the step from (2) to (3) is invalid (…)’.

[22] Je suis reconnaissant envers Timothy Chow, Ned Hall, Claude Panaccio et plusieurs experts anonymes pour des commentaires très utiles concernant de précédentes versions de cet article.

Introduction à la philosophie analytique: Paradoxes, arguments et problèmes contemporains

3ème édition, avec de nouvelles illustrations

Dans cet ouvrage (3ème édition), Paul Franceschi nous livre une introduction à la philosophie analytique. De manière concrète, il choisit de décrire quarante paradoxes, arguments ou problèmes philosophiques, qui constituent autant de défis pour la philosophie contemporaine et l’intelligence humaine. Car certains paradoxes d’origine millénaire – tels que le Menteur ou le paradoxe sorite – ne sont toujours pas résolus à l’époque actuelle. D’autres énigmes philosophiques en revanche – telles que l’argument de l’Apocalypse – ne sont apparues que très récemment dans la littérature. L’auteur s’attache à nous présenter clairement chacun de ces problèmes ainsi que les principales tentatives qui ont été formulées pour les résoudre.

“Un réjouissant concentré de casse-têtes: j’adore ce livre ! (…) Je suis vraiment impressionné par ce livre trés soigné et stimulant. Je le recommande chaudement, tant aux étudiants pour la pédagogie et la culture générale (dilemme du prisonnier, Terre-jumelle, etc.), qu’aux pros pour l’outil de référence, et même plus généralement à ceux qui aiment réfléchir.” Julien Dutant, Blog philosophique.

Les enfants d’Eubulide

Dans ce dialogue à trois personnages, Paul Franceschi transpose l’enseignement d’Eubulide – qui fut dirigeant de l’Ecole de Mégare – à l’époque contemporaine, 2500 ans plus tard. Pharamménion expose son enseignement à Ephilodie et à Vallidor. La discussion porte sur plusieurs des paradoxes célèbres introduits par Eubulide – le Menteur, le paradoxe sorite – mais aussi d’autre paradoxes modernes comme celui de la Belle au bois dormant, le paradoxe de Goodman, etc… Mais très vite, Ephilodie et Vallidor découvrent que l’intérêt de l’étude des paradoxes ne réside pas seulement dans les paradoxes proprement dits, et commencent à entrevoir peu-à-peu toute la portée de l’enseignement initié par Eubulide. Des connexions inattendues se font jour…